Come funzionano le fotocamere degli smartphone?
"Che processore ha il tuo telefono? Quanto spazio ha? Quanta RAM?" Questo è il modo in cui confrontavamo i telefoni, ma oggi le domande più comuni sono: "Quanto sono buone le fotocamere del tuo telefono? Quanto bene scatta foto e video di notte?" Quando testano i telefoni, tutti, compresi i tester, compresi noi della redazione, prestano la massima attenzione alle fotocamere e solo allora alle prestazioni generali del telefono. Dato che ci sono parecchie incognite riguardo alle fotocamere e molta terminologia tecnica (schermo, sensori, obiettivi, messa a fuoco...), potrebbe essere il momento di chiarire un po' la nebbia sul loro funzionamento.
Tutto ruota attorno alla luce
È sorprendente (o no) quanti paralleli possiamo fare tra la macchina fotografica e il nostro occhio. Nelle stanze buie, gli occhi e le telecamere sono ciechi. Per registrare un'immagine, abbiamo bisogno di luce. Ma la luce è spesso diffusa in tutte le direzioni. I nostri occhi sono dotati di lenti che dirigono la luce sulla retina. Anche le fotocamere dei nostri telefoni sono dotate di obiettivi che catturano e registrano le informazioni sulla luce.
La luce può anche danneggiare la fotografia, il che è più evidente con le fotocamere analogiche che utilizzano pellicole fotografiche. Un'esposizione (troppo) lunga alla luce può distruggere il contenuto della pellicola. L'invenzione dell'apertura ha risolto questo enigma. Nelle fotocamere analogiche, l'otturatore è un meccanismo fisico che si apre e si chiude rapidamente per controllare la quantità di luce che raggiunge la pellicola. Le palpebre hanno una funzione simile.
Sui telefoni non è presente un otturatore fisico, anche se si sente quel caratteristico "clic" quando si scatta una foto. È solo un effetto sonoro. Metti il telefono in modalità silenziosa e il suono scomparirà. Invece degli otturatori fisici, le fotocamere dei telefoni utilizzano un otturatore elettronico che ha la stessa funzione, ma fa tutto con algoritmi anziché con il movimento fisico. Alcuni smartphone, come Huawei Mate 50 Pro, dispongono di una fotocamera con un'apertura fisica che può essere spostata tra posizioni preimpostate.
Il film non è stato ancora dimenticato. È ancora in uso tra gli hobbisti, i fotografi professionisti e persino nell'industria cinematografica. Altrove è stato sostituito dai sensori.
Perché i telefoni cellulari hanno lenti diverse?
Probabilmente hai visto un fotografo professionista cambiare gli obiettivi della sua macchina fotografica a seconda della scena che aveva di fronte. I telefoni sono tecnicamente in grado di farlo, come dimostrato da Xiaomi con il telefono Xiaomi 12S Ultra Concept, ma è estremamente poco pratico e sorgono nuovi ostacoli, come problemi di durabilità, resistenza all'acqua, prezzo elevato e simili. I produttori hanno quindi proposto come soluzione diverse fotocamere, ciascuna con il proprio obiettivo specifico, che può essere facilmente commutato all'interno dell'applicazione della fotocamera in base alle esigenze. Oggi, la maggior parte delle fotocamere dei telefoni funziona in questo modo.
Se guardi il retro del tuo telefono, noterai due, tre o anche quattro lenti e una sul display anteriore. Ognuno offre una prospettiva diversa, profondità e caratteristiche uniche. L'obiettivo principale è comprensibilmente sempre presente. La fotocamera ultra-wide è più o meno una costante anche sui telefoni cellulari. Nella classe inferiore troviamo spesso una fotocamera macro, mentre i telefoni premium hanno un teleobiettivo e un teleobiettivo periscopico, come il Samsung Galaxy S23 Ultra.
Qual è la funzione della lente?
Apertura, obiettivo e sensore di immagine sono strettamente correlati. L'apertura è l'apertura che puoi vedere fisicamente sull'obiettivo della fotocamera. Come accennato, l'apertura controlla la quantità di luce che raggiunge l'obiettivo e il sensore. Come regola generale, un'apertura maggiore è migliore perché significa che la fotocamera può utilizzare più informazioni sulla luce. Tuttavia, questo non è necessariamente il miglior indicatore della qualità della foto.
Se guardi le specifiche del tuo telefono, noterai una valutazione "f" per le fotocamere. Questi gradi sono il rapporto tra la lunghezza focale e il diametro fisico dell'apertura. Più piccolo è questo numero, maggiore è l'apertura. Ad esempio, vivo X90 Pro ha un obiettivo principale f/1.8 con lunghezza focale di 23 mm, un teleobiettivo sf/1.6 (50 mm) e così via.
Avrai difficoltà a confrontare le prestazioni delle fotocamere del telefono con la lunghezza focale. La lunghezza focale è estremamente importante, ma aiuta a creare estetiche ed effetti visivi diversi. Una lunghezza focale più corta è destinata ad una prospettiva grandangolare: gli oggetti vicini appaiono più grandi. Una lunghezza focale maggiore, ad esempio, crea una foto più proporzionale e neutra.
Quando la luce entra nel modulo della fotocamera, l'obiettivo raccoglie la luce in entrata dallo scatto e la dirige sul sensore. Le fotocamere degli smartphone sono costituite da numerose lenti in plastica chiamate elementi. A causa della natura della luce, diverse lunghezze d'onda della luce (colori) vengono rifratte (piegate) ad angoli diversi quando passano attraverso una lente. Ciò significa che i colori della scena vengono proiettati sul sensore della fotocamera fuori allineamento. Le fotocamere necessitano di più obiettivi per trasmettere un'immagine chiara al sensore senza possibili irregolarità come disallineamento e altri effetti.
Come funziona la messa a fuoco sulle fotocamere degli smartphone?
Per ironia della sorte, la messa a fuoco non è quella dell'utente perché di solito è controllata dalle fotocamere stesse. In una certa misura, la messa a fuoco può essere regolata manualmente (a seconda del telefono), ma nella maggior parte dei casi il software fa il lavoro così bene che l'intervento manuale non è necessario. Le fotocamere dei cellulari utilizzano un sensore dedicato e/o hardware aggiuntivo come un telemetro laser per mettere a fuoco.
La messa a fuoco automatica del software utilizza i dati del sensore di immagine per determinare se l'immagine è a fuoco e regola le lenti per compensare. La tecnica abituale dell'autofocus passivo si basa sul rilevamento del contrasto dell'immagine e sulla regolazione della messa a fuoco fino al suo massimo. Questo metodo è interamente basato su software, il che lo rende l’opzione più economica. Tuttavia, il processo è più lento e non funziona altrettanto bene in condizioni di scarsa illuminazione.
I telefoni più recenti utilizzano la messa a fuoco automatica a rilevamento di fase (PDAF), che è più veloce e precisa. Vai alle specifiche dell'ultimo iPhone 15 Pro Max e noterai il tag PDAF sulle fotocamere. Quest'ultimo garantisce che la stessa quantità di luce raggiunga due sensori posizionati ravvicinati sul sensore di immagine. I sistemi PDAF classici si affidano a questi fotositi dedicati sul sensore di immagine per misurare la luce proveniente dal lato sinistro o destro dell'obiettivo. Se i punti dell'immagine a destra registrano la stessa intensità luminosa dei punti a sinistra, l'immagine è a fuoco. Se l'intensità non è la stessa, il sistema può calcolare quanto è necessario per compensare un'immagine nitida, il che è molto più veloce rispetto ai sistemi che si basano sul rilevamento del contrasto.
I sistemi PDAF più vecchi utilizzano solo una piccola percentuale di tutti i siti di immagini, mentre quelli più recenti, come il Galaxy S23 Ultra, ne utilizzano tutto il 100%. Oltre ai punti immagine sinistro e destro, per la messa a fuoco vengono utilizzati anche i punti immagine superiore e inferiore.
Gli iPhone dispongono da tempo di un sensore LiDAR dedicato che migliora la messa a fuoco, la percezione della profondità, l'imaging notturno ed è utile per le applicazioni di realtà aumentata (AR).
Cos'è un sensore di immagine?
Il sensore è fondamentalmente solo un wafer di silicio, da cui dipende molto. Il sensore riceve la luce e la converte in segnali elettrici. Un sensore può avere diversi milioni di pixel. Come puoi scoprirlo? Se vedi una fotocamera da 100 o 200 MP, significa che il sensore in questione ha 100 o addirittura 200 megapixel. Se la luce dell'obiettivo non raggiunge il punto dell'immagine, il sensore registra questo punto dell'immagine come nero. Se il punto dell'immagine riceve molta luce, il sensore lo registra come bianco. Le sfumature di grigio che il sensore può registrare sono chiamate profondità di bit.
La maggior parte dei telefoni ha una profondità di 8 bit, ma alcuni hanno una profondità di 10 bit. In confronto, la profondità a 8 bit significa che la fotocamera può catturare 256 tonalità per ciascun canale di colore primario utilizzato per miscelare lo spettro dei colori (rosso, verde e blu). Sono 256 sfumature di rosso, verde e blu. In totale si tratta di 16,7 milioni di possibili sfumature di colore. Le fotocamere a 10 bit possono catturare più di un miliardo di sfumature.
Come fa una fotocamera a catturare una foto a colori? Ogni punto dell'immagine ha un filtro colorato che lascia passare solo determinati colori. Con rare eccezioni, come i telefoni Huawei che utilizzano RYYB (filtri gialli anziché verdi), il più comunemente utilizzato è una serie di filtri colorati Bayer che divide ciascun quadrato (2×2) del punto dell'immagine in rosso, blu e due verdi. filtri (RGGB).
Normalmente, una fotocamera che esegue una serie di filtri Bayer sommerà tutti questi dati di colore in un unico valore, ma il pixel binning non lo fa. I produttori avevano bisogno di un modo per raccogliere ciascun colore individualmente.
A questo scopo, hanno progettato un cosiddetto array quad-Bayer, in cui a ciascun gruppo di pixel (2×2) viene assegnato un colore. Quattro di questi vengono poi combinati insieme, proprio come il set originale di filtri Bayer: 2 verdi, 1 blu, 1 rosso.
Il nuovo set non solo consente ai produttori di smartphone di preservare i dati cromatici nel processo di combinazione dei pixel, ma ha anche permesso loro di introdurre altre funzionalità innovative come la modalità HDR.
Torniamo ai sensori. Nel caso dei sensori è necessario prestare attenzione alla loro dimensione e alla grandezza dei pixel stessi. I sensori più grandi possono catturare foto migliori perché hanno più aree dell'immagine che sono anche più grandi. Recentemente, gli smartphone e le relative fotocamere sono entrati nel mondo da 1 pollice. Ad esempio, lo Xiaomi 13 Pro e il vivo X90 Pro sono tra i primi a incorporare sensori da 1 pollice.
I pixel sono misurati in micrometri (μm). I pixel più grandi possono assorbire più luce, il che è positivo per la fotografia notturna. Non preoccuparti se il tuo telefono ha pixel più piccoli rispetto ad altri telefoni. Al di fuori della fotografia notturna, sarà comunque in grado di fornire buoni risultati. Anche i migliori telefoni Samsung hanno problemi con i pixel più piccoli. Il Galaxy S23 Ultra ha un sensore da 200 MP con pixel da 0,6 µm, mentre l'iPhone 15 Pro Max ha un sensore da 48 MP con pixel da 1,22 µm. I produttori hanno quindi iniziato a utilizzare la tecnologia di pixel binning. Il Galaxy S23 Ultra combina 16 pixel in uno per catturare foto con una risoluzione finale di 12 MP.
Stabilizzazione ottica ed elettronica
Anche la stabilizzazione è importante per catturare foto e video di buona qualità: ottica o elettronica.
OIS è una soluzione hardware che utilizza un giroscopio del sistema microelettromeccanico (MEMS) per rilevare il movimento e regolare di conseguenza il sistema di telecamere. Esempio: se hai in mano uno smartphone e la tua mano si sposta leggermente verso sinistra, il sistema OIS lo rileverà e sposterà leggermente la fotocamera verso destra. Ciò è particolarmente importante nella fotografia notturna, quando la fotocamera impiega molto tempo per catturare la luce, tempo durante il quale le vibrazioni possono influenzare la qualità della foto.
La stabilizzazione elettronica dell'immagine (EIS) si basa sull'accelerometro del telefono per rilevare il movimento. Invece di spostare parti della fotocamera, sposta i fotogrammi dell'immagine o l'illuminazione. Poiché le esposizioni sono allineate in base al contenuto dell'immagine e non al fotogramma del sensore immagine, l'immagine o il video finale hanno una risoluzione ridotta.
Cosa fa il software?
Dopo che il sensore di immagine ha convertito la luce in segnali elettrici, è compito del processore del segnale di immagine (ISP) convertire quei numeri in un'immagine. I dati nei segnali elettrici sono essenzialmente un'immagine in bianco e nero. L'ISP deve prima restituire i dati relativi al colore in base a una serie di filtri colorati (Bayer o qualcos'altro). Questo crea un'immagine, ma i pixel hanno diverse intensità di rosso, verde o blu. Segue la ricostruzione del colore, in cui l'ISP modifica i colori dei pixel in base ai colori dei pixel vicini. Ad esempio, se in una determinata area sono presenti molti pixel verdi e rossi e pochissimi pixel blu, gli algoritmi di ricostruzione del colore li convertono in gialli.
L'ISP dispone anche di algoritmi di riduzione del rumore e di nitidezza dopo aver eseguito la ricostruzione del colore. Ogni telefono ha poi i propri algoritmi specifici per produrre la foto finale.
La prossima volta che prendi in mano il telefono, accendi la fotocamera e scatti una foto, saprai cosa stava succedendo in background in quel momento. Sei interessato a come funzionano gli orologi intelligenti o i loro sensori?