I sensori impilati abilitano smartphone sottili con ottime fotocamere, ma è stata una lunga strada per renderli abbastanza buoni per l'uso quotidiano
La maggior parte degli smartphone presenta un'isola della fotocamera più spessa del resto dei loro corpi. Tuttavia, anche contando quella protuberanza aggiuntiva, sono più sottili e scattano foto e video che hanno un aspetto migliore rispetto alle loro controparti di qualche anno fa.
Nei primi anni della fotografia on-the-go erano necessari gadget ancora più spessi: ricordate le fotocamere point-and-shoot degli anni 2000? Al giorno d'oggi, tutto è racchiuso in dispositivi sottili mezzo pollice, a volte anche meno. I sensori di immagine impilati sono ciò che lo rende possibile.
Comprensione della fotografia digitale
IL differenza tra fotocamere analogiche e digitali è che il primo utilizza una pellicola realizzata con un materiale fotosensibile per registrare le immagini, mentre il secondo ha un sensore elettronico. In quel sensore, ogni pixel (singoli punti che formano un'immagine digitale) è un'informazione di illuminazione catturata da una parte molto piccola del sensore (una per ogni pixel nella foto).
Ci sono due tipi di sensori per fotocamere digitali, CCD (acronimo di Charge-Coupled Device) e CMOS (Complementary Metal-Oxide Semiconductor). Tutte le moderne fotocamere degli smartphone utilizzano quest'ultima, quindi questa è la tecnologia che spiegheremo di seguito.
Un sensore CMOS è costituito da pochi elementi. Il fotodiodo è il più importante: genera un segnale elettrico quando riceve luce. Tale segnale è memorizzato da a transistor proprio accanto al fotodiodo, che traduce il segnale in informazioni digitali e le invia a un circuito elettronico.
Quel circuito è responsabile dell'interpretazione di quei dati e del loro passaggio, insieme ai miliardi di altri pixel, all'Image Signal Processor (ISP) che crea l'immagine finale.
I primi giorni delle fotocamere dei telefoni
Fino al 2008, i sensori CMOS avevano un problema serio: il cablaggio necessario per inviare le informazioni sui pixel all'ISP passava tra il fotodiodo e l'obiettivo, bloccando parte della luce. La stessa struttura è stata utilizzata per i sensori CCD, che erano più sensibili alla luce, ma per CMOS, che significava foto più scure, più rumorose e più sfocate.
Ciò è stato risolto con una semplice idea: spostare il fotodiodo sopra i fili in modo che riceva più luce, migliorando così la qualità dell'immagine. Si chiama sensore Back-Side Illuminated (BSI), a differenza di quelli precedenti che erano Front-Side Illuminated.
Per contestualizzare le cose, l'iPhone 4, che ha dato il via alla reputazione di Apple nella fotografia per smartphone, è stato tra i primi telefoni a utilizzare questo tipo di sensore. Al giorno d'oggi, praticamente tutte le fotocamere degli smartphone utilizzano sensori BSI.
I sensori impilati migliorano la qualità delle foto e riducono le dimensioni
Anche dopo aver rimosso il filo, c'erano ancora punti da migliorare nei sensori CMOS. Uno di questi era il circuito responsabile dell'elaborazione delle informazioni sui transistor. Si è avvolto attorno al fotodiodo. Per questo motivo, circa la metà della luce che ha raggiunto ogni pixel è finita in una parte del sensore che non ha catturato alcuna luce.
Nel 2012 è stato creato il primo sensore CMOS sovrapposto. Invece di avvolgere il fotodiodo, il circuito è posizionato sotto di esso. Dal momento che prende (parzialmente) il posto di un substrato utilizzato per la rigidità strutturale, non c'è spessore aggiunto. Infatti, da allora, i miglioramenti nel processo di impilamento, sia da parte di Sony che di altri produttori che hanno adottato la tecnologia, hanno portato a sensori più sottili, che hanno consentito telefoni più sottili.
Che ne dici di ancora più impilamento?
Spostando i circuiti sotto il fotodiodo, si potrebbe pensare che lo strato superiore sia occupato esclusivamente dalla parte che cattura la luce, giusto? Sbagliato.
Ricordi il transistor? Si trova proprio accanto al fotodiodo, occupando uno spazio ancora più prezioso per catturare la luce. La soluzione? Più accatastamento!
Gli ingegneri l'avevano già fatto. Nel 2017, Sony ha annunciato un sensore per fotocamera con RAM tra il fotodiodo e il circuito, consentendo video in super slow motion a 960 FPS. Si trattava di applicare la stessa idea a una parte del sensore esistente.
Ora, il fotodiodo è finalmente nella parte più alta del sensore, e solo il fotodiodo. Questo raddoppia efficacemente il segnale che il fotodiodo può catturare e il transistor può immagazzinare.
L'effetto più immediato è il doppio delle informazioni sulla luce su cui ogni pixel deve lavorare. E, come per ogni cosa in fotografia, più luce significa immagini più dettagliate.
Tuttavia, poiché il transistor raddoppia anche la sua capacità, può tradurre meglio i segnali elettrici dal fotodiodo in informazioni digitali. Una delle possibili applicazioni di questo è ridurre il rumore dell'immagine, migliorando ulteriormente l'aspetto delle foto.
Sensori impilati per un futuro migliore
Mentre i sensori a singolo strato (fotodiodo e transistor in uno strato, circuiti al di sotto di esso) esistono da un po' di tempo, quelli a doppio strato (uno strato per ogni parte) sono ancora piuttosto nuovi. Sono utilizzati principalmente nelle fotocamere professionali, con il primo telefono cellulare dotato di tale sensore, il Sony Xperia 1 V, rilasciato nel maggio 2023.
Ciò significa che la tecnologia è ancora agli inizi. Insieme a molti altri miglioramenti che sono stati apportati finora alla fotografia mobile, impilati i sensori indicano che le fotocamere degli smartphone sono sulla strada per un futuro più luminoso, o dovremmo dire più luminoso immagine?