Il mese scorso abbiamo visto come nella stragrande maggioranza delle fotocamere digitali attualmente in commercio la dimensione del sensore, ridotta rispetto a quella del tradizionale fotogramma 24×36, sia causa di una serie di problematiche, tra cui l’effetto di "trasformazione" della lunghezza focale degli obiettivi tradizionali se montati su un corpo macchina digitale.
Questo mese vorrei fare un po’ di luce proprio sui sensori impiegati nelle fotocamere digitali.
Un sensore di immagine digitale è essenzialmente un chip di silicio in grado di catturare e misurare la luce, ovvero la quantità di fotoni1 che lo raggiungono.
I sensori delle fotocamere digitali si basano attualmente sulla tecnologia CCD2 oppure sulla tecnologia CMOS3. Entrambi i tipi sono basati sul silicio, hanno proprietà simili e funzionano convertendo la luce che li colpisce (fotoni) in carica elettrica (elettroni) in maniera simile a quanto avviene nelle celle solari.
Il sensore ha generalmente forma rettangolare e dimensioni variabili da costruttore a costruttore e da modello a modello.
La superficie del sensore è formata da milioni di minuscoli "fotositi" disposti secondo una griglia regolare. Questi "fotositi" sono in effetti i micro-sensori che effettuano la conversione da fotoni in elettroni.
Ogni singolo fotosito sarà in grado di fornire in uscita una carica elettrica proporzionale alla quantità di fotoni che lo hanno colpito; la carica generata dai fotositi viene poi convertita da un apposito circuito di conversione analogico-digitale in un valore numerico.
L’insieme dei valori forniti dai fotositi viene elaborato dal microprocessore della fotocamera e costituisce l’informazione necessaria alla ricostruzione dell’immagine catturata.
In un sensore CCD la carica registrata viene trasportata attraverso tutto il chip da una riga di fotositi a quella adiacente. Una volta giunta al bordo del sensore viene trasferita in uno speciale registro di output e quindi letta dal convertitore A/D. Il processo viene temporizzato da un segnale di clock (sincronia) generato da circuiti esterni al chip del sensore.
Per poter completare questo processo senza perdita di informazione, i sensori CCD sono costruiti con un particolare processo ad alta qualità, che li rende però anche particolarmente costosi.
E’ da notare come le righe già lette vengono scartate, quindi al termine della lettura le cariche sul sensore sono state completamente azzerate.
I sensori CCD, per il loro particolare funzionamento, richiedono molta più energia dei sensori CMOS; tipicamente un sensore CCD consuma 100 volte di più di uno CMOS.
Sarebbe tecnicamente possibile ma troppo costoso realizzare tutta la circuiteria accessoria (generatori di clock, circuiti di temporizzazione, circuiti di elaborazione del segnale) direttamente sul chip CCD, pertanto questi vengono normalmente realizzati su diversi chip secondari. Spesso accade che questi chip necessitino di tensioni di funzionamento non standard, che devono essere generate e regolate derivandole da quella principale; appositi circuiti aggiuntivi si occupano di questo compito. La maggiore complessità incide ulteriormente sui costi, sulle dimensioni e sul consumo energetico.
I sensori CCD, per l’alta qualità costruttiva, sono meno soggetti a fenomeni di disturbo (il cosiddetto rumore) dei sensori CMOS e forniscono immagini di alta qualità.
I sensori CMOS sono tuttavia molto più economici da produrre dei sensori CCD. Essi utilizzano infatti la stessa collaudata tecnologia produttiva dei normali microprocessori (CPU) e dei chip di memoria dei personal computer, e sono pertanto più economici da produrre, non richiedendo fabbriche specializzate per essere costruiti. Il costo fisso degli impianti può essere suddiviso infatti su una maggiore varietà di prodotti.
Poichè la struttura dei sensori CMOS è la stessa dei normali microprocessori, è facile integrare i circuiti accessori richiesti per diverse operazioni direttamente sul chip del sensore. In un sensore CMOS accanto ad ogni singolo fotosito sono disposti minuscoli transistor e circuiti che amplificano e trasformano il segnale.
Poichè ogni fotosito di un sensore CMOS ha accanto a sè dei circuiti che "rubano" un po’ di spazio, il sensore risulta in generale meno sensibile alla luce di un analogo CCD, in quanto parte dei fotoni colpirà i circuiti "di servizio" anzichè la parte del fotosito sensibile alla luce. La percentuale dell’area di un fotosito che risulta utile per raccogliere la luce viene detta "fill factor" (fattore di riempimento). Un sensore CCD ha un fill factor del 100%, un sensore CMOS molto meno. In condizioni di luce scarsa un sensore CMOS necessita di maggiori aperture o di tempi di esposizione leggermente più lunghi di un sensore CCD. Per ovviare in parte a questo problema, vengono spesso utilizzate sopra ogni singolo fotosito delle micro-lenti, che intercettano la luce destinata a cadere sui circuiti di servizio e la convogliano sulle parti sensibili. I costruttori cercano di aumentare il fill factor dei sensori CMOS riducendo sempre di più le dimensioni dei circuiti integrati.
Un sensore CMOS standard soffre del cosiddetto "rumore": la carica elettrica di ogni singolo fotosito viene trasportata via durante la lettura da circuiti di trasporto e amplificazione. Ogni fotosito ha il suo circuito; lievi alterazioni del segnale dovute a microscopiche imperfezioni nei circuiti formano una sorta di "disturbo" sull’immagine, sempre uguale. Nei sensori CMOS più moderni, speciali circuiti filtro addizionali cancellano il "rumore" basandosi su una sua misurazione effetuata in fabbrica. Ogni chip CMOS ha infatti il proprio "schema" di rumore. Queste operazioni di filtraggio influiscono sulla rapidità generale delle operazioni.
La tecnologia CMOS, nota da decenni nel campo dei microprocessori, è stata applicata ai sensori digitali solo in un periodo relativamente recente. Inizialmente la qualità dei sensori CMOS era nettamente inferiore a quella offerta dal CCD, e quindi i sensori CMOS si guadagnarono una fetta di mercato come alternativa economica al CCD in apparecchi di fascia bassa o dove la qualità assoluta non era molto importante, ad esempio nelle WebCam. Oggi la tecnologia CMOS applicata all’immagine ha fatto molti progressi, tanto che diverse fotocamere8 digitali di fascia alta utilizzano un sensore CMOS (naturalmente corredato da filtri anti-rumore) con risultati eccellenti.
Dal bianco e nero al colore
Forse i più attenti e ferrati in fisica (e informatica) se ne saranno già accorti: ma l’informazione sul colore dove viene memorizzata? Il sensore, CCD o CMOS che sia, converte infatti l’intensità luminosa (il numero di fotoni che lo colpiscono in una determinata unità di tempo) in una carica elettrica ad essa proporzionale. Il sensore è assolutamente indifferente alla lunghezza d’onda di tali fotoni (ovvero a ciò che la vista umana interpreta come colore) ma si limita a considerarne il numero. Questo significa che in realtà il sensore è cieco ai colori, e registra tutto in bianco e nero! Come si fa ad ottenere delle foto a colori allora?
E’ necessario aprire una breve parentesi sui processi della vista umana. Il nostro "sensore" naturale, la rètina, è un tappeto di microscopiche cellule sensorie (l’equivalente dei fotositi) di due tipi diversi, i cosiddetti coni e bastoncelli. I coni si differenziano ulteriormente in tre categorie, ciascuna delle quali risulta particolarmente sensibile ad una ristretta gamma di lunghezze d’onda dello spettro elettromagnetico. A grandi linee si può affermare che vi sono coni sensibili al rosso, coni sensibili al verde e coni sensibili al blu. I bastoncelli hanno invece una sensibilità meno ristretta. Tutte queste cellule sono in grado di convertire i fotoni che le colpiscono in impulsi elettrici nervosi che passano per il nervo ottico fino ad arrivare al cervello. Le infinite combinazioni di gradazione tra rosso, verde e blu si miscelano e creano nel cervello la sensazione dei colori. I bastoncelli vengono impiegati perlopiù di notte o in situazioni di scarsa luminosità, per un motivo che sarà chiaro tra poco.
Tornando al nostro mondo digitale, è chiaro ora che dovremmo avere non uno, ma tre sensori diversi per registrare l’informazione minima che ci possa consentire di ricostruire i colori: uno sensibile al rosso, uno al verde e uno al blu. Chi ha qualche conoscenza della grafica al computer sa bene che un colore preciso è definito da tre valori, uno per ciascuno di questi colori fondamentali. I nostri tre sensori fornirebbero i dati necessari. Purtroppo il sensore, sorattutto se CCD, è il singolo pezzo più costoso di una macchina fotografica digitale, e inserirne tre avrebbe conseguenze molto pesanti sul prezzo dell’apparecchio, senza considerare il problema di contenimento delle dimensioni e la complessità costruttiva maggiore per via dei circuiti accessori necessari all’integrazione dei tre sensori. Sebbene alcune videocamere semiprofessionali o prosumer adottino effettivamente questa soluzione (spesso indicata con la sigla 3CCD) nel mondo della fotografia i costruttori hanno adottato un’altra tecnica molto più economica, naturalmente a prezzo di qualche sacrificio nella qualità dell’immagine.
Quello che si fa è semplicemente dedicare una parte dei fotositi alla registrazione di un solo colore fondamentale. Normalmente in un sensore il 25% dei fotositi registra il rosso, il 25% il blu e il 50% registra il verde. Il motivo per la preferenza sul verde è che anche l’occhio umano risulta in effetti più sensibile a questo colore fondamentale rispetto agli altri due. Per rendere sensibili ad una particolare lunghezza d’onda i fotositi, davanti ad essi viene posto un filtro che lasci passare solo le lunghezze d’onda volute. In pratica davanti al fotosito viene posto uno strato trasparente e colorato in rosso o verde o blu. Questi filtri vengono disposti secondo uno speciale schema (in inglese pattern) a scacchiera. Il più utilizzato è il cosiddetto schema di Bayer.
Poichè ogni singolo fotosito risulta ora sensibile ad una sola gamma di colore (rosso, verde o blu) la sensibilità alla luce di un sensore così trattato risulta molto inferiore (circa un terzo) di quella che avrebbe senza filtri colorati. Questo è il motivo per cui in condizioni di bassa luminosità un sensore non trattato riesce a distinguere un dettaglio maggiore; ed è anche il motivo per cui l’occhio umano si affida ai bastoncelli, ciechi al colore ma sensibili all’intensità luminosa, quando c’è poca luce. Si può dire che l’occhio umano4 incorpora due sensori in uno, quattro se consideriamo separatamente i coni di vario tipo…
Tornando al sensore digitale, se vogliamo ottenere un pixel6 di immagine per ogni fotosito abbiamo ora un problema. Infatti con l’applicazione del filtro Bayer ogni fotosito registra solo un terzo delle informazioni necessarie alla definizione esatta del colore, ovvero solo uno dei tre colori primari.
Eppure le fotografie digitali sono a colori… Da dove saltano fuori i dati mancanti? Molto semplicemente, vengono calcolati per interpolazione. Avete capito bene: i dati mancanti vengono dedotti da un algoritmo di calcolo più o meno complesso, che prende in considerazione i valori registrati dai fotositi adiacenti per effettuare una stima. Naturalmente il processo non è esente da errori, dopotutto stiamo cercando di indovinare i valori che abbiamo scelto di non registrare! Questi errori sono l’origine di strani artefatti di colore e di altri effetti indesiderati. D’altra parte questo è il prezzo da pagare per aver utilizzato un solo sensore per registrare i colori invece dei tre che sarebbero necessari. Il risultato è nella maggior parte dei casi piuttosto soddisfacente, anche se in situazioni particolari i difetti del procedimento saltano fuori.
Esistono varianti al pattern di Bayer appena descritto; alcune macchine fotografiche digitali utilizzano filtri a colori sottrattivi CMY (ciano, magenta e giallo) al posto di filtri RGB (rosso verde e blu) e ultimamente7 la Sony ha introdotto un nuovo pattern a quattro colori con rosso, verde, blu e verde smeraldo, che dovrebbe consentire una riproduzione del colore più accurata.
Esiste infine un tipo di sensore completamente diverso, il Foveon, impiegato ad esempio sulle fotocamere Sigma. Questo sensore è composto in realtà da tre sensori impilati uno sull’altro, e composti da particolari materiali permeabili solo a lunghezze d’onda ben precise. In pratica si tratta di tre sensori sensibili ciascuno ad un colore primario e trasparenti per gli altri due. La luce della banda spettrale del rosso viene registrata dal sensore del rosso e il resto viene lasciato passare, e così via. Questo tipo di sensore non utlilizza un pattern di Bayer e quindi risulta esente dai difetti cui si accennava in precedenza. Il problema in questo caso è essenzialmente di costi, dato che i sensori sono in pratica tre e non uno solo; per contenerli si costruiscono sensori con un minor numero di fotositi rispetto allo standard di mercato.
Oggi una tipica digicam con sensore foveon viene pubblicizzata come una macchina da 10 Megapixel5; in realtà ha sì 10 milioni di fotositi, ma suddivisi in tre sensori. L’immagine finale una volta scaricata sul computer o stampata, risulterà composta da 3,3 Megapixel. Il vantaggio è da ricercare nell’accuratezza cromatica.
L’ultimo aspetto che riguarda i sensori digitali su cui vorrei spendere due parole riguarda nuovamente un problema che sorge quando montiamo un obiettivo costruito per il formato tradizionale a pellicola su una macchina fotografica digitale.
Il problema nasce dal fatto che gli elementi fotosensibili su una pellicola fotografica sono disposti direttamente sulla superficie del polimero, mentre in un sensore digitale si trovano incassati sul fondo di un minuscolo pozzetto.
Gli obiettivi per fotografia a pellicola non tengono in considerazione la divergenza dei raggi luminosi in uscita, in quanto qualunque angolo di incidenza abbiano saranno sempre in grado di impressionare la pellicola con la stessa efficacia. Diverso è il discorso per il sensore digitale: dato che i fotositi sono "incassati" nel silicio, è importante che i raggi luminosi che escono dall’obiettivo siano il più paralleli possibile, altrimenti i fotositi più esterni corrono il rischio di risultare "in ombra". Ciò che succede in pratica è che un obiettivo pensato per il formato a pellicola potrebbe dare luogo ad una certa caduta di luminosità ai bordi dell’immagine se utilizzato su un sensore digitale. Dato che obiettivi e sensori sono tanti e diversi tra loro, la cosa migliore sarebbe poter fare delle prove per vedere se il risultato è da considerarsi accettabile.
Per questo mese è tutto, buon divertimento!
1
2
3
4
5
6
7
8
Il sensore digitale
Massimo Borri
Fotone: nome dato in fisica al "quanto" (quantità basilare) di luce o altra radiazione elettromagnetica.
CCD: acronimo per Charge Coupled Device, ovvero dispositivo ad accoppiamento di carica. Il nome deriva dal metodo usato per leggere l’informazione dal sensore una volta registrata l’immagine: le cariche di ogni "riga" del sensore sono "accoppiate" a quelle della riga precedente, in modo che quando la prime si spostano, le seconde si muovono per prenderne il posto.
CMOS: acronimo per Complementary Metal-Oxide Semiconductor.
Nella retina sono presenti circa 6.400.000 coni e 120.000.000 bastoncelli.
Megapixel: neologismo informatico per indicare un milione di Pixel (elementi grafici). Se si considerano le misure digitali in uso per i computer, un megapixel equivale invece a 1.048.576 Pixel.
Pixel: termine ottenuto dalla contrazione delle parole inglesi Picture Element. Si tratta della più piccola porzione di cui è composta una immagine digitale, come una tessera lo è di un mosaico.
ad esempio sulla nuova "ammiraglia" di fascia prosumer, la DSC-F828
ad esempio la Canon EOS 300D e la Canon EOS 10D