Puntate, scattate, guardate nel display:
ma cos’è avvenuto dentro la fotocamera?
Come è fatto un sensore
Sopra il sensore propriamente detto (che in definitiva è un arrangiamento di cellule fotoelettriche destinate a trasformare l’intensità luminosa in intensità elettrica) possiamo avere:
Filtro IR – Il filtro IR riduce la quantità di luce IR che colpisce il sensore (che ne provocherebbe il riscaldamento).
Filtro anti-aliasing – Se l’immagine ha un dettaglio molto elevato (molte linee per mm) si possono creare artefatti di aliasing (zone in cui ogni bordo tende a generare una specie di iride). Il filtro “anti-aliasing“, applica una leggera sfocatura all’immagine per diminuire il dettaglio troppo fine. (Nelle macchine più moderne è stato eliminato).
Microlenti – Le microlenti sono usate per convogliare tutta le luce disponibile nell’area fotosensibile (che è meno del 40% della superficie totale dato che il 60% è occupato dai circuiti del sensore).
Filtro di colore (filtro di Bayer) – I sensori sono sensibili solo alla intensità della luce (n° dei fotoni), non al suo colore (si potrebbe dire che essi vedono in bianco e nero). Per registrare il colore, ogni fotosito è coperto da un filtro colorato (rosso, verde o blu) che lo rende “sensibile” a un particolare colore. I filtri colorati sono disposti in particolari schemi; quello più usato è il cosiddetto “Bayer pattern“, in cui il numero di pixel verdi è il doppio di quelli rossi o blu (poiché i nostri occhi sono più sensibili ai toni di verde).
Conversione analogico-digitale del segnale (e profondità di bit)
Digitalizzazione del segnale analogico
Il segnale elettrico che esce da ogni fotodiodo (pixel) dopo la conversione “segnale luminoso – segnale elettrico” è analogico e dipende solo dall’intensità della radiazione incidente.
Il suo valore varia con continuità da un minimo ad un massimo, ma tale valore deve essere digitalizzato per poter essere elaborato dal software interno o esterno alla macchina).
Questo procedimento viene realizzato dividendo l’intervallo dei valori possibili (tra il minimo e il massimo) impiegando un certo numero di livelli (bits): maggiore il numero di bits (profondità di bit) e migliore è la gradazione tonale del segnale luminoso
Perché l’occhio umano possa osservare un passaggio graduale delle tonalità, l’intervallo dei
valori del segnale elettrico uscente dai fotodiodi (pixel) deve essere diviso in almeno 256 livelli (256 = 28) o come si dice deve essere a 8 bit.
Quella che si ottiene a questo punto è un’immagine grezza (immagine raw) che potremmo definire monocromatica (in bianco e nero) che non ha subito alcun processo di elaborazione o «aggiustamento» e in cui le possibili luminanze sono gradualmente sfumate dal nero (minima intensità luminosa e quindi del segnale elettrico) al bianco (massima intensità luminosa e quindi del segnale elettrico).
Elaborazione del segnale
Il segnale subisce poi in ogni caso alcune elaborazioni.
Se si scatta in raw. Se il fotografo decide di ridurre al minimo queste operazioni preferendo elaborare poi da sé i file delle immagini, allora opta per scattare in raw e le operazioni in camera sono solo quelle fondamentali.
- Miglioramento della gamma dinamica dell’immagine
- Esposizione: definizione dell’istogramma
- Registrazione dei metadati, cioè di tutti i dati associati allo scatto
Ci soffermiamo sul miglioramento della gamma dinamica dell’immagine.
Se la profondità di bit è data dal numero dei livelli tonali che il sensore può riprodurre per rappresentare fedelmente la scala tonale, non meno importante è la gamma dinamica che corrisponde invece al numero dei livelli tonali di un segnale luminoso che il sensore riesce a far distinguere nell’immagine.
Ad esempio: Un convertitore con la “profondità” di14 bit (digitalizzazione comune in molte fotocamere) che converte il segnale uscente dal sensore in segnale elettrico ha la possibilità di registrare 16384 livelli di tonalità e questo è il tetto max possibile di livelli registrabili, ma in realtà un sensore riesce a “caratterizzare”, distinguendoli gli uni dagli altri, solo una parte e quindi sfrutta solo una frazione di tutti questi livelli di tonalità: questa è la Gamma Dinamica del sensore (inferiore a quella ad es. di una vecchia diapositiva).
A cosa è dovuto tutto questo?
Generalmente la progressione del segnale nell’occhio umano è logaritmica mentre in un sensore è lineare: questo riduce la possibilità di distinguere i livelli di intensità luminosa e quindi elettrica nelle zone scure. Si può correggere questa progressione via software, ma nelle zone scure questa correzione può non essere efficace.
Scattare in jpeg. Se il fotografo decide di accettare le variazioni di contrasto luminosità ecc effettuate dalla macchina, ottiene alla fine un file che nelle stragrande maggioranza dei casi è in formato compresso jpeg che è andato incontro ad alcune operazioni di cui le più importanti sono:
– Demosaicizzazione ad opera del Filtro di Bayer (con creazione di artefatti (ad es. aloni) che vanno
ridotti o meglio eliminati
– Aumento di nitidezza, contrasto ecc.
– Trattamento se occorre del rumore digitale
– Compressione del file dell’immagine per risparmiare spazio su disco
Filtro di Bayer e demosaicizzazione
La fotocamera inizia l’elaborazione del segnale luminoso per dare i colori corretti in ogni pixel e per dare il giusto contrasto, la giusta nitidezza, cioè per formare un’immagine apprezzabile in formato .jpg (o in certi casi .tif).
Il primo passo è quello di assegnare ad ogni pixel la terna dei colori RGB ed è reso possibile dal filtro di Bayer sopra il sensore. Infatti i valori di luminanza associati a ciascun pixel diventano valori di luminanza di uno dei tre colori in ogni pixel a causa della presenza del filtro di Bayer sopra il sensore.
La demosaicizzazione interpola i valori di luminosità dei due colori mancanti in ogni pixel dai valori di luminosità dei pixel circostanti.
Una volta effettuata la demosaicizzazione il software della fotocamera dà ad ogni pixel un valore di intensità del blù, un’altro di intensità del rosso e un’altro di intensità del verde.
Quindi ad ogni pixel corrisponde una terna di valori (ad es. 112, 81, 201) di intensità luminosa rossa, verde e blu.
Artefatti dovuti all’interpolazione
Gli artefatti dovuti all’interpolazione sono più visibili ai bordi degli oggetti, particolarmente quando ci sono differenze grandi di colore, come nell’esempio dove abbiamo ritagliato una porzione del bordo fra il fiore e l’acqua e lo abbiamo ingrandito 32 volte.
Artefatti accentuati dall’interpolazione: il rumore e le cause
Situazioni che concorrono a creare rumore: guadagno di sensibilità, dimensioni dei pixel.
Dimensioni dei pixel (Anche se le reflex digitali hanno lo stesso numero di pixel delle compatte, le superfici dei loro sensori sono 10 volte più grandi e quindi anche i singoli pixel sono 10 volte più grandi.Questo implica che ogni pixel può catturare molti più fotoni e che quindi il segnale elettrico riemesso dal pixel è molto più intenso.A sua volta questo implica che le reflex hanno un miglior rapporto segnale /rumore e questo consente una maggiore gamma dinamica e la possibilità di arrivare a sensibilità più alte.
Compressione jpeg e i problemi che comporta
L’immagine può essere compressa, in modo da occupare molto meno spazio su disco. (Maggiore la compressione e peggiore sarà la qualità dell’immagine finale).
Peraltro qualunque algoritmo può anche livellare certi valori di tonalità molto simili peggiorando la possibilità di sfumature di colori.