main index N.B.: hai letto l'indice delle pagine sulle fotocamere digitali?


In questa pagina:

Prossimamente altri aggiornamenti!


Cos'è il Foveon di cui tanto si parla?

I sensori delle fotocamere digitali sono composti da un gran numero di celle elementari (i sensori elementari) sensibili alla luce, specializzati in un preciso range di colori: R (rosso), G (green, cioè verde) e B (blu). Nei sensori di pressoché tutte le fotocamere in circolazione, sia se in tecnologia CCD che in tecnologia CMOS, sono disposti generalmente in questo modo:
G R
B G

Il componente verde è presente due volte perché l'occhio umano è più sensibile al verde. In un caso (la Sony DSC F828) la griglia non è G/R/G/B ma E/R/G/B ("E" sta per emerald, cioè smeraldo: a detta dei tecnici della Sony è per ottenere immagini più "vive", ma il fatto che non sia stata tuttora né imitata né copiata indica che l'idea non ha permesso grossi passi in avanti).

Questo significa che se il sensore ha 2560 pixel in orizzontale per 1920 in verticale ("cinque megapixel"), anziché avere 2560×1920 informazioni "R,G,B" native, avremo l'alternarsi di 1280 "G" con 1280 "R" sulle righe pari e 1280 "B" con 1280 "G" sulle dispari (in realtà una "cinque megapixel" ha qualche pixel in più, in genere il 3%-4% di pixel in più, che non vengono presentati nella foto perché vengono usati solo per il "ricalcolo" dei colori, del contrasto, del bianco, etc).

Chi ha usato qualche volta il formato RAW saprà già che la fotocamera digitale elabora quella griglia GRGB ricalcolando da ogni sensore elementare (che può essere R, G oppure B) la terna completa R/G/B da presentare nel file-immagine finale (che siamo abituati a trovare salvato in formato JPEG o TIFF).

Questo significa che se la fotocamera ti tira fuori un'immagine da 2560×1920, in realtà sono "2560 diviso 2" per "1920 diviso 2", cioè 1280×960, ossia "uno virgola tre megapixel" reali (ecco il motivo della diffusa "regola empirica" del dividere del 50% in larghezza e in altezza la foto): solo in questo caso, a "comporre" un pixel, avremo componenti R, G e B.

La fotocamera, da ogni sensore elementare, ricalcola il valore del pixel R/G/B a partire dai valori degli altri sensori intorno, e quindi anche se nelle prime due righe c'erano solo 1280 rossi e 1280 blu e 2560 verdi, alla fine avremo due righe da 2560 R/G/B completi.

Ecco il punto: la tecnologia Foveon X3 cattura l'intera gamma di colori in un solo sensore elementare (produce cioè direttamente i tre risultati) perché ha tre strati sovrapposti, ognuno capace di "sentire" una delle tre gamme di frequenza. Come risultato, a parità di "megapixel" ha molta più nitidezza, colori più accurati, rumore e moiré drasticamente ridotti, minor consumo, etc.

Il Foveon X3 10.2 è un sensore da 3,4 megapixel reali (2268×1512 in formato 3:2), corrispondente grosso modo ad una "quattordici megapixel" (nei depliant scrivono 10Mp perché moltiplicano 2268×1512×3, dove "3" significa R, G e B: ma è uno squallido trucchetto commerciale per non far apparire l'X3 con gli stessi megapixel di un giocattolino).

Il sensore X3 10.2 sta tutto su un'area di 20,7×13,8mm (dunque con una moltiplicazione di focale di 1,7 per cui una lente marcata "21mm" sarà equivalente ad una "35mm-equivalenti"), è capace di leggere 4,4 frame al secondo alla massima risoluzione ed i sensori elementari tirano fuori una terna R-G-B da 12+12+12 bit di informazione per pixel. Attualmente è usato dalla fotocamera Sigma SD10 e dalla Hanvision HVDUO 10M.

La Sigma sfrutta bene il Foveon: tempi da 30sec a 1/6000, sensibilità da ISO100 a 1600, ha il RAW, la Firewire, compactflash, quattro pile stilo, etc. Purtroppo ha le solite pecche che mi trattengono dal comprare una reflex digitale (come lo è anche la Sigma SD10): il pentaprism e il meccanismo di mirror lock-up, la necessità di un dust-protector (perché il sensore è esposto alla polvere), il terrificante costo di un corredo completo (dal macro al telefoto, per giunta della serie Sigma SA con montaggio a baionetta), etc.


Cos'è lo "sweet spot" quando si parla di diffrazione?

Non so se si tratti di una leggenda metropolitana oppure se ci sia qualcosa di più concreto. Pare che la resa ottimale dei gruppi ottici abbia un punto ottimale dove la diffrazione è minima e la risoluzione (intesa come pixel distinguibili nello stesso spazio) non cala. Questo "sweet spot" nei gruppi ottici delle Lumix sarebbe attorno a F4.0 perché il range degli F-stop è limitato al solo F2.8-F8.0 (mentre, per le fotocamere professionali che arrivano anche a F22.0, sarebbe tra F5.6 e F11.0; dunque il "limite" delle Lumix permette in realtà un'apertura migliore).

La questione della diffrazione nasce a causa dei sensori piccoli (un sensore piccolo è più soggetto a "rumore" e meno soggetto a "moiré"), ossia l'apertura attorno a cui c'è lo sweet spot sarebbe proporzionale alla grandezza del sensore (ecco perché non sempre è vero che "sensore più grande = foto migliori").

La luce, passando attraverso l'apertura dell'otturatore, si "diffrae" (prima di toccare il sensore), ed i sensori ricevono tutte le lunghezze d'onda, filtrando poi la componente per cui sono singolarmente specializzati (tipicamente rosso, verde, blu).

Claudio mi ha suggerito alcune precisazioni. Primo, la pellicola è considerabile come un sensore da centoventi (!) megapixel. Secondo, a parità di megapixel, a causa della "scomposizione" in G/R/G/B (vedi più sotto in questa stessa pagina), un sensore digitale renderebbe quattro volte di meno. Terzo, il fatto che il firmware delle fotocamere ha davvero parecchio da rimaneggiare prima di salvare la fatidica immagine JPEG o TIFF: deve lavorare per ridurre il rumore, il purple fringing, gli eventuali "pixel bruciati" (che ci sono assai più spesso di quanto possiate immaginare), etc. A costo, tipicamente, di una minore profondità di campo e di altri degradi di qualità (che però per buona parte dei casi, per i nostri usi, sarebbero abbastanza accettabili).

Il gruppo di lenti e sensore soffre diverse limitazioni (fra cui le aberrazioni dell'immagine, che "cambiano" la distanza di focus, le aberrazioni cromatiche, che "aggiungono" linee di colore laddove non ce n'era, aberrazioni visive - come una sorta di astigmatismo sui soggetti che non sono perfettamente in asse con la lente, distorsioni e curvature, dovute al fatto che l'ingrandimento del gruppo ottico non è costante per qualsiasi posizione dello zoom). A seconda dei casi occorrerà un'apertura maggiore o minore per risolvere gran parte dei problemi sui colori, e aumentare lo zoom per ridurre quelli sulle forme (è tipico il caso che allo zoom wide ogni gruppo ottico tende ad arrotondare, e quindi basta zoommare un po').

Chiudendo il diaframma si utilizza la parte - ci si passi il termine - la parte "meno in curva" delle lenti: quella reale e con i migliori risultati (è in realtà un problema di percorso).

È per questi motivi che la resa massima di un obbiettivo, tranne casi particolari, si attesta intorno a F/5.6-F/8. Da un lato ci sono problemi di percorso, dall'altro di diffrazione.

Poi ci sono obbiettivi particolari come i classici vetri simmetrici come i 50mm F/1.4 che anche a "Tutta Apertura" posseggono ottime referenze, poi c'è il Canon F/1 (maremma carrettera!), che a tutta apertura è già un mostro... Non proseguiamo con gli esempi; aggiungiamo solo che un "vero" 12× potrebbe costare tranquillamente ventimila euro...


Perché il Super-CCD non lo usano tutte le fotocamere recenti?

Il Super-CCD (un sensore con le particelle elementari incrociate "a rete", in diagonale, anziché "a griglia", in orizzontale e verticale) ha diversi problemi che finora non lo hanno reso appetibile per le fotocamere di grande diffusione. È vero che ci sono stati dei grossi miglioramenti, ma ancora non si è arrivati a risolvere definitivamente alcuni dei più fastidiosi: parte quasi sempre da ISO 200, e comunque le foto risultano un po' "granulose", ancora imperfette. C'è chi dice che di fronte a questo sarebbe bastato un sensore più grande (ed infatti finora il mercato così sembra evolversi).

Attenzione: il SuperCCD non è il Foveon. Quest'ultimo è un tipo di sensore che raccoglie tutte e tre le componenti, per cui la risoluzione del sensore è quella reale, non quella che deve passare attraverso le forche caudine della griglia G/R/G/B.

Purtroppo, a causa della "guerra dei megapixel", pochissimi hanno preso sul serio la Sigma SD10 col Foveon perché era "ratata" solo... tre megapixel. Eppure ci vorrebbe almeno una otto megapixel (con la classica griglia di cui sopra) per ottenere la stessa precisione nella resa dei colori. Mi spiego? No? Faccio un esempio. Sul Foveon un sensore dice "giallo", e significa che il pixel risultante sarà giallo. Sul classico "a griglia" può capitarti un sensore "B" (blu nella griglia G/R/G/B) e il pixel corrispondente salvato come "giallo" (poiché la media interpolata del gruppo dei sensori circostanti restituiva "giallo").

Alcune fotocamere - come la Lumix FZ20 - deliberatamente non salvano in formato RAW poiché per onestà dovrebbero tirar fuori davvero una grattugia di colori G/R/G/B, che non è detto che i nostri software saprebbero rimaneggiare ragionevolmente come fa già il chip Venus II che ha a bordo la Lumix.

Qualcuno dice che in 2-3 anni si avranno delle reflex con formati galattici capaci di annullare anche gli ultimi vantaggi della pellicola. Qualcun altro scommetterebbe per non meno di 10-15 anni, per soli motivi commerciali ("ormai tutti hanno qualcosa di somigliante a una fotocamera").


Se io fossi un negoziante e un cliente mi chiedesse consigli tra una compatta ed una reflex, ebbene io gli risponderei gentilmente evidenziandogli che il sensore...

Beh, se io fossi un negoziante, e per un contrattempo spazio-temporale ingerissi il siero della verità, e un cliente mi chiedesse della compattina o della reflex o di cos'altro, gli risponderei: "guardi, abbiamo qui proprio quello che fa per lei, cioè la fotocamera dove il sottoscritto massimizza il guadagno (vuole dare un'occhiatina anche agli accessori? guarda caso, ce li ho proprio qua, eccoli...)" :-)


Perché dici che ci vorrebbe almeno il doppio della risoluzione orizzontale del monitor di casa?

Le foto perfette, a guardarle da vicino (ingrandendo i singoli pixel) non sono poi così perfette. I sensori assorbono una sola componente di luce (R, G oppure B - red, green, blue, rosso, verde e blu; nel caso della Sony Cybershot F828 c'è anche il sensore E, emerald, azzurro smeraldo; i sensori Foveon, di nuova generazione, che catturano tutte e tre le componenti RGB, ancora non sono sufficientemente interessanti per il mercato a causa del rapporto prezzo/prestazioni ancora troppo alto rispetto al... tenetevi forte... numero di megapixel! come se il nome commerciale "megapixel" fosse davvero indice di qualità!).

Dunque ipotizzando un sensore di 3000×1800 punti, avremmo 1500×900 gruppi di quattro sensori elementari, ognuno dei quali con una componente di colore, tipicamente G-R-G-B: il verde viene usato due volte perché le tonalità di verde sono quelle che l'occhio coglie meglio, poiché sta al centro della scala di frequenze visibili (in basso ci sono le tonalità di rosso ed in alto ci sono quelle di blu, ed infatti l'occhio non può vedere né gli infrarossi né gli ultravioletti). Sulla F828 sono disposti come E-R-G-B, un trucchetto tecnico (probabilmente non infallibile, altrimenti sarebbe stato imitato, usato, copiato da chiunque) per catturare meglio la luce e rendere più fedelmente i colori (alcuni dicono che è una genialata, altri dicono che è un trucchetto che non fa certo miracoli; a me le foto della F828 sembravano oggettivamente migliori delle normali "otto megapixel" col tipico G-R-G-B, ma c'è anche da dire che la F828 ha un gruppo ottico F2.0-F2.8...).

Insomma, nel primo caso, su un 3000×1800 avremmo 5 milioni e 400mila sensori elementari (spesso chiamati proprio "pixel"), dei quali un quarto di loro sensibili al rosso (R), un quarto di loro B, e una metà G (oppure, seguendo lo schema della F828, sarebbero il 25% di E, 25% R, 25% G e 25% B).

Ora, il punto è questo: un sensore da 3000×1800, se esistesse, verrebbe chiamato commercialmente "5,4 megapixel". Per di più, dato che le fotocamere non usano tutti i sensori (sfruttano le fasce più laterali per carpire maggiori informazioni su quanta luce c'era, senza però mettere nella foto la luce che avevano catturato, che serve per lavorare meglio sul resto della foto prima di salvarla sulla memory card), immaginando che il sensore originale sia di 3100×1900 (di cui sfruttato solo 3000×1800), la fotocamera ci verrebbe spacciata per "sei megapixel" (il vizio tipico dei depliant pubblicitari: arrotondare per eccesso).

Insomma, quello che voglio dire (senza timore di essere smentito) è che in teoria una fotocamera con sensore di 3100×1900, di cui se ne sfruttano solo 3000×1800, dovrebbe tirare fuori foto da 1500×900 pixel reali (quelli dello schermo del computer: non a caso il display del mio Apple Powerbook 17'' è proprio 1440×900 di risoluzioen), e dovremmo pertanto chiamarla "1,35 megapixel" anziché "sei megapixel" (ecco perché riducendo del 50% la dimensione di una foto si aumenta la qualità finale a scapito della grandezza! in questo caso, infatti, ogni pixel finale conterrà davvero la media di tutti e quattro i sensori della griglia G-R-G-B).

I computer di bordo delle fotocamere ovviamente, subito dopo aver scattato, per ogni sensore elementare fanno un lavoro di calcolo della media dei sensori elementari negli immediati dintorni (sempre tenendo conto della quantità di luce globale, bilanciamenti vari, etc) e, sapendo quale colore assorbono i singoli sensori e i sensori che stanno attorno, "ricostruiscono" in linea di massima un pixel con tutte e tre le componenti R-G-B a partire dagli R, G e B (e, nel caso della F828 anche E). Col risultato che ogni quattro sensori tirano fuori quattro pixel anziché uno solo!

Questo porta ovviamente ad un aumento della risoluzione della foto (dunque avremmo davvero 3000×1800) a costo di un calo della qualità della stessa; per ridurre al minimo questo calo, nella ricostruzione del "pixel finale" si fanno un po' più di calcoli (non solo sulla media dei sensori elementari adiacenti e di quelli "vicini ma non troppo"). Infine la foto viene salvata sulla scheda di memoria della fotocamera (JPEG, TIFF, etc).

Il formato "RAW" (fra virgolette perché non esiste uno standard) consiste nell'evitare questo passaggio di ricalcolo e di presentare i valori dei singoli sensori elementari, in modo da fare sul computer di casa il lavoro che avrebbe fatto la fotocamera prima di salvare l'immagine in formato JPEG.

A questo punto è ovvio che una buona fotocamera deve avere non solo un buon computer di bordo, ma anche un gruppo ottico fatto di lenti che non distorcano troppo, non si mangino troppa luce, etc. Costruire una fotocamera digitale è praticamente l'arte di trovare l'equilibrio fra tutte queste componenti (qualità delle lenti, processing delle immagini, meccanica dello zoom, etc) a un prezzo ragionevole.

Piccola postilla: mentre lo zoom ottico ingrandisce davvero il soggetto (perché sposta le lenti e quindi influisce su quanta e quale parte di luce arriva sul sensore), lo "zoom digitale" è una funzione software che prende la parte centrale dell'immagine impressa sul sensore, e "aumenta" il numero totale di pixel con un processo che si chiama "interpolazione". Cioè, per esempio, "zoom digitale 2×" significa che dei 3000×1800 prende la parte centrale (di 1500×900 sensori elementari) e fa il lavoro di ricalcolo tirando fuori due pixel "RGB" per ogni singolo sensore elementare. La qualità dell'immagine risultante, inutile precisarlo, degrada parecchio (sarebbe un po' l'effetto che prova un miope che si toglie gli occhiali).

Ho scritto altrove, in questo stesso sito, che lo zoom digitale si può benissimo fare allargando le immagini direttamente in fase di editing sul computer (prendo un'immagine di 500×500 pixel e la allargo fino a 800×800 col Photoshop o con Gimp e poi la salvo su disco: risultato, ho fatto uno "zoom digitale 1.6×"). Per certi versi quel che avevo scritto non era del tutto esatto: è meglio che sia la fotocamera a fare questo lavoro, poiché terrà presente il contenuto del resto del sensore e quindi potrebbe migliorare un pochino rispetto a quel che è capace di fare il computer di casa. Inutile precisare che il degrado dell'immagine c'è lo stesso, ed è anche abbastanza visibile; lo zoom digitale serve solo come giocattolino secondario.

Piccola ultimissima parentesi: uno "zoom digitale 3×" prenderà addirittura la parte centrale di 1000×600 sensori elementari (dell'ipotetico sensore da 3000×1800), ed uno "zoom digitale 4×" prenderà (tenetevi forte) solo la parte centrale di 750×450 (vi lascio immaginare che schifezza verrà fuori almeno nel 95% dei casi). Sulle videocamere digitali lo zoom digitale produce risultati migliori (non troppo) poiché per "ingrandire" fa il confronto non su un singolo frame (come la fotocamera) ma sul flusso continuo di frame video che cattura.


Quando leggo "dimensione del sensore" c'è sempre scritto una frazione di pollice, ma non capisco come si fa il conto...

Pare che quel valore sia basato sulle vecchie tabelle americane relative alla larghezza dei tubi (che non c'entra niente con le fotocamere). Comunque, la grandezza fisica dei sensori delle fotocamere segue questa tabella, che ho ricostruito scavando in rete per un po' di giorni:

Mi dicono che proprio a causa del sensore "piccolo" (1/2.5") e delle lenti grandi la Panasonic FZ20 riesce a mettere a fuoco più spesso (e più velocemente) che non le fotocamere della stessa fascia di prezzi (l'argomento sarebbe basato sul fatto che il diametro delle lenti è proporzionale al cerchio di copertura e alla luminosità).

La Panasonic FZ30 ha un sensore più grande (2/3") di quello della FZ20.


Con le fotocamere prese in esame, quale è il formato massimo di stampa che posso ottenere?

Questo calcolo lo puoi fare tu stesso per ogni macchina, guardando qual è la sua risoluzione massima e dividendo per i canonici 300 punti per pollice (anche se i JPEG sono tradizionalmente marcati sempre come "72 dpi", non significa affatto che devi stamparle a 72 dpi).

Si dice infatti che la perfezione sia 300 dpi (personalmente ho ottenuto risultati ragionevoli stampando foto da un solo megapixel a 100 dpi e ottenendo una foto stampata in un intero foglio A3 !!).

Con 300dpi una foto larga 2560 punti ("cinque megapixel") è larga poco più di un mezzo foglio A4 (8,5"×6,4"); una da 2304 punti ("quattro megapixel") è larga 7,7"×5,7" (195×145 mm). Ripeto: 300dpi sarebbe la perfezione assoluta, indipendentemente da quello che era il sensore della fotocamera, zoom, lenti, etc: quello che vedi nel file JPEG al 66%-100% di ingrandimento è esattamente ciò che potrai stampare; se la foto era veramente ben fatta, basta anche molto meno di 300dpi.


La Panasonic FZ20 e moltissime altre fotocamere non possono abbassare l'apertura oltre F8.0 (per esempio sarebbe bello avere F16.0): come mai?

Il motivo è semplice: data una lunghezza focale di 6mm (come nel caso della FZ20) con F/8 si avrà 0,75mm di apertura fisica (cioè 6mm di lunghezza focale diviso 8). Una eventuale apertura F/16 necessiterebbe una finestrella di soli 0,375mm, che è alquanto costosa da ingegnerizzare (la "finestrella" ha pur sempre una sua durezza, dimensione, peso, etc) e per giunta potrebbe comportare, a parità di lenti, diffrazioni ed altri effettacci poco gradevoli nelle foto. Le fotocamere reflex, avendo una lunghezza focale più grande, possono - a parità di tecnologia - "chiudere" fino a F/16 o F/22.

Naturalmente aperture così piccole si useranno solo in presenza di moltissima luce.


Cos'è l'MTF di una lente o gruppo ottico?

MTF sta per Modulation Transfer Function ed è un metodo di misura delle caratteristiche di contrasto e sensibilità di una lente.

Il suo valore indica il contrasto effettivo nel fotografare un soggetto (per cui la qualità massima teorica è 100%) sulle frequenze spaziali di (per esempio) 10 o 30 lp/mm, sulla diagonale o sull'asse orizzontale. In genere si fornisce un diagramma di MTF per le varie frequenze, piuttosto che una generica percentuale.

Un'ottima lente avrà un contrasto tra il 65 e il 95% (i valori dipendono ovviamente dall'apertura; verso il wide il contrasto è generalmente migliore); lenti "professionali" non di fascia altissima hanno un contrasto tra il 20 e il 90%.

Una lente con un MTF inferiore al 90% comincia a perdere lievemente dettagli; un valore del 30% è appena accettabile (al di sotto di quello infatti comincia l'effetto "miopia").

Attenzione: l'MTF riguarda caratteristiche fisiche delle lenti, e non l'acquisizione da parte del sensore ed il trattamento che ne fa la fotocamera. Generalmente si tenta di sopperire ai limiti delle lenti con vari artifici (per esempio le fotocamere che aumentano deliberatamente il contrasto prima di salvare la foto; in alcune, come sulla FZ20, questo aumento è regolabile), che essendo artifici non possono certo aggiungere all'immagine i dettagli che le lenti erano state incapaci di cogliere...!


Portici, stazione Circumvesuviana di Bellavista (con un solo megapixel, da dietro alla vetrata sporca, ed in fretta e furia)

e-mail - continua (next page)