Una delle convinzioni più diffuse fra i fotografi “esperti” è che più pixel ha un sensore e più questi sono piccoli più è alto il rumore che questo produce e quindi minore è la qualità di immagine in particolare alle alte sensibilità.
Questa è una nozione che li fa sentire superiori a coloro che, non esperti di fotografia, giudicano le fotocamere solo in base al numero di megapixel e pensano che quella che ne ha di più sia la migliore.
Purtroppo però questa idea promossa dal 99 % delle riviste, dei siti web e dei fotoamatori non è vera. E se non è sempre vero che una fotocamera che ha più megapixel sia migliore di una che ne ha meno, in molti casi è proprio così.
Spesso quando i produttori presentano nuove fotocamere con più megapixel del precedente modello le maggiori critiche che si leggono sui forum e anche sui test on-line riguardano il fatto che il maggior numero di pixel, più piccoli, degradano la qualità d’immagine e soprattutto aumentano il rumore. E’ successo recentemente per le Canon 40D e 50D e per molte altre fotocamere.
Vediamo perchè e come si è generata questa credenza.
Il ragionamento usato per concludere che pixel piccoli sono peggiori di pixel grandi è basata su due affermazioni:
1) un singolo pixel isolato, quando è ridotto come dimensioni, ha una sensibilità inferiore, più rumore e minore capacità di assorbire luce.
2) quindi un sensore di una determinata dimensione contenente molti pixel piccoli ha più rumore e minor gamma dinamica che un sensore della stessa dimensione contenente meno pixel più grandi.
Queste affermazioni sono sbagliate.
Il rumore di una foto è nei fotoni incidenti e non nei pixel. Se si considerano i fotoni incidenti in una determinata area il rumore sarà sempre lo stesso indipendentemente se questa è divisa in 1, 2, 4 o 1000 pixel. Poichè il esgnale di output si somma linearmente, mentre il rumore si somma secondo la radice quadrata, il risultato finale per una determinata area è sempre lo stesso a livello di rumore. Anche il voltaggio in uscita è lo stesso indipendentemente dalla grandezza dei pixel. Infatti il voltaggio all’uscita del pixel e transistor associato dipende del numero di fotoni raccolti, cioè dalla sua grandezza, ma anche la capacità del pixel è proporzionale alla sua grandezza, quindi il voltaggio di uscita è sempre lo stesso e non dipende dalla grandezza del pixel. I pixel più piccoli non richiedono perciò una maggior amplificazione del segnale e di conseguenza non producono maggior rumore.
In realtà il concetto è che il rumore è funzione della frequenza spaziale. Una breve spiegazione di quanto accade è che la quantità di luce che cade su un sensore non cambia a secondo della grandezza dei pixel. Pixel grandi o piccoli registrano indifferentemente la luce che cade in certe posizioni. Entrambi riproducono lo stesso ammontare totale di luce. Quando pixel piccoli e pixel grandi sono messi a confronto sullo stesso output finale, i pixel piccoli hanno le stesse prestazioni di quelli grandi.
La frequenza spaziale è il livello di dettaglio di un’immagine. Per esempio un crop al 100 % di un’immagine da 15 Mpx ha una frequenza spaziale molto alta (dettagli fini), mentre il crop di un’immagine da 6 Mpx ha una frequenza spaziale più bassa (dettagli più grandi). Le frequenze spaziali più alte hanno un maggior rumore di quelle più basse, ma alla stessa frequenza il rumore è lo stesso, indipendentemente dalla grandezza dei pixel. Una immagine con molti megapixel può essere sempre ridimensionata allo stesso livello di dettaglio di una immagine con pochi megapixel. E’ quindi sempre possibile ottenere un’immagine con molti megapixel con lo stesso livello di rumore di un immagine con pochi, quindi è sempre possibile ottenere un’immagine ad alta risoluzione con lo stesso livello di rumore di un immagine a bassa risoluzione.
L’idea che i pixel più piccoli producano maggior rumore deriva da una serie di valutazioni eseguite in modo sbilanciato su elementi differenti e precisamente:
– diverse frequenza spaziale
– dimensioni del sensore differenti
– elaborazione differente
– aspettative errate
– tecnologia differente
Analizziamo in dettaglio questi elementi.
Diverse frequenze spaziali
Il confronto fra crop al 100 % da fotocamere con differente risoluzione è l’errore più comune. Ciò comporta l’ingrandimento delle due immagini a livelli diversi. Sarebbe come esaminare una delle due con una lente con l’ingrandimento 2x e una con l’ingrandimento 8x. Ad esempio un’immagine da 12 Mpx visualizzata su uno schermo a 1024 pixel equivale ad una dimensione di visualizzazione di 120×80 cm, mentre una di 24 Mpx equivale a 180×120 cm.
E’ necessario quindi ridimensionare le immagini alla stessa grandezza per poterle confrontare. Questo è ciò che ho fatto, ad esempio, nel confronto fra la Nikon A700 e la Sony A900.
Le misure standard per le caratteristiche di un sensore come il rumore, la sensibilità, la gamma dinamica sono misurate a livello di pixel. Il problema con queste misure è che pixel di dimensioni differenti hanno una differente frequenza spaziale. Non è possibile quindi usare le misure fatte su un singolo pixel per un confronto fra sensori di differente risoluzione perchè i loro pixel coprono frequenze spaziali completamente diverse.
Usare quindi crop al 100 % per confrontare due sensori con un numero di pixel differente è come confrontare la MTF di due obiettivi a differenti frequenze. Se hanno la stessa curva MTF ma se ne misura uno a 50 l/mm e l’altro a 100 l/mm si può avere l’impressione che uno sia migliore dell’altro. Pochi fanno quest’errore confrontando due obiettivi, ma il 99 % lo fa confrontando le immagini a livello di pixel. Le prestazioni a livello di pixel, come la MTF, non possono essere confrontate senza tener conto delle differenti frequenze spaziali. Se per esempio si confrontano due crop di immagini di fotocamere con lo stesso sensore, ma con differente risoluzione (numero di pixel) si vedrà che il crop della fotocamera con pixel piccoli copre un’area molto più piccola e frequenze spaziali più alte (maggior risoluzione) del crop dalla fotocamera con pixel più grandi. Entrambe sono confrontate alla loro frequenza di Nyquist, che non è la stessa.
Sensori di dimensioni diverse
E’ sempre necessario considerare l’impatto delle dimensioni del sensore. La più comune forma di errore su questo argomento è:
1) le compatte hanno più rumore che le DSLR
2) le compatte hanno pixel più piccoli delle DSLR
3) perciò i pixel piccoli sono la causa del maggior rumore.
L’errore logico è che questa è una correlazione, non una casualità. Il ragionamento può essere corretto sostituendo l’espressione “pixel più piccoli” con “sensori più piccoli”. Non sono i pixel piccoli che causano maggior rumore, ma i sensori piccoli. Un sensore da compatta con pixel molto grandi (es. da 0,24 Mpx) non sarà mai superiore ad un sensore fullframe con pixel molto piccoli (es. da 24 Mpx).
Elaborazione differente
L’errore più comune in questo caso è affidarsi all’elaborazione della fotocamera che produce i Jpeg. Un altro è pensare che qualunque convertitore raw tratterà due immagini da differenti fotocamere nello stesso modo, mentre nessuno lo fa. Per esempio molti convertitori usano un differente valore di riduzione del rumore per differenti fotocamere anche se la riduzione di rumore è impostata sullo zero. Inoltre, anche se il convertitore usato si comporta sempre allo stesso modo, il metodo che usa può essere più adatto per un tipo di sensore piuttosto che per un altro.
La soluzione migliore per superare queste difficoltà è misurare direttamente il raw prima della conversione come fa DXOMark.
Aspettative errate
Se ci si aspetta che una fotocamera che ha una risoluzione maggiore del 50 % sia capace di produrre stampe del 50 % più grande senza nessuna modifica del rumore visibile nelle stesse condizioni di illuminazione questa è un’aspettativa errata. Se invece ci si aspetta per la stessa grandezza di stampa nelle stesse condizioni di luce lo stesso rumore questa è un’aspettativa corretta. Queste condizioni di visualizzazione sono arbitrarie, ma non supportano l’affermazione che “i pixel piccoli producono più rumore”
Tecnologia differente
Se si confronta una fotocamera di 5 anni fa con una dello scorso anno non dovrà sorprendere che la più nuova sarà migliore della più vecchia. In ogni caso non sarà mai possibile confrontare due fotocamere con la stessa tecnologia perchè anche fra ue esemplari della stessa macchina ci sono tolleranze di fabbricazione che provocano differenze. Non per questo non si devono fare test e confronti, ma bisogna essere consapevoli che ci sono delle differenze.
Il fatto che le compatte presentano un maggior rumore delle reflex è dovuto alle dimensioni dei sensori utilizzati non alle dimensioni dei pixel. I sensori delle reflex sono molto più grandi di quelli delle compatte.
Un sensore più grande innanzitutto ha una maggior gamma dinamica di uno più piccolo. Infatti ipotizziamo di avere due sensori con un rapporto dimensionale di 2:1. Per riprendere la stessa foto il sensore più grande richiede un fattore moltiplicativo 2x. Per la stessa esposizione (stesso valore f-stop) il suo diaframma ha un diametro doppio e un area 4 volte più grande. Perciò la luce che arriva su di esso è 4 volte maggiore. L’ulteriore fattore che influenza il risultato è il rumore di lettura che è una determinata quantità per ciascun pixel. Ipotizziamo che i due sensori siano progettati con la stessa tecnologia. Il sensore più piccolo ha ad esempio 6 Mpx, quello più grande 24 Mpx. Assumiamo che ciascun pixel abbia un rumore di lettura di 4 elettroni. Se confrontiamo la gamma dinamica della stessa porzione di immagine un singolo pixel del sensore piccolo raccoglie ad esempio 64000 elettroni. La sua gamma dinamica è 64000/4=8000. I quattro pixel del sensore più grande raccolgono 256000 elettroni. Il rumore di lettura combinato per loro è proporzionale alla radice quadrata del rumore del singolo pixel, cioè sqrt(4*16)= 8 elettroni, e la gamma dinamica è 256000/8=16000. Perciò senza modificare la grandezza dei pixel la gamma dinamica si è incrementata di un f-stop per un sensore di dimensioni due volte più grande. Quindi la gamma dinamica non dipende dalle dimensioni dei pixel, ma da quelle del sensore.
Pe quanto riguarda la saturazione ipotizziamo di avere due sensori delle stesse dimensioni, ma uno con quattro volte il numero di pixel dell’altro. Ciascun pixel grande un quarto ha un quarto di capacità, ma siccome occupa anche un quarto di area, per la stessa illuminazione solo un quarto dei fotoni cadrà su di esso. Quindi andrà in saturazione alla stessa esatta quantità di illuminazione del pixel più grande.
Il fatto che si veda più rumore nei sensori piccoli delle compatte dipende dalla grndezza ridotta del sensore rispetto alle reflex e non dalla grandezza dei pixel.
La situazione per cui nelle foto fatte con un sensore piccolo di una compatta spesso il rumore si vede in blocchi e macchie e non a livello di singoli pixel è dovuto agli algoritmi di demosaicizzazione applicati ai sensori Bayer quando il segnale è trasformato da analogico a digitale e poi alla riduzione di rumore applicata nella conversione da raw in jpeg. Questi influenzano i pixel vicini a gruppi, in quanto le informazioni prodotte dal singolo pixel nei sensori Bayer sono interpolate per riprodurre i colori che questo non registra, creando i blocchi di rumore. Un altro fattore che rende maggiormente evidente il rumore è, a parità di pixel fra un sensore piccolo e uno grande, il maggior ingrandimento a cui sono sottoposte le immagini del sensore piccolo quando sono visualizzate sullo schermo o stampate a parità di dimensioni.
Se si confrontano poi le immagini a livello di jpeg queste sono influenzate anche dagli algoritmi di riduzione del rumore applicati dai produttori per ottenere immagini con meno rumore e che, soprattutto, risultino più pulite nei confronti fatti a livello di pixel con crop al 100 % dal 99 % dai siti internet e delle riviste fotografiche che provano le fotocamere.
Per valutare correttamente le qualità di un sensore è necessario quindi misurare l’immagine prodotta a livello raw, come fa DXOMark, normalizzandola a livello di dimensioni di output. Ciò si può verificare confrontando le misure effettuate da DXOMark per diverse fotocamere clickando sul tasto “Print” quando si effettuano i confronti. Ciò normalizza le dimensioni delle immagini come indicato sul sito stesso. In questo modo si può vedere che i sensori di pari dimensioni con un numero maggiore di pixel non hanno più rumore di quelli con meno pixel e una gamma dinamica uguale (es. Nikon D3x e D3).
Questa operazione è ciò che ho fatto nel confronto fra la Nikon D700 e la Sony A900 nel quale purtroppo ho dovuto utilizzare immagini jpeg, non da me prodotte. Se mi sarà possibile farò in futuro un confronto analogo, fra fotocamere con uguale sensore, partendo da immagini in formato raw. Ciò dimostrerà che la fotocamera con un maggior numero di pixel ha lo stesso rumore, a parità di frequanza spaziale, ma che produce maggiori dettagli in virtù del maggior numero di pixel e quindi della maggior frequenza spaziale a cui può arrivare.
Il seguito di questo articolo, con grafici, misure e crop al 100 % è nell’articolo “Sensori, pixel e rumore“
complimenti per il blog,proprio belli questi approfondimenti;
cosa pensi della fuji s5?
come qualità d’immagine jpeg tra s5 e d90?
saluti
Grazie per i complimenti.
La Fuji S5 è una fotocamera che si basa sulla Nikon D200 con l’innesto di un sensore ed elettronica Fuji. Il sensore è un Fuji Super CCD con pixel di due dimensioni diverse: grandi per ricevere molta luce e aumentare la sensibilità nelle ombre e piccoli per le zone più illuminate. I pixel sono inseriti a coppie l’uno vicino all’altro, quindi pur avendo 12 milini di pixel la reflex in realtà è una 6 megapixel. L’uso di questi doppi pixel, insieme al software inserito da Fuji consente di migliorare notevolmente la gamma dinamica delle foto e la resa dei colori, ma la risoluzine resta quella di una 6 Mpx o poco più. Io non l’ho mai usata, ma dalle prove e misure in rete si può vedere che in realtà la gamma dinamica è superiore a quella delle concorrenti, aalmeno alle basse sensibilità, la resa dei colri ottima, ma la risoluzione non elevata. Confrontandola con la D90 su DXMark si vede che il rumore è superiore sulla S5 rispetto alla D90 a tutte le sensibilità, la gamma dinamica superiore fino a 800 iso e poi decisamente inferiore, la resa dei colori inferiore.
La qualità di costruzione, derivando dalla D200 è superiore alla D90, ma la capacità di scatto in raffica decisamente inferiore.
In conclusione è una fotocamera adatta alle riprese in studio, ai ritratti ed ai matrimoni se usata alle basse sensibilità, come dice anche DPReview. Infine non l’ho trovata in vendita su nessun sito fotografico internet.
Ciao,
Francesco
innanzitutto grazie
la questione è che cerco una macchina,attacco Nikon,che abbia nella qualita’ d’immagine il punto di forza(corpo,raffica,af ecc.. mi interessano poco)
stavo valutando la s5 per tre motivi:
gamma dinamica
colori
sforna jpeg pronti,grande plus per me che col pc..
a questo punto la d90 pero’ mi intriga,dato che la qualita’ d’immagine dicono superiore alla d300;
il jpeg della d90 come lo vedi?
e la gamma ai bassi iso di quanto è inferiore?
con stima
ciao,Filippo
Filippo,
secondo me se cerchi una macchina con attcco Nikon che abbia la miglior qualità d’immagine dovresti pensare alla D700 fullframe. Questa reflex pur avendo “solo” 12 Mpx (non tanti per una ff) ha una qualità d’immagine superlativa sia alle basse che alle alte sensibilità. Certamente la D3x ha una risoluzione superiore, ma costa anche il triplo ed ha comunque un prezzo che fa pagare totalmente la qualità estremamente professionale del suo corpo. La D700 comunque è costruita benissimo, ha un corpo in metallo ed una qualità professionale. Per quanto riguarda il rumore non ha uguali nella sua categoria (insieme alla D3).
La D90 le è però solo leggermente inferiore ed è comunque, fino ad oggi, la migliore delle APS per qualità d’immagine. La gamma dinamica è praticamente identica alla D700 mentre il rumore è inferiore i circa 1 f/stop, cioè esattamente del rapporto che dovrebbe essere in funzione delle dimensioni del sensor. Ciò vuol dire che entrambe le reflex hanno la stessa tecnologia per il sensore. La Fuji S5 perde circa 2 f/stop rispetto alla D90, ma si deve tener presente che la sensibilità effettiva misurata del sensore Fuji è quasi corrispondente al dichiarato, mentre quella della D90 è di oltre 1/3 di f/stop inferiore e quella della D700 di 1/3. La gamma dinamica della Fuji è di 1-1,5 EV superiore alle due Nikon fino a 800 Iso, ma poi precipita e da 1600 in su è di circa 2 EV inferiore.
Per quanto riguarda la qualità dei jpeg sicuramente la Fuji produce il miglior jpeg oggi disponibile fra le reflex. Se per tue prefernze preferisci avere subito disponibili le immagini, senza nessuna postproduzione, questo è un vantaggio. La D90 comunque, come la D700, produce ottimi jpeg. Tieni però conto che scattare in raw significa poter facilmente correggere a posteriori l’esposizione, il bilanciamento del bianco ed il controllo di luci ed ombre. Si tratta di valutare quale modalità operativa preferisci: scattare direttamente in jpeg è un po’ come quando una volta si usavano le dia. Dopo lo scatto non erano più possibili correzioni. Con il raw è come usare il negativo: con lo sviluppo e soprattutto con la stampa era possibile apportare numerose correzioni.
In conclusione, considerando anche i costi e l’evntuale valore dell’usato, io prenderei la D700, oppure se vuoi spendere meno la D90.
Ciao,
Francesco
da omonimo: prima di dire cavolate, informati!
1) il rumore conta nulla, quello che importa e’ il rapporto tra il segnale e il rumore S/N (signal-noise ratio). Piu’ e’ alto meno si nota il rumore
2) Pixel piu’ piccoli hanno un S/N piu’ basso
3) Non tutto il rumore vien dal segnale
4) avresti parzialmente ragione se fai il binning, non se ridimensioni.
Francesco Mauro
PhD student in Astronomy
Universidad de Concepcion
Caro omonimo, prima di offendere pensaci e poi non scrivere che è meglio!
1) quando si dice rumore nell’accezione comune del linguaggio fotografico si intende rapporto segnale/rumore
2) non è vero che pixel più piccoli hanno un S/N più basso, come ho spiegato e come potresti capire se ti documentassi prima di scrivere
3) se non viene dal segnale da dove viene il rumore? dall’aria forse? Il rumore è sia nel segnale ricevuto sia prodotto dai circuiti elettronici che lo elaborano, ma è sempre nel segnale in transito nel sistema.
4) non hai capito il significato del ridimensionamento, leggi meglio, il binning non c’entra nulla. Il ridimensionamento serve per vedere le foto nelle stesse condizioni, cioè a parità di dimensioni. Se le confronti al 100 % sul monitor quella con più pixel ha dimensioni più grandi, quindi per vederle alle stesse dimensioni sul monitor si devono ridimensionare. L’alternativa è stamparle alle stesse dimensioni-
Visto che sei studente studia ancora un po’ perchè pare che per adesso quello che sai non è sufficiente.
Francesco
non ha tutti i torti, esiste il prato, piu’ rilevante aumentando i pixel, e la diafonia.
Infine se l’aumento dei pixel non mi serve per incrementare la risoluzione (aka rimpicciolisco) allora motivo in piu’ per farne a meno visto che porta ad un aumento quadratico dei costi.
dovendo lavorare (proprio su analisi di immagini digitali e il corretto conto del rumore e’ vitale) ti rispondo velocemente.
1) NO. il rumore e’ l’errore sulla misura del segnale. punto.
altrimenti SNR non si chiamerebbe Signal-Noise ratio ma Noise, ti pare?
2)Il rumore dipende dal segnale/numero di fotoni raccolti (la sua radice quadra, dato che vale la statistica di poisson). Dato che questo e’ pari al flusso moltiplicato l’area del pixel e considerando il flusso costante, il tutto dipende dall’area di raccolta del pixel.
3) anche tu hai citato il RON (read-out noise), ovvero il rumore introdotto dall’elettronica di lettura. Poi c’e’ la dark current. Cmq un ron e’ almeno sui 9 per sensori letti lentamente (60s).
4) in stampa il rumore si nota di meno, fatto arcinoto. Quindi fatto irrilevante. come e’ idiota valutare il rumore su jpg che tagliano le alte frequenze ergo applicano gia’ di loro un filtro al rumore (come tu ovviamente sai).
Io i miei esami a Padova (vecchio ordinamento, non la robetta attuale) per i corsi di Laboratorio di Astronomia coi prof Stagni e Piotto (30 e lode e 28) li ho gia’ fatti. E tutti i testi tecnici disponibili sono concordi con me.
Se confronti due sistemi ottici uguali con sensori diversi a pari tecnologia il sensore con meno pixel avra’ meno rumore. Se paragoni sistemi ottici diversi con sensori diversi, ti stai addentrando in un problema non semplice.
Cmq il flusso di fotoni sul sensore e’ dato dal flusso entrante nell’obiettivo fratto il quadrato del numero di apertura. Poi per il segnale devi moltiplicare per l’area utile del pixel.
Qualcosa di giusto l’hai accennato, ma hai varie lacune, tipo la gamma dinamica. Ti rimando a questa discussione in cui e’ spiegato molto bene il rumore digitale
http://www.nikonclub.it/forum/Rumore_Segnale_E_Fotografia_Digitale-t28854.html
Francesco, ti rispondo anche io velocemente, è sabato:
1) rumore nelle foto è segnale spurio che risulta visibile. Chiamalo come ti pare, ma quello è.
2) il rumore dipende dai fotoni raccolti ed è uguale per pixel di diverse dimensioni, ma dipende dalla grandezza del sensore. Un sensore più grande riceve più luce ed ha meno rumore. Sensori di uguali dimensioni e tecnologia hanno lo stesso rumore. Se su un sensore ad es. ci sono 4 volte i pixel di un altro ciascuno avrà un quarto della capacità di quelli più grandi, ma riceverà un quarto della luce e quindi saturerà allo stesso livello di illuminazione di quelli più grandi.
3) il RON dipende dalla progettazione dei circuiti ed è molto migliorato in quelli più moderni. I risultati delle più recenti fotocamere lo dimostrano.
4) le foto si fanno per stamparle, per proiettarle o per vederle su un televisore, non per confrontarle al 100 % sullo schermo di un pc. E’ il risultato quello che conta, come mi hanno insegnato alla facoltà di ingegneria. Se ci si fermasse alla teoria non avremmo nulla di tecnico o tecnologico da usare in pratica. Comunque è corretto quello che dici sul confronto delle foto che deve essere fatto dopo aver convertito i file raw in jpeg disabilitando tutti i filtri per il rumore. Peccato però che tutti i produttori (e non solo Sony, come qualcuno dice) applichino una forma di riduzione già prima della conversione analogico7digitale.
Inoltre molte volte il rumore dipende dagli algoritmi di “debayerizzazione” applicati nella conversione e non è semplice fare confronti omogenei.
Per quanto riguarda il confronto fra sensori (non ho parlato di sistemi ottici, questo è un altro argomento) il sensore più piccolo (non quello con i pixel più piccoli) avrà più rumore. La confusione nasce dal fatto che le compatte, con sensore molto piccolo, hanno molto più rumore delle reflex con sensore più grande. Da ciò i più deducono che è la dimensione ridotta dei pixel a produrre più rumore, invece è la dimensione dei sensori che lo produce.
Per quanto riguarda i fotoni entranti non puoi riferirti al numero di apertura, ma devi considerare il diametro effettivo del diaframma: per esemplificare ad es. f/2,8 su un obiettivo per un sensore da 2.5 ha un diametro del diaframma moolto inferiore a f/2,8 per un obiettivo da fullframe, ovviamente a parità di angolo di campo abbracciato.
Sei mooolto buono a dire che qualcosa di giusto l’ho detta, ma devi anche pensare che anche tu hai lacune e fai un po’ di confusione in fotografia indipendente dai tuoi ottimi studi.
Ti rimando anche io ad una discussione interessante:
http://forums.dpreview.com/forums/readflat.asp?forum=1000&thread=31701012&page=1
Scusa ma io uso D3 e D3x, lo spazio “bordo” tra un singolo pixel dell’ una e dell’ altra è lo stesso, ma la D3x ha molti più vuoti quindi un sensore con una minor superfice utile, per questo con luce scarsa i suoi 800iso equivalgono ai 2400iso della D3.
Ciao
Chi ti dice che il sensore Sony della D3x abbia lo stesso spazio fra pixel di quello della D3. Hai le specifiche? Puoi mostrarmele? Non mi risulta nemmeno che gli 800 Iso della D3x equivalgano ai 2400 della D3 (strana affermazione comunque)
Francesco
La dimensione dei Pixel delle macchine è di dominio pubbilco la moltiplichi per il numero la sottrai alle dimensioni del sensore il resto è bordo, per D3 8.23 µm, quello della D3x ora non lo ricordo cerco e poi ti scrivo.
Per eqivalenti gli iso intendevo che in una chiesa un po’ buia, ad esempio, un A2 fatto con la Epson 3800, regge fino a 800 iso con la D3x e fino a 2400 con D3
cerchiamo di usare i termini corretti: iso equivalente vuol dire che si ottiene lo stesso risultato a pari esposizione.
questo perche’ gli iso non sono proprio cosi’ uguali: 100iso di una macchina possono essere pari a 125 di un altra
Franceso gli Iso sono una misura standard. Col digitale c’è un po di differenza fra un produttore e l’altro perchè la metodologia, a suo tempo definita per la pellicola, lascia alcune incertezze. Quindi può succedere che il produttore usi una metodologia di misura un po’ diversa (semplifico, se vuoi i dettagli sono su DPReview) da chi poi fa ad esempio i test.
Sono di dominio pubblico? Non credo proprio. fammi vedere le specifiche dei sensori Sony montati su d3 e D3x. Intendo quelle del produttore, non un dato detto così.
Gli iso ovviamente sono standard (ISO=International Standard Organization). Ma se guardi appundo i test di Dpreview noterai che viene appunto mostrato che c’e’ una certa variazione tra marche diverse e a volte leggere anche all’interno delle marche stesse.
Per D3x 5,94 x 5,94 µm, come in effetti è più corretto scrivere, ho fatto copia incolla dal sito Nikon
Quelle che hai indicato sono le dimensioni dei pixel, ma lo spazio fra l’uno e l’altro?
Voglio vedere le specifiche di produzione dei sensori. Hai fatto un’affermazione e devi documentarla.
Beh i 160 della M8 equivalgono al tramonto ai 400 della D3, ma solo solo ai 250 di pomeriggio, indovina il perchè… io lo so… EhEhEh… Poi se è per questo variano anche da esemplare ad esemlplare io intendevo in funzione della sola variabile rumore ruvido…
Sono sul sito Nikon!!!
http://imaging.nikon.com/products/imaging/lineup/microsite/d3s_d3x/it/image_quality/
I sensori che monta Nikon sono Sony e non Kodak
Beh se la matematica non è un’ opinione basta fare il conto comunque puoi guardare su Kodak ora cerco il link…
Scusa ma perchè il tuo messaggio sopra il mio prima non c’ era?
Ehm, ciò pensato ora ma non è che tu hai capito il bordo intorno al sensore io intendevo il bordo tra pixel e pixel, non dovrebbe bastare per spiegare il fenomeno dei più iso utili della D3 sulla D3x la dimensione dei pixel per il loro numero, se l’ area è minore il resto è bordo come lo chiamo io o come vuoi chiamrlo?
1) Francesco ha replicato al tuo mess, per questo e’ comparso sopra, mentre tu apri commenti successivi.
2) attenzione che i Cmos hanno un’area utile che e’ inferiore a quella del sensore. la D3 ha un sensore ~24×36=864mm2, ma l’areas utile e’ inferiore, poiche’ il pixel ha parte dell’area occupata dall’elettronica. basta appllicare un fattore correttivo.
La d3 e D3s hanno fattori correttivi diversi (probabilmente una delle cause di minor rumore ad alti iso) e probabilmente anche D3 e D3x
La D3s ha anche i pixel ancora più grandi scrivono quelli di Nikon al link che ti ho messo sopra…
Trovato:http://www.kodak.com/global/en/business/ISS/Products/Interline/index.jhtml?pq-path=14424
Manca quello di M9 che però mi sembra prima ci fosse e S2 leica…
Non ho messo lo spazio dopo i puntini riprovo: http://www.kodak.com/global/en/business/ISS/Products/Interline/index.jhtml?pq-path=14424
Ok vada allora per la definizione Fattore Correttivo!!!
“fattore correttivo” non e’ altro che un valore (di solito <1) che viene moltiplicato al valore teorico per avere il valore reale. Ad es, i sistemi ottici a specchio hanno un'ostruzione dovuta allo specchio secondario, ergo quando si calcola il flusso fotonico entrante si applica un fattore correttivo all'area frontale.
Appunto la D3s ha una migliore miniaturizzazione dell'elettronica, ergo un fattore correttivo maggiore (piu' prossimo a 1). I sensori Back-illuminated ancora maggiore (cmq non 1 perche' i pixel hanno dei confini fisici)
Non sono sicuro ma leggendo i PDF Kodak credo che dipenda dalla somma di quelle chiamano bariere e che io chiamavo bordi e non da dal bufferrow e dal darkrow… Mi sbaglio?
i pixel hanno dei bordi fisici per tenere separate le cariche. Nei CCD parte dei bordi sono ottenuti con potenziali.
Cmq non tutto il volume del pixel e’ “sensibile”, poiche’ si possono usare solo le cariche che si formano dentro al pozzo di potenziale, quelle che si formano fuori facilmente si perdono. Questo comprende molto del pixel, ma non tutto.
Questo è vero, però davanti ai pixel ci sono le microlenti. In alcuni casi, vedi i sensori Canon di ultima generazioni, queste sono “gapless” cioè sono adiacenti l’una all’altra, senza uno spazio fra di esse. Ciò consente di convogliare tutta la luce ricevuta verso la parte sensibile del pixel.
Zed,
ho calcolato, in base ai dati che mi hai fornito tu la superficie totale dei pixel per la D3 e per la D3x.
I risultati sono:
D3: superficie del sensore 864 mmq, superficie totale pixel 816 mmq, copertura 94,49 %
D3x: superficie sensore 861,6 mmq, superficie totale pixel 860 mmq, copertura 99,86 %
Come vedi se i dati che mi hai fornito sono giust (non ne sono sicuro) la D3x ha una superficie dei pixel preticamente uguale alla superficie totale del sensore, mantre la D3 ha una superficie di pixel che arriva solo a circa il 95 % del sensore. Quindi il contrario di quello che tu hai affermato.
Ripeto comunque che per essere sicuri di questi dati è necessario procurarsi le specifiche del produttore dei sensori (in questo caso Sony) che indicano esattamente le dimensioni dei pixel, dei gap, delle microlenti ecc.
Ciao,
Francesco
Scusa ma i pixel sono l’ unita dell’ immagine prodotta dai fotodiodi che catturano la luce, non i fotodiodi stessi, l’ immagine della D3 è più piccola con un sensore più grosso quindi è fatta usando più luce di quella della D3x che è più grossa usando una superfice minore, ovviamente in senso relativo perchè il formato è uguale…
Un sensore da “X” megapixel vuole dire che produce un’ immagine di “X” punti non che ha necessariamente “X” fotodiodi…
Zed, da quello che scrivi qui si può dedurre solo che hai poche idee, ma ben confuse. la luce che ricevono i sensori della D3 e della D3x è la stessa, visto che la loro dimensione è la stessa. L’immagine della d3 NON E? PIU? PICCOLA, ma ha solo meno risoluzione. La vedi più piccola rispetto a quella della D3x solo se la visualizzi sullo schermo del pa al 100 5.
Per cortesia ti chiedo, per non annoiare gli altri lettori del blog, di non insistere più su questo argomento dopo che ti ho dimostrato, usando i dati da TE forniti, che quanto dicevi era falso.
Eppoi scusa che la D3x avesse più rumore della D3 lo dichiarava anche Nikon, e sicuramente ha più rumore della D3s perchè meno sono i pixel più e facile fare un sensore più moderno che quindi arriva qualche mese prima…
La D4 avrà i pixell della D3x con il rumore della D3s, poi uscira la D4x con più pixel e più rumore ecc…
E ancora i dati del fabbricante possono spiegare semmai il perchè ma basta che provi le macchine per vedere che a 3200 iso la D3 va ancora bene e la D3x non ci arriva…
ottimo articolo!
un po’ complesso… ma me lo salvo e quando ho un’ora libera…
ciao!
Effettivamente l’articolo è complesso e presuppone una serie di conoscenze sul funzionamento dei sensori e sulla foto digitale. Ho però quasi pronto un articolo molto più pratico con delle misure e degli esempi che dimostrano quanto affermato qui
Ciao,
Francesco
Ciao Francesco.
Ci sono un paio di cose che secondo me non quadrano.
Tu dici che a un numero determinato di fotoni corrisponde un certo rumore ecc.ecc. Questa affermazione è errata.
Il rumore non è funzione del numero di fotoni, ma solo dell’ incertezza con cui i rivelatori, pixel, determinano il valore letto.
Quindi il rumore è una caratteristoca del sensore e non della luce. Ammettiamo che i pixel piccoli abbiano la stessa accuratezza dei pixel grandi, ogni pixel piccolo produrrà esattamente lo stesso rumore di quelli grandi.
Se il rumore è la somma dei rumori di tutti i pixel…. più sono i pixel e più il rumore è alto.
Io comunque non credo che un pixel piccolo abbia la stessa accuratezza di uno grande, a parità di ISO, perchè accumulando meno fotoni il rapporto segnale rumore non è a suo favore.
Quindi in un area X, secondo me, minore è il numero di pixel minore è il rumore.
Mi piacerebbe però avere maggiori informazioni sul peso della catena di aplificazione e sulla non identicità dei vari pixel e relativa catena di aplificazione.
Sicuramente prosurre pixel piccoli porta ad errori maggiori sulla dimensione del pixel stesso, provovando un rumore dovuto alla non identicità dei pixel.
Dan, è vero che il rumore è una caratteristica del sensore e dell’incertezza con cui i pixel determinano il valore letto e non della luce. Questo però non vuol dire che pixel più piccoli debbano avere un errore maggiore. Peer quanto riguarda gli errori dimensionali dei pixel credo che le loro dimensioni siano molto maggiori di quelle dei transistor di un chip di computer e che i sistemi di produzione siano ormai abbastanza accurati da minimizzarli anche per i pixel più piccoli. Per la catena di amplificazione e per il trattamento del segnale, sia analogico che digitale, è difficile avere informazioni dai fabbricanti. Tutti effettuano riduzioni di rumore anche a livello analogico e prima di produrre il file raw (le misure delle riviste Tutti Fotografi e PC Photo lo dimostrano) ma solo Sony lo ha dichiarato ed è stata aspramente criticata per questo. Gli altri invece, evidentemente più furbi, on dicono nulla.
Comunque come ho detto precedentemente i risultati pratici, che per i fotografi sono quelli che contano, dimostrano quanto detto e tra poco pubblicherò l’articolo.
Ciao,
Francesco
Ri-Ciao Francesco.
Ok, Non è detto che un pixel piccolo abbia maggiore rumore o errore, ma se il rumore è la somma dei singoli rumori….. più sono i pixel e più alto è il rumore.
Sicuramente c’è un errore nella dimensione nel produrre i pixel, nessuno può dire che esiste una misura esatta.
A parità di tecnologia il pixel più piccolo avrà una indeterminazione maggiore sull’area, e quindi un errore maggiore sulla quantità di fotoni letti… e quindi maggior rumore.
ciao dan
Dan, non è vero che più sono i pixel più è alto il rumore. Se un sensore più grande ha più pixel di uno più piccolo ha meno rumore. Ad esempio fra la Nikon D300 e la D3x, pixel di dimensioni molto simili (5,4 e 5,9 micron9 ma la D300 12 Mpx e la D3x 24 Mpx quella che ha meno rumore è la D3x, questo perchè il rumore si somma secondo la radice quadrata. Lo vedrai nell’articolo che pubblicherò domani.
Ciao, buona notte!
Non mischiare le carte.
Non stiamo parlando di sensori più grandi o sensori più piccoli.
A parità di dimensione del sensore, un numero maggiore di pixel, che quindi hanno un area più piccola, dovrebbe portare ad un maggior rumore.
Discorso che che è puramente teorico perchè poi la foto la stampiamo su carta fotografica con risoluzione minore.
Il rimore lo di potrà notare solo se ingrandiamo 1:1 la foto sullo schermo del PC.
Non mischio le carte, io parlo di pixel, ma anche di sensori.
Dan, quello che affermi sulla stampa e sul confronto su pc è quello che volevo dire, su stampa o in proiezione o su tv non si guarda un’immagine più grande perchè ci sono più pixel. I pixel in più danno maggior risoluzione. Comunque i pixel più piccoli non generano maggior rumore fino a che si rimane nell’ambito delle frequenze spaziali coperte anche dai pixel più grandi (al di sotto della frequenza di Nyqyst del sensore con pixel più grandi). Superata questa, alle più alte frequenze spaziali dove solo il sensore con pixel piccoli può arrivare si avrà maggior rumore.
guarda il nuovo articolo che contiene due interessanti grafici sull’argomento.
@ francescophoto #23
la frequenza di nyquist ha influenza sul solo aliasing e non su quello che viene comunemente definito “rumore digitale”.
Pixel più piccoli significano peggior rapporto segnale rumore di tipo quantico per pixel, perchè ogni pixel raccoglie mkeno informazione (livello di segnale più basso) mentre il rumore dipende dalle fluttuazioni nel numero di fotoni. Questo significa che l’incidenza del photon shot noise (quello più evidente ad alti iso, dipende dalle dimensioni dei pixel.
Un peggior valore del SNR in ingresso al quantizzatore fa aumentare alcuni degli errori connessi al processod i digitalizzazione, il che introduce ulteriori fonti di rumore.
Pixel più piccoli sonmo più soggetti al blooming e ad interferenze di tipo elettico (il principio vale in generale per i processi di miniaturizzazione). Questo significa che pixel più piccoli devono avere una distanza reciproca relativa superiore rispetto a pixel più grandi. Ovvero il rapporto tra dimensioni dei pixel e loro distanza e minore per pixel più piccoli. NOn è un caso che, ad esempio, la 50d abbia più rumore ad alti iso della 40d e questa ne abbia più della 30d (nonostante i progressi tecnologici).
Per ora mi limito a queste poche nozioni e non mi addentro nella differenza tra le diverse tecnologie anche se, tra le ragioni del passaggio ai cmos, c’è anche la possibilità di filtrare meglio alcune componenti del rumore. Mi limito solo a rispondere anche a Francesco Mauro che ha giustamente sottolineato che l’area utile è inferiore nei cmos rispetto a quella del sensore. In realtà lo stesso vale per i ccd. Innanzitutto occorre specificare che in un sensore a matrice bayer per fare un pixel sono utilizzati 4 fotodiodi (2 verdi, 1 rosso e 1 blu); inoltre alcuni dei fotodiodi ai bordi sono utilizzati per effettuare la taratura del grigio. Questo significa che per ogni sensore il numero di pixel è necessariamente inferiore a quello dei fotositi (quelli ai bordi sono utilizzati per un solo pixel al contrario di quelli interni). Inoltre, per i ccd, ormai da tempo si ricorre alla tecnologia interline transfer che permette velocità di raffica superiori anche se non paragonabili a quelle ottenibili con i cmos. Questo significa che la superficie del sensore presenta un’alternanza di fotositi e buffer di accumulo delle cariche sia lungo le rghe che lungo le colonne.
Grazie del contributo. Peccato però che la realtà sperimentale contraddica le tue affermazioni e lo dimostrerò presto: il rumore dipende dalle dimensioni del sensore e non del singolo pixel. Potrei anche dimostrarti perchè, ma ne ho già scritto e non voglio ripetermi.
Quanto ai sensori Bayer ne ho già parlato, spiegando il loro funzionamento e l’interpolazione usata per creare l’informazione colore nei singoli pixel, forse ti è sfuggito. Non è vero comunque che i sensori Bayer usino 4 pixel per farne 1, questo sarebbe il “pixel binning” ed è applicato solo quando si vuole aumentare la sensibilità riducendo la risoluzione. I sensori Bayer derivano l’informazione colore completa (R, G, B9 interpolando quella dei pixel vicini.
Ciao, Francesco
Non sono d’accordo sull’ affermazione sensore di piccole dimensioni non potrà mai superare le “prestazioni” di un sensore grande….
Le prestazioni di un sensore dipendono dalla sua tecnologia!
Una sony rx100 mk4 prende a calci nei denti una canon 1Ds mk1 sia per gamma dinamica che per disturbo ad alti iso,come una m4/3 a iso 1000 ha meno disturbo di una medio formato .
Luca,
non fare il furbo!
Non puoi confrontare una fotocamera del 2002 con una del 2015. E’ evidente nella mia affermazione che “a pari livello tecnologico” un sensore di piccole dimensioni non potrà mai superare come prestazioni uno di grandi dimensioni.
Il tuo confronto equivale a dire che un’utilitaria del 2016, ad esempio una Fiat 500 (di oggi), supera come prestazioni un’auto di classe superiore del 1950 come una Fiat 1400.
Per quanto riguarda l’affermazione che una Micro 4/3 a 1000 Iso ha meno rumore di una medio formato è inutile commentare: evidentemente non hai mai visto le foto di una Pentax 645Z, una Leica S, una Hasselblad H6D o una PhaseOne XF100MP.
Ciao, Francesco
Una delle cause che ha scatenato questa credenza “più megapixel più rumore” è data dal fatto che in questa affermazione c’è un fondo di verità ma NON come molti intendono a ogni pixel c’è un rumore quindi se sono più piccoli il rumore aumenta, su questo l’autore dell’articolo è già stato molto chiaro… la storia +megapixel +rumore diventa vera se per avere la massima risoluzione possibile si riduce il pixel-binding una tecnica per cui vengono usate più unità del sensore ottico per catturare un singolo pixel… mi spiego se ad esempio abbiamo un sensore ottico con 20M di unità di cattura e usiamo il binding 2x verranno usate 2 unità di cattura per ogni pixel quindi avremo una fotocamera con 10 mpx di risoluzione anzichè 20 ma migliore sensibilità luminosa e minore rumore, se utilizziamo binding 4x avremo che la fotocamera potrà scattare foto a soli 5mpx ma con rumore molto ridotto e altissima sensibilità alla luce… non so se sono stato abbastanza chiaro
Silvio, si sei stato chiaro tranne per il fatto che credo che la tecnica che tu descivi sia chiamata “binning” e non “binding”.
Ciao, Francesco
giustissimo binning… a furia di parlare di binding nella programmazione a oggetti si inducono questi lapsus pardon XD
Ciao Francesco, ho letto con molto interesse la tua esposizione e, senza addentrarmi o aggiungere altro(visto che molto è stato già detto), mi limito ad avvallare la tua spiegazione, nonostante sia ‘vecchio’ di studi al riguardo…
Volevo solo chiederti un’opinione sulla Panasonic Lumix FZ38, visto che son in procinto di comprar una bridge e questa mi ha colpito per il rapporto qualità/prezzo e per l’ottica Leica, tanto cara anche a chi come me la ritrova sempre nei microscopi!!
Grazie in anticipo!
Fox
Fox, grazie. Al di la della teoria, che è molto complessa, ci sono anche degli esempi pratici, che ho recentemente ottenuto, ad avallarla.
Per quanto riguarda la FZ38 questa è sempre un’ottima macchina, nei limiti delle bridge. Non c’è da aspettarsi gran che alle alte sensibilità, ma a quelle basse, fino a 400 Iso, ha un’ottima resa, coadiuvata indubbiamente dall’ottimo obiettivo Leica che, pur con un’escursione rilevante, non arriva alle esagerazioni viste con le ultime bridge. E’ quindi una fotocamera leggera, da portare sempre o quasi con se, che puo’ consentire di fare ottime foto e anche filmati.
Io ho iniziato a fotografare in digitale proprio con una bridge con cui ho fatto bellissime foto di viaggio insieme a qualche spezzone di film. uniti insieme in uno slideshow da vedere sulla tv costituiscono un bellissimo ricordo.
Ciao, Francesco
@ francescophoto
quali risultati sperimentali contraddicono le mie affermazioni?
Ti consiglio di dare un’occhiata a review tipo questa
http://www.dpreview.com/reviews/canoneos50d/page18.asp
prima di trarre conclusioni errate. Nonostante le lenti gapless, la 50d è più rumorosa della 40d. Tanto per restare in casa canon, la G10 ha più Mpixel ed è più “rumorosa” della G11. Questo tanot per fare due esempi di fotocamere con stesse dimensioni del sensore.
In quanto al pixel binning, mi pare tu abbia le idee confuse. In una matrice bayer si alternano filtri di tipo RGB, uno per ciascun fotosito, ma ogni pixel è dato dalla somma delle 3 componenti cromatiche
http://www.nital.it/experience/infrarosso-dslr3.php
La pratica speriemantale non può assolutamente contraddire la teoria, in quanto la prima è basata sulla seconda.
Ripeto leggiti almeno il mio articolo sui sensori Bayer prima di fare affermazioni sulle mie idee confuse. Potresti averle tu. La pratica sperimentale conferma quanto ho affermato cioè che il rumore dipende dalle dimensioni del sensore, a parità di livello tecnologico ovviamente, e non dalla dimensione dei pixel. La pratica sperimentale significa le foto scattate con le fotocamere. Molte foto le ho scattate io e so come sono trattate. Comunque anche in rete si trovano numerose foto che provano che fotocamere con più pixel sono meno rumorose di altre con meno, a parità di dimensioni del sensore, mentre si puà anche vedere che a parità di dimensioni di pixel fotocamere con sensore più grande hanno meno rumore.
Le teorie di solito derivano dalle osservazioni sperimentali e servono a razionalizzarle e spiegarle, non viceversa. Questo è almeno quello che avviene da Galileo in poi. La tua posizione ricorda quella degli inquisitori che accusavano Galileo perchè sosteneva che è la Terra che gira intorno al sole e non viceversa: non volevano guardare nel telescopio che mostrava l’evidenza e anche se guardavano affermavano che evidentemente forniva false informazioni perchè la teoria sosteneva il contrario.
Conosco bene infine i siti che mi hai indicato e tutti i relativi test, pensi che scriva così senza essere documentato ed avere conoscenza del mondo della fotografia? Anche DPReview, fino a poco tempo fa sostenitrice del più pixel più rumore, mostra di non crederci più e considera il risultato fotografico normalizzandone le dimensioni di visione, come da tempo fa DXOMark e faccio io. Infatti nel suo ultimo test di 13 compatte “travel” ha scritto che quella che produce meno rumore alle elevate sensibilità è la Nikon S8000 da 14 Mpx contrapposta a diverse 10 Mpx.
p.s. il pixel binning è un’altra cosa che non ha nulla a che vedere con la composizione di un’immagine facendo uso di matrice bayer. Anzi, l’utilizzo del pixel binning smentisce clamorosamente la tua teoria, in quanto l’accorpare informazioni provenienti da più fotositi per ottenere immagini più pulite e con maggior gamma dinamica, equivale ad avere pixel più grandi, in grado di catturare più informazioni, con SNR più elevato e maggior gap tra dark current e soglia di saturazione.
Leggiti prima il mio articolo sui sensori Bayer. Il pixel binning è un tentativo dei produttori di migliorare il rapporto segnale rumore, seguendo la teoria che pixel più grandi = meno rumore, ma fallisce clamorosamente come puoi constatare in tutte le prove disponibili in rete-
per la cronaca, questo è il pixel binning
http://www.webalice.it/e.prosperi/ccd/ccd103.html
che non ha nulla a che vedere con la modalità con cui un sensore con maschera di tipo bayer costruisce l’immagine
letto adesso il tuo commento: il pixel binning è tutt’altro che fallimentare. Ad esempio la fuji f200exr, ottiene i risultati migliori quando lavora a 6 Mpixel anzichè i 12 nativi (risoluzione a cui i file non sono niente di eccezionale né a livello di gamma dinamica e neppure be livello di gestione del rumore)
http://www.dpreview.com/reviews/fujifilmf200exr/page7.asp
prova a giocare con i grafici della prima immagine, passando da 12 a 6 Mpixel e vedi come cala il rumore anche a meno di 400 ISO
Stefano, le prove che citi tu le conosco benissimo. prendi una qualsiasi foto di una qualsiasi fotocamera da 12 Mpx, ridimensionala a 6 ed otterrai gli stessi risultati. Anche DPreview lo afferma, anche se non in modo evidente.
ridimensionare una foto da 12 a 6 Mpixel significa fare, in postproduzione, l’equivalente del pixel binning che la macchina fa in real time. Se si ottengono risultati migliori, significa che il pixel binning non è inutile e, di conseguenza, che su un sensore di picole dimensioni,, 6 Mpixel sono più puliti di 12.
Inoltre, nella tua trattazione non hai tenuto ocnto della risoluzione reale ossia di quella ottenibile al netto della diffrazione. Su sensori di piccole dimensioni, la diffrazione si manifesta già a tutta apertura
Evidentemente non mi sono spiegato chiaramente. Cerco di sintetizzare. Non ho detto che col pixel binning o col ridinsionamento si ottengano risultati migliori.
La foto è un’immagine focalizzata su un sensore, pellicola o elettronico è indifferente, di determinate dimensioni. Qui viene registrata, con quelle dimensioni. Se il sensore è elettronico viene subito digitalizzata, se è pellicola si può digitalizzare dopo lo sviluppo. Quando si vede una foto digitalizzata su uno schermo di pc questa viene ingrandita rispetto all’immagine originale prodotta dall’obiettivo. Se due foto hanno un diverso numero di pixel, poichè lo schermo ha un numero di pixel fisso e una dimensione fissa, quella con più pixel è ingrandita di più. Questo, cioè l’INGRANDIMENTO MAGGIORE, è la causa del fatto che i difetti, cioè il rumore, si vedano di più. Se si ridimensiona l’immagine ad un formato più piccolo si diminuisce il suo ingrandimento e il rumore si vede meno. Se si ingrandisce una foto con meno pixel, per confrontarla con una con più pixel, il suo rumore si vede di più. Prova ad ingrandire una foto da 6 mMpx a 12 o una di 12 a 24 e vedrai.
La diffrazione invece è determinata, nelle compatte, dal piccolo diametro del diaframma. Certamente però la dimensione dei pixel non può essere ridotta oltre la misura in cui la diffrazione pregiudichi la qualità dell’immagine, ma fino a questo limite è sempre meglio avere più pixel, quindi una maggior risoluzione e maggiori dettagli nella foto, che meno. Questo naturalmente a PARITA’ di dimensioni di visione, quindi non con visione al 100 % sul monitor.
ti posto qualche link e faccio alcune considerazioni
http://www.cambridgeincolour.com/tutorials/digital-camera-sensor-size.htm
http://www.clarkvision.com/imagedetail/does.pixel.size.matter/
http://www.outbackphoto.com/dp_essentials/dp_essentials_02/essay.html
http://cpn.canon-europe.com/content/education/infobank/exposure_settings/digital_noise.do
http://theory.uchicago.edu/~ejm/pix/20d/tests/noise/noise-p3.html#pixelsize
tutti questi link indicano una dipendenza diretta tra il rumore digitale e le dimensioni dei pixel, arrivando alla conclusione che a pixel più piccoli corrisponde maggior rumore a livello di pixel.
Sottolineo quest’ultima frase per una serie di motivi:
1) nel tuo articolo affermi che contano le dimensioni del sensore e non quelle del singolo pixel. L?affermazione non è corretta perchè lo shot moise si manifesta a livello di singolo pixel e non di sensore. Ovvero si manifesta in forma di risposta non uniformne alla radiazione incidente da parte della superficie del sensore. Pixel più piccoli presentano un SNR di tipo quantico peggiore e, di conseguenza, sono più soggetti a questo tipo di rumore.
2) sostieni che il segnale cresce linearmente con il numero di fotoni incidenti, mentre il rumore con la radice quadrata. Vero per lo shot noise, ma vale a livello di singolo pixel e non di intero sensore (per quanto detto prima)
3) non è vero che si suole affermare che una maggior frequenza spaziale aumenti il rumore. Una maggior frequenza spaziale riduce alcuni tipi di disturbi: una maggior frequenza di campionamento riduce l’aliasing (teorema di shannon) e può permettere di adottare filtri antimoire meno aggressivi. Ma lo shot noise, uno dei principali disturbi nei valori di crominanza e luminanza per pixel, non dipende direttamente dalla risoluzione (frequenza spaziale) ma dalle dimensioni dei pixel e ha una distribuzione di tipo random NEL DOMINIO DEL TEMPO.
4) come ho già detto, lo shot noise influenza anche il porcesso di quantizzazione; avere un miglior SNR in ingresso al quantizzatore riduce gli errori che la digitalizzazione introduce. Il processo in questione è svolto per pixel e non sull’area dell’intero sensore. Questo significa che pixel più piccoli hanno più rumore quantico, peggior SNR e più errori di quantizzazione.
Stefano, rispondo come promesso, ma con un approccio molto pratico, da ingegnere, quale sono, più che da fisico teorico, anche perchè così quello che scrivo sarà comprensibile anche a chi è meno addentro a questi argomenti.
Il motivo per cui mi sono posto, insieme a molti altri, certe domande ènell’evoluzione stessa della foto digitale. Fin dagli inizi, i primi anni del secolo quando le migliori fotocamere avevano solo 2 Mpx, si è sempre letto nei siti web più conosciuti che aaummentare il numero dei pixel a parità di dimensioni del sensore aumentava il rumore. Già quando sono comparsi i primi modelli con 4 o 5 Mpx queti venivano criticati per questo motivo, per non parlare di quelli da 8. Le motivezioni che venivano date sono che più i pixel sono piccoli meno luce (fotoni) raccolgono, e quindi il rumore aumenta, e prima vanno in saturazione, quindi la gamma dinamica diminuisce.
Oggi siamo per le compatte a 14 Mpx, per le reflex APS a 18 e per le fullframe a 24 eppure la qualità delle foto è sempre aumentata nel tempo e le fotocamere di oggi hanno meno rumore. Possimo tranquillamente usare una compatta a 400 o anche 800 Iso, mentre prima era difficile superare i 100 o 200, e le reflex arrivano senza problemi a 6400 e anche oltre.
Le spiegazioni delle cause del rumore che vengono date nei link che mi hai allegato sono tutte uguali ed insistono sullo shot noise addebitato al singoòo pixel: sembrano tutte ispirate alla stessa fonte, cosa non improbabile e non difficile di questi tempi usando la rete.
Ma qualcosa non torna perchè anche considerando solo le attuali fotocamere si può vedere, sia da misure oggettive fatte da autorevoli laboratori come DXOMark, sia confrontando foto fatte con differenti machhine che non è vero che quelle con più pixel, a parità di dimensioni del sensore siano più rumorose, mentre si vede che le fotocamere con un sensore più grande sono meno rumorose.
evidentemente la teoria che va per la maggiore non riesce a spiegare correttamente ciò, quindi va modificata per spiegare quelli che sono i risultati sperimentali. In campo scientifico è sempre così, se una teoria non è in grado di spiegare certi fenomeni rilevati sperimentalmente se ne ipotizza un’altra in base alla quale si fanno nuove predizioni e si verifica se queste coincidono con la realtà sperimentale.
Non ho la pretesa di proporre nuove teorie ma, partendo dalla pratica, propongo spiegazioni fornite da persone con l’esperienza adeguata o che hanno fatto misure e verifiche pratiche su questi fenomeni.
Nell’articolo sui sensori per sintetizzare e renderlo più semplice evidentemente non sono stato chiaro.
La prima cosa da considerare è che fare una valutazione sui singoli pixel non considera il modo con cui i pixel si aggregano per formare un’immagine.
Per quanto riguarda il rumore concettualmente si deve pensare che questo, e quindi tutte le considerazioni sulla sua distribuzione di poisson o altra (ne esistono anche altre per la luce di origine termica), è relativo ai fotoni incidenti e non ai pixel. Se si misura il rumore in una determinata area del sensore indipendentemente se questa è divisa in 1,2,4 o 1000 pixel e questi saranno ugualmente efficienti nel raccogliere i fotoni che cadono su di essi.
Per quanto riguarda la saturazione ipotizziamo di avere due sensori della stessa grandezza, ma con uno qavente quattro volte il numero di pixel dell’altro. Ciascun pixel di dimensioni un quarto avrà un quarto della capacità, ma poichè occupa un quarto dell’area, per lo stesso flusso luminoso riceverà un quarto dei fotoni. quindi arriverà alla saturazione per lo stesso livello di illuminazione di quello più grande.
Ipotiziamo ora invece due sensori di dimensioni diverse con pixel delle stesse dimensioni e uguale tecnologia, ma di dimensioni lineari una il doppio dell’altra. Ipotizziamo anche che uno abbia 6 Mpx e l’altro 24 Mpx. Per fare la stessa foto con la stessa esposizione, stesso tempo e stesso diaframma il sensore più grande avrà bisogno di quattro volte la luce di quello più piccolo. Alla stessa apertura di diaframma questo avrà un diametro doppio ed una superficie quattro volte maggiore che quello più piccolo. Ipotizziamo anche che il read noise, correlato alla tecnologia dei sensori sia di 4 elettroni. Confrontiamo la gamma dinamica (DR) su un’eguale porzione di immagine. il singolo pixel del sensore più piccolo raccoglierà ad esempio 64.000 elettroni. La sua DR sarà 64.000/4=8.000. i 4 pixel del sensore grande raccoglieranno 256.000 elettroni; il loro rumore combinato sarà Radiceqyadrata(4*16)= 8 elettroni, la gamma dinamica 256.000/8= 16.000. Così, senza aumentare la dimensione dei pixel, si è aumentata la gamma dinamica del sensore di 1 stop per un sensore di dimensioni lineari doppie. Quindi la gamma dinamica di un sensore DR non dipende dalle dimensioni dei pixel ma da quelle del sensore.
Per darti un’idea dei numeri di fotoni coinvolti il numero di quelli che arrivano ad un singolo pixel di un sensore fullframe (24×36 mm) con 24 Mpx (6000×4000 pixel) per ul livello di illuminazione corrispondente a quello di una normale stanza di abitazione illuminata da lampade ad incandescenza e per un’esposizione di 1/100 di secondo è di circa 216.000.
A parità di dimensioni poi un sensore con un maggior numero di pixel lavora ad una frequenza spaziale più alta e la sua frequenza di Nyquist è più alta. Il rumore è funzione della frequenza spaziale. Analizzando il rumore in funzione della frequenza spaziale, come ha fatto un ricercatore, Daniel Browning, per due fotocamere con sensore delle stesse dimensioni, ma differenti Mpx, le Canon 40D e 50D si può vedere nella figura allegata che fino alle frequenze spaziali comuni il rumore è lo stesso, poi oltre il limite di Nyquist della 40D la 50D ha più rumore.
http://francescophoto.files.wordpress.com/2010/07/40d-50d_noisepower-norm.jpg
Se si fa il ricampionamento dell’immagine della 50D a livello di quello della 40D si può vedere che il rumore è lo stesso, anche se varia leggermente in funzione dell’algoritmo di ricmpionamento(Lanczos meglio di Bicubic).
http://francescophoto.files.wordpress.com/2010/07/40d-50dresamp_noisepower-norm.jpg
Confrontare due foto con differnte numero di pixel al 100 % sullo schermo trae in inganno perchè si confrontano immagini di differenti dimensioni.
Il metodo corretto per valutare il rumore è quindi quello di DXMark che lo rapporta alle stesse dimensioni di output e non alla visione 100 % sul video. Per vedere i grafici rapportati alla stessa dimensione di stampa è necessario fare click su “Print”. In questo caso si puà vedere ad esempio che la Canon 5D II, con quasi il doppio dei pixel della 5D a a parità di dimensioni di sensore, si comporta meglio per rumore e gamma dinamica. Ugualmente la Nikon D3x, con il doppio di pixel e le stesse dimensioni di sensore, ha lo stesso rumore e la stessa gamma dinamica della D3. Invece la D3x si comporta molto meglio della D300, con un sensore grande più del doppio e con pixel di dimensioni comparabili. Allo stesso modo la D40x e la D40, rispettivamente 10 e 6 MPx su sensore APS hanno lo stesso rumore. Le Canon 7D e 40D, 18 Mpx e 10 Mpx su sensore APS-C hanno lo stesso rumore e la 7D ha una gamma dinamica superiore.
Mi sembra quindi che le misure confermino quanto da me affermato, cioè che il rumore dipende dalle dimensioni del sensore ennon da quelle dei pixel. volendo si può anche fare un confronto pratico sulle foto per rendersene conto.
Per rispondere infine ai tuoi punti riportati in un altro commento posso dire:
1) attualmente si è arrivati a 14 Mpx per le compatte con sensore 1/2.5 o simile, a 18 per le aAPS e a 24 per le fulframe, ma non è detto che non si possa andare oltre.
2) le lenti gapless e simili sui sensori servono innanzitutto per recuperare la superficie perduta fra un pixel e l’altro e comunque per aumentare l’efficienza del sensore. Questo nulla ha a che fare con il fatto che pixel più piccoli generino più rumore.
3) la tendenza ad usare sensori CMOS deriva dal fatto che questi si possono produrre sulle stesse linee di produzione di tutti gli altri componenti elettronici come memorie, chip, ecc. questo li rende meno costosi da produrre che i CCD che richiedono linee di produzione dedicate.
4) le ricerche si fanno sempre per migliorare se si può.
In conclusione penso che pochi avranno avuto la pazienza di leggere questa risposta, ma comunque ad essa farà seguito un articolo con esempi di foto.
Ciao, Francesco
aggiungo ancora qualcosa. Qui “Le misure standard per le caratteristiche di un sensore come il rumore, la sensibilità, la gamma dinamica sono misurate a livello di pixel” dici, correttamente, che le misure avvengono PER PIXEL (e non per sensore). Si può aggiungere che è normale che sia così perchè anche l’elaborazione del segnale viene fatta PER PIXEL. Ossia, per ogni pixel si fanno valutazione del valore della componente RGB relativa a quel fotosito e poi, tramite interpolazione (in maniera più complessa di come riferisci sull’articolo relativo al funzionamento di una matrice bayer), si ricavano i valori delle altre due componenti “mancanbti”. Questo significa che il processo di lettura, amplificazione, eventuale correzione e digitalizzazione del segnale avviene PER PIXEL. Anche il rumore è, di conseguenza, funzione del singolo pixel e pixel più piccoli presentano un peggior SNR.
In un’altro articolo, quello sulle dichiarazione di un esponente di Olympus secondo cui non sarebbero andati oltre i 12 Mpixel, concludi, correttamente, che uno dei motivi di questa scelta potrebbe essere l’impossibilità di gestire il rumore con risoluzioni oltre i 12 Mpixel. Questo sottintende il fatto che, a parità di dimensioni (4/3 in quel caso) e di tecnologia (nmos FSI per olympus, panasonic e leica), un aumenot della risoluzione, ovvero una diminuzione delle dimensioni dei sensori fa aumentare il rumore.
p.s. al di là degli appunti che ti ho fatto, volevo, comunque, lodarti per l’impegno profuso e per la disponibilità che dimostri nei confronti di chi ti rivolge delle domande. Ho dato una veloce occhiata ad alcuni dei tuoi articoli. Devo dire che il tuo lavoro sta avendo il merito di avvicinare o riavvicinare tanta gente al mondo della fotografia.
Un saluto
Stefano
Stefano, apprezzo il fattoche tu non essendo d’ccordo con me esponi i tuoi argomenti con garbo e correttezza. prima di rispondere, anche al tuo commento non ancora pubblicato, sto ulteriormente documentandomi. Ti darò la mia risposta e probabilmente scriverò anche un altro articolo sull’argomento.
Ciao, Francesco
non c’è alcuna ragione per cui uno scambio di idee non debba essere corretto e garbato.
Se accetti un consiglio, prima di scrivere un nuovo articolo sull’argomento, prova a fare delle semplici considerazioni. Se fosse vero che le dimensioni dei pixel sono ininfluenti ai fini della quantità di rumore prodotto, per quale motivo:
1) non si realizzano sensori con pixel molto più piccoli degli attuali; mi riferisco, ovviamente, a quelli per reflex e medio formato. La tecnologia, qualunque tipologia di sensori si decida di adottare, c’è. In questo modo, aumentando la frequenza spaziale, è possibile anche far uso di filtri antimoire meno aggressivi ed avere una risoluzione reale più elevata (il filtro antimoire è il principale responsabile del fatto che risoluzione nominale e risoluzione reale non coincidano e, infatti, ad esempio sull’X3 non c’è filtro antimoire)
2) perchè utilizzare, su sensori più densi, lenti gapless o lenti a doppio strato, accorgimento non necessario su sensori con pixel più grandi.
3) perchè mettersi a fare ricerche sulla tecnologia MOS e non proseguire con i CCD, semplicemente riducendo le dimensioni dei pixel
4) perchè fare ricerche sui sensori BSI
Tutti questi interrogativi hanno una sola risposta: per contenere il rumore al diminuire delle dimensioni dei pixel. Questo risultato si può ottenere cercando di peggiorare il SNR di tipo quantico, forzando la cattura di più luce di quanto le ridotte dimensioni permetterebbero (studi sulle lenti e sensori BSI) e lavorando sulla riduzione di alcune componenti del rumore e sulla possibilità di apportare correzioni per pixel direttamente sul sensore (tecnologia MOS).
Le componenti del rumore digitale sono molteplici e di natura differente e solo la loro conoscenza può portare a comprendere il funzionamento dei sensori e degli algoritmi di NR
Un saluto
Stefano
Stefano, ho detto che mi sarei documentato per darti una risposta. Anche a quello che tu osservi adesso c’è una risposta, ma vorrei scrivere una cosa completa e coerente. Ho ovviamente anche altri impegni e priorità, in particolare in questi giorni perciò spero che tu abbia la pazienza di attendere. Grazie, ciao.
Francesco
Mi viene da piangere! Era da prevedere che con la diffusione del digitale sarebbero nate discussioni di tipo tecnicistico da parte dei tanti (troppi) informatici, ingegneri e tecnofili vari che colgono della fotografia più che altro l’aspetto strumentale.
Sarebbe sicuramente meglio spendere più tempo sui libri dei grandi maestri, sperimentare il linguaggio fotografico (a patto di avere qualcosa da dire), ricordare che la Fotografia è un mezzo espressivo e di comunicazione meraviglioso. Senza rancore Mario
Hai ragione, certe volte mi trascinano in queste discussioni e io purtroppo mi ci faccio coinvolgere. Comunque a breve darò una risposta orientata all’aspetto fotografico della questione e poi non risponderò più ad ulteriori commenti.
Ciao, Francesco
@ mario
non so se il tuo commento sia riferito ai miei interventi; nel caso lo fosse, ti ricordo che la conoscenza degli strumenti che si usano, in qualunque campo, è necessaria se si vogliono ottenere buoni risultati. E se l’avvemto del digitale ha creato imbarazzo a qualcuno che non si sente più il solo depositario della scienza fotografica, il problema è solo di questo qualcuno.
D’altra parte, se ti danno fastidio le disquisizioni sulle qualità dei sensori, allo stesso modo dovrebbero darti fastidio le distinzioni tra diversi tipi di pellicola. Oppure quelle tra ottiche di diverso tipo e qualità.
Stefano, non in particolare a te, a cui ho promesso una risposta.
Il commento si riferisce al fatto che si dovrebbe parlare più di temi fotografici che di tecnicismi e problemi, anche interessanti, di fisica e di tecnologia che penso a molti non interessano. Anche io spesso penso che dedico troppo del mio tempo alle novità ed alla parte tecnica e poco alla fotografia, anche se il fatto che mi si chiedano più spesso indicazioni su macchine da acquistare che su come fotografare oppure valutazioni sulle foto mi fa pensare che a questo molte persone siano interessate.
Comunque penso che scriverò un altro articolo sul temea che meditavo da tempo, con però un’impostazione pratica e degli esempi.
Eventualmente potremmo anche discutere fra di noi, via e-mail, del problema per cercare di arrivare ad un’ipotesi condivisa. Se non sarà possibile rimarrà comunque amicizia e stima reciproca, almeno da parte mia.
ciao, Francesco
Sono con te stefano quando dici che la conoscenza degli strumenti è importante, ma non bisogna esagerare, altrimenti facciamo come i grandi esperti di hi-fi che spendono cifre pazzesche e disquisiscono fino alla nausea di aspetti tecnici e poi scopri che possiedono solo 3 dischi pur definendosi grandi amanti della musica.
Per quanto mi riguarda ho sempre guardato più all’aspetto creativo e comunicazionale della fotografia, tengo corsi e partecipo a gruppi di ricerca e ti garantisco che non mi sono mai sentito depositario di nessuna scienza fotografica, anche perché la FOTOGRAFIA tutto è tranne che una scienza.
Quindi fotografiamo con gli occhi e con la testa, provando a dire qualcosa, come hanno fatto i grandi maestri e come per fortuna fanno ancora in molti.
Il resto sono solo chiacchiere
Concordo con te Mario. Aggiungo che oltre agli appassionati hi-fi che non hanno mai sentito un concerto dal vivo conosco anche ciclisti che curano maniacalmente la bici in cantina ma non ci escono mai e “fotografi2 abilissimi ad individuare un pixel un po’ più rumoroso spaccare in quattro le linee di risoluzione di un obiettivo ma che non scattano foto oltre a quelle di test.
Ciao, francesco
@ Mario
sono d’accordo con te sul fatto che la fotografia non sia una scienza e che l’aspetto preponderante sia quello creativo e comunicativo. Però anche la fotografia, come la pittura, la poesia, la musica, la danza, ha delle regole e richiede delle basi tecniche. Vero che una bella foto non deve necessariamente rispettare queste regole, ma per decidere di trasgedire e per stabilire in che modo farlo, si deve comunque conoscere la regola. Mettere una tela, un pennello e dei colori in mano a chi non ha la minima base di tecnica pittorica pensi possa portare a produrre un’opera d’arte?
Inoltre, la fotografia, più della pittura o della poesia, necessita di mezzi tecnologici anzi, di strumenti dotati di tecnologia ad altissimo livello. Il conoscere le potenzialità e i limiti dello strumento che hai a disposizione è uno dei primi passi da compiere. Ho visto gente che cercava di scattare foto ad un monumento, di notte, stando dall’altro lato di una piazza, a un centinaio di metri di distanza, senza cavalletto e con impostazioni automatiche. Ovviamente partiva il flash incorporato ma la foto veniva scura. In quelle condizioni, neppure una reflex serve a nulla se usata in quel modo. Che senso ha studiare le regole di composizione se non si è in grado di “giocare” con la terna tempo-diaframma-ISO? E come si può fare ciò se non si è a conoscenza del limite oltre il quale non si può andare con quella fotocamera? Non c’è da meravigliarsi se poi c’è chi si lamenta del rumore o pretende di avere, con una compatta, lo stesso controllo sulla profondità di campo che garantisce una reflex.
Ho letto tutto l’articolo e credo di aver capito il concetto di base su cui Francesco (admin) basa le sue conclusioni, e quando mi pareva tutto chiaro mi sono imbattuto nel dubbio dei limiti in cui possa imbttersi la miniaturizzazione dei fotositi, come argomenta Stefano. A questo punto, dopo tutti i commenti mi ritrovo a un bivio di certezze. Ho notato che l’articolo non viene aggiornato dal 2010, ma suppongo che si sia scoperto qualcos’altro in 2 anni. Chiedo all’ admin o a qualcuno dei commentatori a rispondermi sui risultati personali a cui si è pervenuti, sperando che a qualcuno arrivi ancora notifica di risposta… Anche per via mail.
Grazie anticipate.
Daniele,
non c’è nulla di nuovo. Il limite è sempre quello della lunghezza d’onda della luce.
L’unica cosa che può migliorare è il siftware per la riduzione del rumore, ma questo si può applicare all’output di tutti i sensori per cui un sensore più grande è sempre migliore di uno più piccolo.
Ciao, Francesco
ho letto con attenzione entrambi i tuoi articoli e mi permetto di rivolgerti un quesito, diciamo rivolto a un amico esperto:
dovendo scegliere tra una canon 40d e una 50d, entrambe usate nelle medesime condizioni (buone), con una differenza di prezzo di 100 euro tra le due, quale sceglieresti? è vero che la 50d non è stato un grande passo avanti rispetto alla 40? è vero che peggiora il rumore agli alti iso? e che la potenza del processore digic4 è allineata al precedente digic3 (già a 14 bit) a causa delle dimensioni delle foto più elevate?
grazie mille per l’attenzione
Franco,
io preferirei la 50D per il maggior numero di Mpx, per lo schermo con una più alta risoluzione e per il corpo protetto da polvere ed umidità. Il fatto di avere più Mpx non vuol dire che sia più rumorosa. Certo se si confrontano le foto al 100 % sullo schermo del pc potrebbe sembrare di si, ma in questo modo non si tiene conto che le foto della 50D risultano più ingrandite rispetto a quelle della 40D. Se si ridimensionano le foto a 10 Mpx si può vedere che la 50D ha lo stesso rumore. Avere però una risoluzione maggiore è meglio in quasi tutti i casi.
Ciao, Francesco
cento euro spesi bene dunque
grazie mille.
terrò sicuramente conto del tuo prezioso consiglio
buona serata
ciao, Franco
Per piacere cancellate questo articolo. E’ scritto bene e può far sembrare che sia tutto corretto ma non lo è. Vuoi rivoltare la fisica? Fai solo confusione. Il rumore dipende, prima di tutto, dalla FRAMMENTAZIONE del sensore. Fine del dilemma. Devo fati l’esempio dei secchi che raccolgono la pioggia? Non voglio essere presuntuoso, ma mi pare che tu stia un po’ troppo abusando di una posizione che non ti appartiene.
Conroe,
e tu invece stai abusando della mia pazienza!
Vai a studiarti un po’ di tecnica fotografica, guarda le foto fatte 10 e più anni fa con le macchine da 2 o 3 Mpx e poi quelle di oggi fatte con macchine da 20 0 30 Mpx, ma visualizzate alla stessa grandezza e non al 100 % sullo schermo come fanno solo gli ignoranti e vedrai che quelle di oggi hanno MENO RUMORE, cioè per dirlo più correttamente un migliore rapporto segnale/rumore. Questa è la realtà al di là di quello che dicono tutti i teorici da strapazzo come te che considerano solo un pixel alla volta e si scordano che una foto è fatta da milioni di pixel.
Non voglio certo rivoltare la fisica, ma applicarla alla fotografia e ti ricordo che una foto è fatta da tanti FRAMMENTI (che siano pixel o grani d’argento poco importa) e che più sono piccoli e più sono maggiori dettagli ci saranno. Questo sempre a parità di ingrandimento, stampa o schermo che sia.
Francesco
Di rimando…quosque tandem abutere, Francisco, patientia nostra?
Invece di prendertela, inutilmente, perché non ci segnali uno straccio di bibliografia, seria, in tuo possesso che convalidi le tue idee?
Per bibliografia, non intendo i vari articoli e recensioni in rete, ma testi e pubblicazioni scientifiche.
Coraggio!
Vincenzo,
quelle che espongo non sono solo le miei idee, ma le idee di moltissimi esperti di fotografia e di tutti coloro che guardano la realtà.
Ci sono poi alcuni teorici, come alcuni che hanno commentato questo articolo, che si rifiutano di guardare la realtà, cioè le foto fatte con fotocamere di oggi da 20-30 Mpx a confronto con quelle di ieri da 2-3, come i membri dell’inquisizione del 600 che si rifiutavano di guardare nel cannochiale di Galileo e sostenevano che il sole girasse intorno alla Terra perchè così era scritto sui loro libri.
Non ho necessità di citare alcuna bibliografia perchè basta la realtà se si vuole vederla. Forse scriverò un altro articolo con esempi pratici per convincere i più restii. Se qualcuno vuole una bibliografia se la cerchi su internet, ma nel campo fotografico non in quello della fisica teorica.
La causa principale di questo equivoco e del formarsi di questo mito è comunque colpa principale di un noto sito internazionale, DPReview, in cui sono molto bravi dal punto di vista della realizzazione web e di marketing, ma molto meno nel campo fotografico che ha cominciato a propalare questa storia, seguito da altri intimiditi dalla presunta autorevolezza. Questi non hanno capito che le foto si confrontano ALLE STESSE DIMENSIONI e non al 100 % sul monitor. Non è perchè una foto ha più pixel che si stampa più grande di quello che serve o si visualizza su uno schermo più grande.
In sostanza la maggiore o minore visibilità del rumore dipende dall’ingrandimento che subisce l’immagine originale rilevata dal sensore. Questo è equivalente all’amplificazione in campo elettronico: minore è più bassa è l’amplificazione del rumore. Ciò spiega perché con sensori più grandi il rumore è inferiore: in realtà l’immagine a parità di dimensioni di visualizzazione è ingrandita di meno.
Molti, esperti di fotografia, hanno capito ciò: posso indicare DXOMark e il Centro Studi di Progresso Fotografico che confrontano le macchine, per la misura del rumore, ad una dimensione di pixel standardizzata, 8 o 10, adatta ad una stama A4 (circa 20×30 cm), come faccio anche io.
Francesco
http://www-isl.stanford.edu/~abbas/group/papers_and_pub/pixelsize.pdf
http://scien.stanford.edu/jfsite/Papers/ImageCapture/vSNR_PixelBinningSPIE_111809.pdf
queste sono pubblicazioni scientifiche, non gli sproloqui di tutti fotografi che, pur di sostenere l’insostenibile, arriva ad affermare che la d3x avrebbe lo stesso rumore della d3s e, se questo non succede, è solo perché la d3x ha la raffica più veloce. Roba da far accapponare la pelle (anche i bambini dell’asilo sanno che è l’esatto opposto). Per la cronaca, queste non sono elucubrazioni mentali da fisico teorico ma considerazioni pratiche da ingegnere elettronico che si occupa di elaborazione numerica dei segnali.
Da qui si vede CHIARAMENTE, che l’operazione di resizing non equivale e neppure si avvicina al binning, ovvero alla possibilità di unire “fisicamente” più pixel per ricavarne uno di dimensioni maggiori, salvo il caso di buon livello di illuminazione (ovvero quando non serve perché il SNR è, comunque, alto). Quindi la teoria sul “guardare l’immagine alle stesse dimensioni” (pixel resizing) non ha fondamento alcuno. Il binning FISICO è l’unico che dà risultati comparabili all’avere pixel di dimensioni più grandi; ma il vero e porprio binning è possibile solo con i CCD e non con i CMOS, quindi quello che si definisce binning, riferito ai CMOS, si avvicina ma non è lo stesso rispetto all’avere pixel di dimensioni maggiori. Il resizing neppure si avvicina. Inoltre, i produttori di fotocamere, anche se hanno dato mandato a varie testate di spargere la voce che non contano le dimensioni dei singoli pixel (per mera questione di marketing), loro si guardano bene dallo spingere sensori affollati agli stessi livelli di ISO di sensori meno affollati A PARITA’ DI TECNOLOGIA (ovvio che se paragono un sensore da 2 Mpixel, magari di tipo MOS a matrice passiva, di 15 anni fa, con uno da 20 Mpixel attuale, il confronto è impietoso. Peccato che in 15 anni si siano fatto tanti progressi e non solo sui sensori.
Infine, commento la tua ultima riga: non citi alcuna bibliografia scientifica perché non c’è bibliografia che possa sostenere la tua tesi. Solo chi non conosce le componenti del rumore digitale e la loro incidenza sulla QI complessiva può sostenere una tesi come la tua
Stefano,
scusami ma mi fate ridere.
Mi sembrate come gli aristotelici del 600 o gli inquisitori della stessa epoca che si rifiutavano di guardare la realtà, cioè in quel caso il cannocchiale di Galileo, per sostenere che il sole girava attorno alla Terra perché era scritto nei loro libri.
Ma volete guardare le foto coi vostri occhi e usare la vostra testa invece di riferirvi a libri e pubblicazioni!
Il vostro problema è che continuate a ragionare (si fa per dire) sul singolo pixel invece che sul loro insieme, cioè sulla foto.
Francesco
P.S.: faccio notare che il pixel binning e il ridimensionamento di una foto sono due operazioni diverse che nulla hanno a che fare l’una con l’altra. Ciò dimostra che chi ha scritto questo commento non ha assolutamente capito il problema.
infatti il ridimensionamento della foto si chiama pixel resizing; ho citato il binning perché d° risultati milgiori del resizing ma peggiori dell’avere pixel più grandi. Per la cronaca, ho citato anche il resizing e ti ho postato anche una pubblicazione scientifica che mette a confronto i risultati del pixel resizing (ridimensionamento della foto) con quelli del binning e che dice, in maniera esplicita, che il resizing si avvicina ai risultati del binning solo in condizioni di luce ottimale (ovvero quando è sufficiente un sensore da compatta per avere immagini pulite). In quanto al vedere con i nostri occhi, siamo tutti in grado di farlo ma, evidentemente, quello che vedo io è diverso da quello che vedi tu. Per questo mi baso su dati oggettivi e sulla conoscenza di chi, come il sottoscritto, ha studiato e lavorato nel campo dell’elaborazione delle immagini digitali. Ripeto quanto detto: la rivista tuttifotografi sostiene la tua stessa tesi, ha pubblicato un articolo in cui voleva dimostrare che le dimensioni dei pixel non contano ed è, involontariamente, giunta alla conclusione opposta, visto che le immagini della d3x sono di almeno uno stop e mezzo (anche due) peggiori di quelle della d3s (a parità di dimensioni, perché dovresti sapere che tuttifotografi adotta i tuoi stessi criteri). Per giustificare la cosa ha avuto il coraggio di scrivere che questo avviene perché la d3x ha la raffica il doppio più veloce e la velocità di acquisizione incide sulla qualità delle immagini. Ora, anche gli sprovveduti sanno che la raffica della d3s è il doppio più veloce di quella della d3x a parità di dimensioni del sensore ma con risoluzione dimezzata. Il che significa che, a parità di read out channel e di cpu (come infatti è), si può assumere per buona l’ipotesi che d3x e d3s abbiano la stessa velocità di acquisizione dati. Quindi, la velocità non c’entra nulla e il confronto dimostra INEQUIVOCABILMENTE che la d3s con 12 Mpixel ha immagini nettamente più pulite della d3x (con 24 Mpixel) a parità di tecnologia
Stefano,
leggerò quando avrò tempo le pubblicazioni di cui mi hai allegato il link, ma questo non potrà cambiare i risultati pratici che ho sotto gli occhi. Potrei pubblicare, e lo farò in un articolo prima o poi, moltissime foto, scattate ad alte sensibilità Iso, di fotocamere con sensori di uguali dimensioni e numero differente di pixel che, ridimensionando le foto a 10 Mpx o comunque al livello della più piccola del confronto, presentano lo stesso rumore. Potrei anche pubblicare moltissime foto di fotocamere con uguale numero di pixel e sensori di dimensioni diverse che, in questo caso senza bisogno di ridimensionamento, presentano rumore in misura inversamente proporzionale alle dimensioni del sensore.
Come si spiega? Forse è necessario estendere la teoria al campo fotografico considerando quanto detto sull’ingrandimento e sul fatto che le foto sono usate e guardate alle stesse dimensioni indipendentemente dal numero di pixel.
Ovviamente è diverso il caso delle analisi delle foto, ad esempio quelle astronomiche, dove appositi programmi le analizzano pixel per pixel, ma non è questo il caso della fotografia dove l’occhio guarda i pixel tutti insieme.
Non sono riuscito a rintracciare velocemente nel mio archivio il numero di Tutti Fotografi di cui parli, anche se lo ricordo (ho quasi l’intera collezione, ma per motivi di spazio molti sono in cantina). Ho però disponibile il numero 20 di Progresso Fotografico Serie Oro dove sono pubblicate le misure di rumore di moltissime fotocamere. E’ vero la Nikon D3x con 24 Mpx ha un rapporto segnale/rumore inferiore alla D3s con 12 Mpx. Peccato però che poi si vede che la Nikon D800 da 36 Mpx ha un rapporto segnale rumore pari alla D3s. E allora? Come si spiega? Forse c’è qualcosa che non va con la D3x che anche nelle mie prove era sembrata un po’ inferiore alle sorelle ed alle concorrenti.
Francesco
P.S.: ringrazio comunque per avere riaperto questa polemica. Le visite al blog sono volate.
la d3s ha un SNR superiore a quellod ella d800 a tutti i valori ISO e, addirittura, superiore a quello della D4 fino s 3200 ISO; io, francamente, le misure di dxomark, le prenderei con le pinze perché sono completamente sballate sia nell’impostazione che nelle conclusioni. Stendiamo un velo pietoso sul modo in cui assegnano i punteggi, poi. Questo nonostante la d800 ha un sensore progettato 5 anni dopo quello della d3s, nonostante la d800 abbia microlenti di qualità nettamente migliore, nonostante il processo produttivo non sia lo stesso e nonostante il segnale della d800 sia filtrato anche in RAW
Stefano,
mah! Dalle misure di DXOMark risulta che, in versione standardizzata, le D800, D4s (stesso livello tecnologico della D800) e D3s hanno lo stesso rapporto segnale/rumore e solo la D3x è un po’ inferiore. Ma DXOMark non sa fare le misure!
Da Progresso Fotografico risulta che la D800 ha lo stesso rapporto segnale/rumore della D3s e che invece la D3x è un po’ inferiore e solo questa è una misura considerata valida.
L’osservazione delle foto (non si sa con che metodologia fatta) ti porta a vedere il contrario di quello che è evidente.
Se vuoi avere comunque ragione fai pure, a me non interessa più polemizzare in questo modo
Ciao, Francesco
Francesco, intanto va ricordato che l’aumento di pixel favorisce anche gamma dinamica e profondità colore, cosa che gli amanti del singolo pixel sorvolano poiché vedono solo la performance degli alti ISO. Non casualmente un mio amico si trova meglio con la d800e (dopo aver a lungo tempo usato d3s e d4). Inoltre, interessa a poco sapere che un pixel più grande raccoglie più luce, vediamo benissimo che molte informazioni sono ricostruite via software e la stessa matrice bayer si basa su una demosaicizzazione di informazioni “monocolore” in ogni punto. Se si vuole dimostrare che fisicamente cattura più luce un sensore FF da 12 rispetto ad uno da 38, lo si faccia, ma la fotografia va oltre quella raccolta di luce. Tra il resto per la fisica,i filtri colorati necessari nella matrice bayer fanno perdere due stop di luce, quindi la vera rivoluzione sarà l’introduzione di una matrice mista bayer con fotodiodi bianchi (es: truesense) oppure un passaggio verso un vero sensore digitale.
Christian,
grazie del contributo. Hai perfettamente ragione.
Aggiungerei che chi sostiene che “più pixel più rumore” prende in considerazione solo il singolo pixel e non l’insieme che costituisce la foto. Ragionando così l’optimum sarebbe un sensore con solo 4 pixel 1 rosso, 2 verdi e 1 blu così da ridurre al massimo il rumore. Peccato che più che una foto si otterrebbero solo 4 punti colorati.
La rivoluzione vera sarebbe, come dici, quella di un “vero” sensore digitale, ma non so a che punto siano le ricerche per realizzarlo.
Ciao, Francesco
veramente sarebbe uno rosso, uno blu e due verdi. Questo perché l’occhio è più sensibile alla frequenza corrispondente al verde/giallo. Ma questo è noto a tutti coloro che trattano segnali digitali
Infatti ho scritto “1 rosso, 2 verdi e 1 blu“. Forse hai difficoltà a leggere i numeri, o l’ordine in cui si scrivono i colori cambia la sostanza delle cose?
Francesco
no, forse l’hai corretto.
Stefano,
ora incominci ad esagerare! Mi dai del bugiardo?
Credo che non accetterò più i tuoi commenti se non ti scusi.
Francesco
veramente è il contrario; ok, d’accordo che si sta cercando di far passare un concetto privo di fondamento, ma qui mi pare che si stia esagerando. La gamma dinamica ha come estremi corrente di buio e corrente di saturazione e pixel più piccoli hanno correnti di saturazione nettamente inferiori e, quindi, gamma dinamica molto minore. La d800 ha un sensore prodotto da sony che utilizza un metodo (che non sto qui a specificare) per ampliare la gamma dinamica a ISO base ma, aumentando gli ISO, la gamma dinamica della d4 risulta superiore a quella della d800. Per l’esattezza, ANCHE considerando dxomark, la d4 supera la d800E coma gamma dinamica, a partire da 200 ISO e la d3s la supera da 300 ISO in poi (e, all’aumentare degli ISO il gap aumenta). Ovviamente vanno viste le immagini on screen, perché quelle stampate sono tutta fuffa. La stampa appiattisce tutto
Stefano,
al solito consideri il singolo pixel e non l’insieme della foto. Forse molte delle tue obiezioni sono prive di fondamento, ma ti ringrazio lo stesso: gli accessi al blog volano.
Per educazione comunque potresti almeno firmare.
Ciao, Francesco
Ciao.
Detto con un linguaggio per tutti,
a parità di dimensione del sensore e parità di tecnologia ( del CMOS e di tutta l’elettronica che ci sta dietro), all’aumentare dei fotositi aumenta la genesi del rumore.
Dove per rumore si intende un insieme di anomalie che portano al degrado della foto.
Non si possono confrontare foto di macchine costruite in tempi troppo differenti perchè cambierebbe la tecnologia del sensore e ti tutta l’elettronica/software che lavora il flusso.
Il confronto va fatto con macchine della stessa età.
Un esempio su tutti, Sony A7S e Nikon D810.
Stessa dimensione sensore, stessa età, stessa teconologia e processo produttivo by SONY
La prima 12 MP la seconda 36.
Vince al A7S.
Fabrizio,
che vinca la Sony A7S è solo una tua opinione.
le misure strumentali e la visione diretta a confronto, alle stesse dimensioni di visualizzazione (cosa che voi sostenitori di “più pixel più rumore non riuscite a capire, ma non è colpa vostra!) danno un pareggio fra A7S e D810 e anche fra A7S e A7R, così consideriamo fotocamere anche della stessa marca.
Ormai anche i siti più retrivi riconoscono che il rapporto segnlae7rumore dipende, a parità di tecnologia, dalle dimensioni del sensore.
Ciao, Francesco
Franesco, mi tocca studiare la teoria dei segnali? mmm ma è un macello 🙂 …beh hai ragione in parte perchè il ricampionamento elimina rumore ma anche segnale ad alte frequenze e quindi dettagli fini, perdendo di fatto il vantaggio dei megapixel in più.
In oltre pixel più grossi danno un rumore piuttosto grossolano, a bassa frequenza, piuttosto Gaussiano/morbido, il migliore da filtrare rispetto a quello spiky dei tanti pixel.
Ed i pixel piccoli con poca luce crollano di brutto, con rumore spiky+termico+quantizzazione (pattern noise).
E’ davvero difficile fare un confronto assoluto, ci sono troppe variabili in campo. Posso dire che a parità di tecnologia, il rumore dipende dalle dimensione sensore in via generale, e secondariamente anche da frammentazione, e condizioni di scatto?
Fabrizio,
nel valutare la qualità fotografica non ci si può limitare alla teoria dei segnali o alla distribuzione del rumore di quantizzazione come fanno molti, ma si devono considerare anche gli aspetti fotografici e le modalità di visualizzazione delle foto.
Prima di tutto è evidente che le foto non si guardano più o meno ingrandite in funzione del numero di pixel della fotocamera, lo fanno solo i “pixel peeper” che scrutano ansiosamente le foto sul loro schermo ingrandite al 100 % per scovare ogni più piccolo segno di rumore e cedimento nella risoluzione.
La gente normale guarda le foto per apprezzarne il contenuto, vedere un paesaggio, un monumento, un amico, un parente o qualsiasi altra cosa, sperando che la foto gli racconti o gli ricordi qualcosa. Per questo la foto la vedono intera, su schermo o su stampa. In certi casi la foto può essere usata per stampe di grande formato o poster, ma sempre per intero.
Da questo è evidente che per confrontare due foto queste devono avere le stesse dimensioni di visualizzazione e non è ammissibile che quella con più pixel sia vista più grande. Ciò anche perchè, a parità di dimensioni del sensore, vedere più grande una foto con più pixel di un’altra vuol dire ingrandirla di più. Con il maggiore ingrandimento si ingrandiscono i dettagli, ma anche i difetti compreso il rumore.
Le stesse dimensioni di visualizzazione si possono ottenere in due modi: stampando le foto nello stesso formato, oppure riducendo il numero di pixel di quella più grande alle dimensioni di quella più piccola per la visualizzazione a video. Non è possibile ne corretto ingrandire quella più piccola perchè si introdurrebbero solo pixel inutili e privi di particolari aggiuntivi. Nel processo di riduzione le foto di maggiori dimensioni (in pixel) conservano più dettagli di quelle di dimensioni più piccole e una maggiore impressione di nitidezza. Ciò dipende dal fatto che, a causa dei filtri antialiasing (non sempre però presenti) e della demoicisazione, una foto scattata con un sensore Bayer non ha mai la risoluzione massima che ci si potrebbe aspettare in base ai suoi Mpx, ma arriva nel migliore dei casi ad un 70 % (ciò spiega anche perchè i sensori Foveon offrono una nitidezza superiore).
Un sensore da 12 Mpx (4240×2832 pixel) quindi avrà una risoluzione corrispondente a circa 3000×2000 pixel, un sensore da 36 Mpx (7380×4912 pixel) avrà una risoluzione di circa 5000×3500 pixel. Operando una sua riduzione non c’è più la demoisacizzazione (e l’eventuale filtro antialias) a ridurla e se la si porta a 12 Mpx avrà una risoluzione di circa 4200×2800 pixel. Offrirà quindi maggiore dettaglio di una da 12 Mpx nativi. Questo ovviamente nell’ipotesi che sia scattata con un obiettivo adeguato in grado di fornire la maggiore risoluzione. Questo si può verificare speimentalmene, come ho fatto, scattando le stesse foto con due fotocamere con il sensore delle stesse dimensioni, una con 12 e una con 36 Mpx e con lo stesso obiettivo e poi riducendo quella da 36 a 12 Mpx.
In queste condizioni di confronto il rumore di quantizzazione deve essere considerato per l’intero sensore e non per i singoli pixel ed è lo stesso. Ci può essere un leggero vantaggio per gli altri tipi di rumore (termico, ecc.) e per il maggior tempo che può essere dedicato alla lettura di un minore numero di pixel, ma si traduce complessivamente in al massimo un db di differenza alle alte sensibilità.
La tua conclusione è comunque alla fine abbastanza corretta: il rumore dipende, a parità di tecnologia, in modo preponderante dalle dimensioni del sensore e poi dall’elettronica e da come vengono trattati i segnali. Non so cosa intendi per dire che il rumore possa dipendere dalle condizioni di scatto.
Ciao, Francesco
Salve, io attualmente ho una compatta del 2010 e voglio passare alla reglex.
A me non interessano i megapixel, fotografo animali notturni, mi interessa più l’ottica luminosa.
Posso quindi prendermi una nikon d70 e risparmiare rispetto ad una Nikon d7200? le dimensioni del sensore sono le stesse, la tecnologia è cambiata poco a livello di silicio, quindi il degrado dovuto al rumore di quantizzazione è lo stesso, giusto?
Franco,
non è vero che la tecnologia sia cambiata poco fra le Nikon D70 e D7200. Entrambe hanno un sensore di dimensioni APS (23,5×15,6 mm), ma la D70 ha un CCD da 6 Mpx, la D7200 un CMOS da 24 Mpx senza filtro antialias. Inoltre cambia l’elaboratore d’immagine che nella D70 non ha un nome specifico, nella D7200 è un Expeed 4, quarta versione molto più potente delle precedenti dell’elaboratore d’immagine Nikon. La D70 infatti arriva ad una sensibilità massima di 1600 Iso, la D7200 a 25600 e, nonostante i pixel in pià, ha un rapporto segnale/rumore molto migliore oltre che una risoluzione molto maggiore.
Ciao, Francesco
Scusate io non sono un tecnico ma faccio una semplice considerazione . Prima Ci si lamentava sempre che per una compatta con sensore 1/2,3 20 megapixel erano troppi eppure sono stati prodotti ma nessuno ha considerato che lo stesso numero di megapixel è ora disponibile con sensori apsc o m 4/3 quindi molto più grandi di un 1/2,3. Quindi le foto dovrebbero essere di gran lunga migliori a parita di megapixel o sbaglio?di cosa ci di lamenta allora? Non credo che si possa dire che 20 24 megapixel sono sprecati anche su sensori grandi come gli apsc specie quelli di ultima generazione. A me basta sapere questo nel passaggio da compatta a reflex o ml. Altrimenti questa discussione non ha più senso torniamo alle analogiche e fine della storia.
francesco leggo spesso di persone che preferiscono avere un sensore da 16 mpxl piuttosto che da 24 perchè a loro dire le lenti non sarebbero risolventi per sensori così densi, è vero? leggo anche altri che invece si lamentano proprio perchè il loro sensore è da 16 e non da 24, mah.
Michele,
la tua è una domanda semplice, ma molto interessante. La risposta però può essere difficile e complessa.
Cominciamo considerando gli obiettivi. Questi sono caratterizzati da una risposta nella riproduzione dei dettagli che dipende dalla frequenza spaziale riprodotta. Per capire meglio ipotizziamo di riprendere una sequenza di righe verticali bianche e nere che, a partire dalle prime molto larghe a sinistra, diventano sempre più sottili andando verso destra. Le righe avranno quindi una frequenza spaziale sempre maggiore, cioè più sono sottili più ce ne saranno per unità di misura, il mm ad esempio. L’obiettivo, indipendentemente dal sensore utilizzato, riprodurrà con un contrasto elevato le prime righe che si vedranno bianche e nere, poi man mano che la frequeza spaziale aumenta, cioè che le righe diventano più sottili, saranno riprodotte in grigio scuro e chiaro, in modo sempre meno distinto sino a che si vedrà solo del grigio medio. Questo è il limite di risoluzione dell’obiettivo. Questo si misura con una curva su un grafico dove in ascisse c’è la frequenza spaziale e in ordinate il contrasto, che si chiama curva MTF (modulation Transmission Function).
E’ evidente quindi che usando un sensore grande, al limite della copertura dell’obiettivo, si sfrutta al meglio la sua curva MTF, mentre usando un sensore più piccolo, a parità di scena inquadrata, si avranno meno dettagli e quelli riprodotti saranno meno nitidi. Questo spiega perchè usando obiettivi per fullframe questi ottengono migliori risultati su queste fotocamere che sulle APS.
Si potrebbe pensare però di progettare obiettivi con una minore copertura del formato, adatti a sensori più piccoli, APS, Micro 4/3, 1″ ecc., e questo in realtà viene fatto. Questi obiettivi spesso danno su questi sensori risultati buoni quanto quelli per fullframe o quanto quelli specifici per le medio formato. Ci si scontra però con due problemi. Il primo sono le dimensioni ed il peso che per i formati più piccoli i fotografi si aspettano minori di quelli per i formati più grandi. Basta vedere gli zoom f/2,8 costanti per Micro 4/3 e APS per rendersene conto. Il secondo, forse più importante, è il costo. Gli obiettivi di alta qualità per i formati più piccoli costano praticamente quasi quanto quelli per i formati più grandi, ma pochi sono disposti a spendere per un’APS o una Micro 4/3 quanto spenderebbero per una fullframe.
Considerando i sensori invece si vede che da quando le digitali sono apparse sul mercato questi hanno visto un costante aumento del numero di pixel fino a qualche anno fa, momento in cui la situazione si è stabilizzata, anche se non è detto che rimanga così per il futuro. Ricordo quando si diceva che per una reflex 6 Mpx erano sufficienti (e in realtà ho fatto ottime foto con questa risoluzione), oppure qualche costruttore affermava che 12 Mpx bastavano, salvo poi vedere superati di gran lunga questi limiti.
Attualmente ho in prova fotocamere con sensore da 1″ e 20 Mpx oppure fullframe da 42 Mpx con una nitidezza sorprendente.
Dalle mie prove poi risulta che spesso sono i sensori più degli obiettivi a limitare la risoluzione.
Questo vuol dire che avere sensori con più Mpx significa sfruttare al meglio la capacità degli attuali obiettivi e vale per tutti i formati. Si deve considerare poi che se si ha un obiettivo con nitidezza e risoluzione non adeguati è possibile cambiarlo più facilmente che cambiare un sensore, cosa che comporta la sostituzione del corpo, e che se si ha un obiettivo con una risoluzione elevata non sfruttabile dall’attuale sensore, in futuro magari sarà possibile sfruttarla quando sarà presentato un nuovo modello con un maggior numero di pixel.
In conclusione è chiaro che non si può dare una risposta univoca, ma l’esperienza e la pratica dimostrano che avere più Mpx è sempre meglio e più vantaggioso che averne di meno. E’ sempre possibile ridimensionare le foto per usi Web e piccole stampe, mantenendo più dettaglio di quanto se ne avrebbe con una macchina con meno Mpx, ma non è mai possibile fare il contrario.
Riguardo al rumore infine i miei articoli e l’esperienza pratica dimostrano che questo dipende dalle dimensioni del sensore e non dal numero di pixel e, anche in questo caso, le foto con più pixel possono essere ridimensionate, ottenendo anche una diminuzione del rumore visibile, quelle con meno no.
Ciao, Francesco
Ti ringrazio per la spiegazione, avevo questi dubbi perchè alcuni mi consigliano di prendere una macchina m4/3 perchè a loro dire sono superiori a sensori più grandi grazie all’abbinata 16 mega + ottiche dedicate, salvo poi scoprire che queste persone per sfruttare al meglio il sensore m4/3 usano anche obiettivi molto luminosi e costosi. Infatti altri che hanno preso il m4/3 ma con lenti standard si lamentano del rumore anche a bassi iso. Non potendo permettermi queste lenti, avevo pensato che sarebbe stato più logico per me puntare al sistema apsc ma con lenti standard, così da avere già la stessa Qi del m4/3 ma a prezzi più contenuti. Nulla poi mi avrebbe impedito, volendo alzare l’asticella e il budget, di prendere in futuro lenti più luminose per apsc così da avere una qualità ancora superiore al m4/3. Che ne pensi il ragionamento è corretto o un m4/3 ma con lenti standard è già un sistema valido, anche per la questione rumore a bassi medi alti iso?
Michele,
altra domanda interessante.
Generalizzando si potrebbe dire che avere obiettivi di elevata qualità e luminosità è sempre meglio, indipendentemente dal formato del sensore.
Scendendo in dettaglio e considerando prima di tutto il formato Micro 4/3, dalle mie prove si vede che con i sensori da 16 Mpx, usati fino a poco tempo fa per questo formato, la misura massima registrata non è mai stata superiore alle 2000 linee di risoluzione orizzontale, anche con obiettivi di elevata qualità come l’Olympus 12-40 mm f/2,8, i Panasonic 12-35 mm f/2,8 e 35-100 mm f/2,8 e addirittura il Leica Summilux 25 mm f/1,4. In questo caso il fattore limitante è la risoluzione del sensore e la prova è il fatto che con l’Olympus OM-D E-M5 II usata in modalità Hi-RES che corrisponde a 40 Mpx ho registrato con il 12-40/2,8 una risoluzione superiore alle 2600 linee. Con gli obiettivi più economici tipo il l’Olympus 14-42/3,5-5,6 EZ, i Panasonic 12-32/3,5-5,6 e 14-42/3,5-5,6 la risoluzione è arrivata fino a quasi 2000 linee alle focali e diaframmi migliori ed è rimasta inferiore nei restanti casi.
Con l’Olympus PEN-F, che ho attualmente in prova, dotata di un nuovo sensore da 20 Mpx che aumenta la risoluzione del 12,5 % (5184 pixel in orizzontale contro 4608) e due focali fisse Olympus 17 mm f/1,8 e 45 mm f/1,8 ho ottenuto risoluzioni poco superiori alle 2000 linee, ma anche in questo caso il limite sembra più del sensore che degli obiettivi.
Per le APS con 16 Mpx ho dati solo per le Fujifilm e Leica. Le fujifilm sia con gli zoom 16-50/3,5-5,6 e 18-55/2,8-4,0, sia con le focali fisse 16/1,4, 23/1,4, 35/1,4 e 56/1,2 stanno più o meno su un massimo di 2000 linee tranne la X-T100s che con un obiettivo fisso 23 mm f/2,0 attentamente calibrato per il suo sensore arriva a 2500. La Leica T da 16 Mpx (penso senza filtro antialias come le Fujifilm, anche se Leica non ne parla) con il Summicron T 23 mm f/2,0 arriva invece a 2600 linee e l’obiettivo sembra limitato dal sensore; evidentemente la qualità Leica non è una leggenda! Sono in attesa di provare le nuove Fujifilm con il sensore da 24 Mpx, X-Pro2 e X-T2.
Ho provato poi alcune mirrorless, Sony e reflex, Canon, Nikon e Sony con sensore APS da 24 Mpx. Interessante il caso di Nikon: la D3200 con 24 Mpx e filtro antialias si attesta poco oltre le 2000 linee sia con il 18-55/3,5-5,6 in kit che con il 18-200/3,5-5,6 ed il 35 mm f/1,8. La D5300 semprecon sensore da 24 Mpx, ma senza filtro antialias, le supera ampiamente con gli stessi obiettivi arrivando a circa 2400 con il 35/1,8; l’effetto del filtro è quindi sensibile. Di Canon ho provato solo la EOS 750D con il 18-135 ed in questo caso credo che la sua risoluzione, poco più di 2000 linee, sia limitata dall’obiettivo.
Interessanti invece le misure sulle Sony da 24 Mpx: la mirrorless A6000 con lo zoom Zeiss 16-70 mm f/4,0 supera le 2400 linee e la SLT A77 II con il Sony 16-50 mm f/2,8 supera le 2500.
In conclusione si può affermare che non ci siano grosse differenze fra Micro 4/3 e APS se la risoluzione del sensore è limitata a 16 Mpx anche usando obiettivi di elevata qualità perchè il limite è il sensore. Con sensori di maggiore risoluzione probabilmente si potrebbero evidenziare i limiti degli obiettivi più economici per il Micro 4/3, mentre quelli migliori saranno in grado di sfruttarli al meglio. Per l’APS si può dire che passando da 16 a 24 Mpx si può ottenere un miglioramento anche con obiettivi economici e con quelli di classe più elevata sfruttare a fondo il sensore.
In ogni caso avere obiettivi luminosi comporta una qualità migliore in condizioni di poca luce perchè si può scattare con sensibilità decisamente inferiori.
Concludo suggerendoti, se vuoi considerare una fotocamera Micro 4/3, che nel catalogo Olynpus ci sono ottimi obiettivi a focale fissa luminosi e dai costi non proibitivi. Io mi sto trovando molto bene con l’Olympus PEN-Fe i 17/1,8 e 45/1,8 rispettivamente equivalenti ad un 34 e a un 90 mm.
Ciao, Francesco
Se il miglioramento è significativo è strano che su mirrorlrss m4/3 da 16 mega pixel come olympus hanno tolto il filtro aa mentre per quelle apsc da 24 come la Sony a 6000 e a6300 hanno lasciato il filtro aa quando oramai anche le reflex nikon lo hanno eliminato
Michele,
le Micro 4/3 in realtà hanno tutte il filtro antialias. Quelle che non l’hanno sono le Fujifilm.
Aggiungo che per sfruttare bene un sensore senza filtro è necessario che anche il software della fotocamera sia adeguato e che le Fujifilm, pur avendo un sensore di tecnologia esclusiva con una disposizione particolare dei pixel, non sembra beneficino molto dell’assenza del filtro.
Ciao, Francesco
allora avevo visto male io le specifiche, mi sembrava di aver letto che ad esempio la olympus em10 non avesse il filtro aa. Quindi tirando le somme le uniche forse che hanno un pacchetto equilibrato tra grandezza sensore- megapixel e assenza filtro aa sono le reflex nikon le quali sfruttano bene l’assenza del filtro e, grazie all’alta risoluzione del sensore da 24 mpixel, anche con ottiche standard non eccelse riescono ad ottenere cmq i risultati migliori?
Michele,
anche le Sony APS da 24 Mpx, sia mirrorless che reflex vanno molto bene.
Ti ricordo comunque che una fotocamera non si sceglie solo per la risoluzione, anche se questa è importante.
Se è per la risoluzione le scelte migliori dovrebbero essere la Canon EOS 5DsR da 50 Mpx o la Sont A7R II da 42 se non la Phase One X100 da 100 Mpx.
Ciao, Francesco
Michele,
ho letto, facendo ricerche in rete, un articolo sulla Olympus OM-D E-M1 dove si afferma che il suo sensore non ha il filtro antialias, ma dalle specifiche Olympus non risulta. Anche per le Panasonic in nessuna specifica risulta che siano prive del filtro antialias.
Ciao, Francesco
si ovviamente 50 mega saranno meglio di 24, ma 24 penso siano più che sufficienti per me, anche per non appesantire l’hd con file enormi, la mia attuale macchina ne ha 16 ma su sensore molto più piccolo. A proposito, la mia macchina pur avendo 16 mega il jpeg è sempre attorno ai 7-8 mega, come mai? la macchina applica una compressione?
Complimenti per la competenza tecnica dell’articolo (sfatiamo i miti: più pixel più rumore). Ho una domanda su un tema affine: quando si dice che più pixel= più micromosso, vale la stessa teoria? Cioè il micromosso sembra maggiore per l’errore di confronto su crop 100%? Grazie in anticipo per l’eventuale risposta.
Tritonasblog,
si effettivamente è così, le foto di fotocamere con più Mpx sembrano avere maggior micromosso se guardate al 100 % sullo schermo perchè sono ingrandite di più. E’ lo stesso fenomeno che riguarda il rumore e dipende dall’ingrandimento.
Nella realtà però le foto non si guardano solo una zona alla volta ingrandendole al 100 % su uno schermo in cui ovviamente non entrano completamente, ma si guardano nella loro interezza su monitor, tv o stampa. Questo vuol dire che, a parità di dimensioni del sensore, si ingrandiscono allo stesso modo. Il minor rumore delle fotocamere con sensore più grande invece dipende dalla maggiore quantità complessiva di luce che questo riceve rispetto ad un sensore più piccolo e dal minore ingrandimento a cui è sottoposta l’immagine che di partenza è più grande.
Ciao, Francesco