Post by Nuke DukePost by thewizardofwizmediamente, un file raw da 9Mb descrive/racchiude
un'immagine che sarà rappresentata da un tiff da 25Mb
Chiaro, ti credo.
Direi che il TIFF contiene 3 volte i dati compresi
nel RAW: 2 di 3 canali vengono derivati per interpolazione
durante il processo di demosaicizzazione per ogni
pixel/fotosito. Le dimensioni dei file dipendono dai
rapporti di compressione che vengono applicati ai dati
originali.
non è proprio così
stai confondendo la ricostruzione dei colori con il processo di
(ricostruzione della) risoluzione spaziale
sono due processi diversi e separati, che hanno in comune solo l'origine dei
dati (i fotositi).
facciamo un esempio su una DSLR conosciuta a tutti, giusto per dare numeri
concreti (i criteri valgono per tutte tranne D70 e simili, che offrono un
raw compresso CON perdita dati)
La Canon EOS 20D dispone di un sensore con una matrice di 3504x2336pixel,
per un totale di circa 8,2Mp. Ogni singolo fotodiodo misura l'intensità di
luce ricevuta con un'accuratezza di 12bit. Questo significa che ogni pixel è
capace di distinguere correttamente 2elevato12 livelli differenti di
luminosità, differenziandoli in 4096 gradini di grigi, dal bianco al nero.
L'immagine ripresa è memorizzata in un file di dati grezzi (raw, appunto)
all'interno del quale ciascuna area fotosensibile deposita il suo contributo
informativo, avente un range dinamico di 12bit. Moltiplicando per gli 8,2Mp
i 12bit della codifica RGB otteniamo un totale di 98Mbit, però noi
ragioniamo in byte (1 byte=1 word=8 bit) e quindi riconduciamo la singola
immagine raw ad un peso circa 12,3Mbyte (98Mbits/8). Ancora non abbiamo
parlato di colori, e questo è il momento per farlo: sappiamo che sulla
matrice di fotorecettori viene posto un layer colorato secondo un certo
schema. Nei CCD e CMOS si usa il pattern di Bayer, ovvero si filtrano le
singole celle con un solo colore della terna RGB, oppure secondo altre
combinazioni o criteri (vedi Sony con lo schema RGBE) in funzione delle
esigenze e capacità del Produttore del sensore. La conseguenza di avere la
rilevazione luminosa suddivisa per aree colorate disposte secondo una certa
griglia (nel nostro caso il pattern di Bayer) ci consente di migliorare
complessivamente la definizione dell'immagine grazie ad un particolare
artificio implementato via software/firmware. In questo modo le componenti
cromatiche di un dato pixel non sono più misurate direttamente, ma vengono
successivamente stimate mediante l'algoritmo di Bayer, utilizzando i valori
RGB degli 8 pixels più vicini cioè quelli racchiusi nel quadrato della
matrice minima 3x3 (caso accademico, semplificato). Assegnando ad ogni
singolo pixel una terna di valori RGB discriminati secondo 2elevato12
livelli per ciascun colore, cioè 4096x4096x4096livelli, possiamo
rappresentare un massimo di 68.719.476.736 combinazioni
cromodensitometriche, anzichè una singola componente sviluppata su
2elevato12 = 4096 livelli riferiti ad un solo colore. Con accorgimenti come
questo si gioca tutta la qualità dell'immagine ottenibile: la potenziale
accuratezza della rappresentazione cromatica del singolo punto diventa
incredibilmente precisa.
Torniamo alla nostra immagine digitale: conosciamo le regole che servono per
confezionare il file grezzo, che avrà un peso di circa 12,3Mb.
Ora cerchiamo di contenere ulteriormente le dimensioni del raw così
ottenuto: per conservare integralmente queste preziose informazioni è
necessario adottare una forma di codifica non distruttiva, (o loseless),
tipo quella adoperata per creare i file .zip. La riduzione media operata su
questo tipo di file è piuttosto ridotta, raramente oltrepassa un fattore 1,5
ma possiamo accontentarci. Il file raw passa così dai 12,3Mb a circa 8Mb e
prende l'estensione proprietaria .cr2 (che poi indica semplicemente Canon
raw 2a versione).
Da questo momento in poi il file sarà leggibile solo con un software
dedicato.
non è un prodotto finito, ma grezzo=> è tale perchè la successiva
elaborazione sarà fatta secondo criteri tecnici o creativi stabiliti
dall'utente, e qualsiasi combinazione di questi sarà comunque valida,
producendo la stessa immagine in diverse soluzioni.
Passiamo alla risoluzione: su quale risoluzione d'immagine possiamo contare?
Il nostro sensore dispone di una matrice formata da 3504x2336pixel, e questo
già ci fa capire che la risoluzione potrebbe non essere perfettamente uguale
lungo le due dimensioni, orizzontale e verticale. Ma non sempre è coì,
ricordiamo che esistono dei pixel che "normalmente" non vengono conteggiati
o il loro numero è arrotondato/approssimato per altri motivi. Normalmente,
ci serviamo di un semplice calcolo per conoscere la performance che il
sensore può esibire come risoluzione: 3504pixels distribuiti su 22,7mm in
orizzontale equivalgono ad una densità di 155pixel/mm, ovvero corrispondono
a 76 l/mm; allo stesso modo dei 2336pixels distribuiti su 15,1mm in
verticale. Il conto che abbiamo appena fatto è corretto, ma sin troppo
semplificato. Ecco perchè parlavo di sw che "recuperano" una manciata di
pixel sul prodotto finito, ripeto, una manciata per lato (tipo 30-50pixel,
per avere un'idea)
Post by Nuke DukePost by thewizardofwizin alcuni casi è possibile un miglioramento della
risoluzione (intesa come rapporto di cattura assoluto,
ovvero "come ti trasformo Xpixelorizzontali x Y
pixelverticali in Nlineepermillimetroorizzontali x
Mlineepermillimetroverticali)
Fantascienza: non capisco.
ora ci arrivo
L'algoritmo di Bayer combinato con quello di deconvoluzione, entrambi
contenuti nei programmi di lettura dei file .raw, tendono a sovracompensare
leggermente l'effetto del lowpass filter presente sulla superficie frontale
del CMOS, innalzando matematicamente la risoluzione effettiva oltre le 76/76
l/mm h/v calcolate come sopra. Questo sensore esibisce un rapporto di
cattura (risoluzione teorica) pari a 1748x1216 linee totali (intese come
coppie di linee bianche e nere) cui corrisponderebbe una resa di cattura
teorica del 50% e 53% orizzontale e verticale (pixel fisici/linee rilevabili
teoriche, ipotizzando che queste risultino pari alla metà del numero dei
pixel lungo una dimensione). Grazie al riuscitissimo abbinamento con un sw
interno felicemente progettato, si raggiunge una risoluzione reale di
1850x1650 l/mm, intese come coppie di linee bianche e nere, con MTF 100. Il
valore di risoluzione reale espresso in linee misurate sul sensore si
attesta al 53% e 71% della resa teorica di cattura orizzontale e verticale
(pixel fisici/linee rilevate dal file raw). La risoluzione di 1850x1650
l/mm, intese come coppie di linee bianche e nere perfettamente distinte,
corrisponde a MTF 100 sul sensore. Grazie alla qualità del processore
DigicII, la risoluzione si può spingere sino al limite delle 2000x2000 l/mm
accettando un minimo degrado d'immagine (MTF circa 25). In queste condizioni
si potranno notare minimi artifici digitali introdotti dal processo di
interpolazione piuttosto spinto, ma nel complesso l'immagine si può ancora
considerare buona, anche se dettagli più fini potrebbero non essere
perfettamente nitidi pur rimanendo ben riconoscibili. Le 2000x2000 l/mm sono
da considerare l'estremo delle prestazioni ottenibili dal sensore
(risoluzione assoluta o massima capacità di cattura) ovvero il limite di
risoluzione per cui le diverse linee della mira ottica potranno apparire
ancora separate e nitide nonostante la presenza di minimi fenomeni di
aliasing o leggeri artifici introdotti dall'elaborazione d'immagine, che,
ricordiamolo, qui viene spinta al massimo. Oltre queste frequenze spaziali
non è possibile acquisire alcun dettaglio, per contro è facile la comparsa
della caratteristica interferenza generata fra le più alte frequenze
spaziali da registrare e la griglia del filtro lowpass, condizione che dà
origine al fastidioso moirè. Il moirè lo conosciamo tutti: si tratta di un
grave disturbo nella fase di acquisizione dei particolari minuti, causato da
un fenomeno ottico d'interferenza (o anche battimento) che si verifica nelle
aree di cattura ove ricadono particolari le cui dimensioni sono paragonabili
a quelle della griglia del sensore/filtro lowpass. Nessun sistema digitale è
esente da questo disturbo: aumentare la capacità di risoluzione del sistema
(sensore+filtro lowpass) innalzando la massima frequenza registrabile
significa solo spostare verso l'alto (dettagli più minuti) la comparsa di
questo fenomeno.
Post by Nuke DukeSe ti vuoi spiegare, ti devi impegnare di più :) IMO
spero di averti accontentato, sebbene su un solo punto (segue...)
Ciao
Fabio