• Confronto TV, proiettori e ampli al Roma Hi-Fidelity il 15 e 16 novembre

    Sabato 15 e domenica 16 novembre, all'hotel Mercure West, AV Magazine vi aspetta nella sala Domitilla dalle 10:00 alle 18:00 con un confronto tra TV OLED e tra amplificatori con un diffusore di riferimento. Nella sala adiacente di Gruppo Garman vi aspetta invece un confronto tra videoproiettori Epson LS9000 e QB1000 con un sistema home cinema Dolby Atmos con integrato Denon AVC-A1H e diffusori Focal EVO. Maggiori informazioni a questo link.

  • JVC NZ900 + NZ500 da Videosell il 14 e 15 novembre a Milano

    Venerdì 14 e sabato 15 novembre, presso la showroom di Videosell a Trezzano sul Naviglio, sarà possibile osservare all'opera il videoproeittore JVC DLA-NZ900 (alias DLA-RS4200) con il nuovo firmware 2.0 da poco disponibile. Sarà in funzione anche un eccellente DLA-NZ500 (alias DLA-RS1200) che è un campione del rapporto qualità prezzo. Appuntamento quindi a venerdì 14 novembre, dalle 15:30 alle 20:30 con aperitivo "videofilo" gratuito e anche sabato 15 novembre, sia la mattina dalle 9:30 alle 13:30 e poi il pomeriggio dalle 14:30 alle 16:00. Maggiori informazioni a questo link.

L'occhio umano

Sirpent

New member
Sentiamo parlare sempre + spesso di nuovi display dalle caratteristiche
sensazionali.Risoluzioni elevatissime,spazi colore estesi,profondità colore
a 10 e fischia bit.......ma tutto questo deve passare dal nostro occhio!
Volevo apere da Emidio se esiste un limite fisiologico oltre il quale un occhio "medio" non è + in grado di percepire tali differenze,cosa che renderebbe un "super" display non tanto diverso da uno "normale".
Ringrazio:confused:
 
Uno dei padri, secondo molti "il padre" della colorimetria (la misurazione del colore), era un tal Joseph Lovibond, mastro birraio inglese che verso la fine del 19° secolo, pensando come poter mantenere il colore delle sue birre sempre uguale, elaborò un sistema, usando dei vetri colorati, per creare le diverse sfumature.
Secondo i suoi studi i colori disitinguibili dall'occhio umano non superano i 9 milioni.

Questi corrispondono alla talvola CIE 1931, elaborata anche sulla base dei suoi studi, praticamente immutati.

CIE1931.jpg


Questa tavola riporta le lunghezza d'onda dei colori visibili dall'occhio umano, da 380 a 750 nm.

Se pensi che uno spazio colore RGB, tipo il Pal, ne occuperà si è no un terzo ne deriva che i colori distinguibili fra quelli riprodotti da un display digitale sarà intorno ai 3 milioni a stare larghi.

Uno spazio di destinazione campionato a 24 bit ne contiene 17 milioni, quindi apparentemente più che sufficiente.

Il fatto è che un immagine, anche complessa, raramente conterrà più di 1/1,5 milioni di colori.
Ancora meno se consideriamo la relativamente bassa risoluzione di un'immagine video, anche quando è a 1080p.
Aggiungici la compressione a alla fine parliamo di poche centinaia di migliaia di colori.

Ovviamente più scende il numero di colori visualizzati e più è facile che una diversa mappatura (o degrado se lo intendiamo come scontamento dal sw originale) del colore diventi evidente anche alle limitate capacità discriminati dell'occhio umano.

Ciò detto sembrebbero del tutto inutili i display e i DSP a più di 8bit canale.
E invece, leggi qui…
http://www.avmagazine.it/forum/showpost.php?p=536455&postcount=5



Ciao.
 
Ultima modifica:
Girmi ha detto:
Questi corrispondono alla talvola CIE 1931, elaborata anche sulla base dei suoi studi, praticamente immutati.

Ciao.
Girmi ... visto che sei in "tiro" (come sempre daltronde :D ) mi toglieresti una curiosità ;)
Com'è che nella tavola che hai postato e nel triangolo di Gamut vi è sempre un estensione maggiore verso il verde :confused:

ciao :cool:
 
benegi ha detto:
Com'è che nella tavola che hai postato e nel triangolo di Gamut vi è sempre un estensione maggiore verso il verde :confused:
Lo spazio CIE è uno spazio teorico, cioè frutto di funzioni matematiche, che non trova riscontri in nessun tipo di visualizzazione.

I display digitali RGB, gli analogici YUV (YCbCr), le macchine da stampa CMYK, le diapo CMY fino alle tinte Lab, qualunque sistema si scelga potrà rappresentare sempre e solo un sottoinsieme dello spazio CIE.

Quindi sia questa che tutte le altre tovale CIE che vedi in giro sono solo delle rappresentazioni grafiche di uno spazio che non è riproducibile in alcun modo, inoltre sarebbe anche tridimesionale.
È solo un illustrazione insomma.

Il modo corretto per rappresentare uno spazio colore sarebbe tramite le funzioni matematiche che ne determinano le coordinate spaziali.
Ma capisci che sarebbe molto meno intuitivo :D

Quella che ho trovato deve essere stata fatta da un grafico a cui piaceva molto il verde, ma ne puoi trovare molte altre con meno verde.

Questa ad esempio riporta più ciano e bianco e presenta il gamut del PAL.



A parte questo, il verde è il colore a cui l'occhio umano è più sensibile.
Se non ricordo male, il verde di riferimento è a 550 nm, ma dovrei controllare.
Alcuni tipi di verde poi, quelli che tendono all'azzurro come il turchese e lo smeraldo, sono una vera croce per sistemi RGB.
Sony aveva presentato tempo fa, fotocamere con sensore RGBE (Emerald, smeraldo) proprio per cercare di migliorare la ripresa di questi verdi.


Ciao.
 
Ultima modifica:
Girmi ha detto:
Uno spazio di destinazione campionato a 24 bit ne contiene 17 milioni, quindi apparentemente più che sufficiente.

Il fatto è che un immagine, anche complessa, raramente conterrà più di 1/1,5 milioni di colori.
Ancora meno se consideriamo la relativamente bassa risoluzione di un'immagine video, anche quando è a 1080p.
Aggiungici la compressione a alla fine parliamo di poche centinaia di migliaia di colori.

Ovviamente più scende il numero di colori visualizzati e più è facile che una diversa mappatura (o degrado se lo intendiamo come scontamento dal sw originale) del colore diventi evidente anche alle limitate capacità discriminati dell'occhio umano.

Ciò detto sembrebbero del tutto inutili i display e i DSP a più di 8bit canale.
E invece, leggi qui…
http://www.avmagazine.it/forum/showpost.php?p=536455&postcount=5

Ciao.

Non ho capito alcune cose, se i colori distinguibili dall'occhio umano
sono 9 mlioni e sono per giunta riassunti in una tabella, come mai
tutti i dispositivi di acquisizione non usano quella tabella?

Se un singolo pixel di una tv a 24bit può assumere 17milioni di colori
diversi mi pare logico che essi comprendano quanto meno i 9 milioni
di colori visibili dall'occhio umano. Perche quindi non dovrebbero
bastare evidenziando una diversa mappatura?

Cioè, due pannelli, uno da 17 mlioni di colori e uno da miliardi di colori,
perche dovrebbero scegliere di rappresentare, ad esempio, una sfumatura di rosa con due colori, scelti dalla oro lista, diversi?

Ultima domanda, che c'entra poco con i colori, l'occhio umano a
che risoluzione arriva?
 
Max Mercury ha detto:
Non ho capito alcune cose, se i colori distinguibili dall'occhio umano
sono 9 mlioni e sono per giunta riassunti in una tabella, come mai
tutti i dispositivi di acquisizione non usano quella tabella?
Perchè la Tavola CIE rappresenta i colori visibili dall'occhio umano, non quelli di un dispositivo di riproduzione.

Questi, qualunque essi siano, per i limiti imposti dalle diverse tecnologie usano spazi colore molto, ma molto, più ristretti.

Inoltre fra i vari spazi colore ci possono essere ampie zone che, per così dire, non si sovrappongono.
Per cui, con un monitor RGB è impossibile riprodurre il Cyan del CMYK, mentre tramite il CMYK non puoi stampare il Blu RGB, né molti arancioni o verdi scuro, e così via.

Quindi ogni display hai dei limiti "spaziali".
Il fatto che all'interno del proprio spazio colore un display possa elaborare ogni singolo colore in maniera più sofisiticata di un altro, ad esempio elabornado a 36 bit invece che a 24 bit, porterà solo a minori differenze fra un certo colore e quello a lui più prossimo.

Infine, parlando di TV, Vp, ecc…, un'immagine 1920x1080 contiene al massimo 2 milioni circa pixel.
Anche se fosse proiettata un immagine che contenesse tutti i 17 milioni RGB a 24bit, questi devono per forza essere ridotti ai 2 milioni corrispondenti ai pixel dello schermo, dato che ogni pixel può riprodurre un solo colore per volta.

In parole povere significa 2 cose:

1) che la maggior parte dei colori visibili non sono riproducibili né tramite display, né in stampa, né in foto, ecc…

2) che la "precisione" di calcolo dei display va ben oltre il potere discriminante dell'occhio umano e dello stesso pannello e che quindi molti colori, che al display risulterebbero matematicamente diversi, vengono percepiti dall'occhio o riprodotti dal pannello come uguali.

Ultima domanda, che c'entra poco con i colori, l'occhio umano a che risoluzione arriva?
Cerca nel forum "cerchi di confusione" abbinato al mio nick.
In gradi mi sembra che il potere risolvente (la possibilità di distinguere una riga nera da una bianca, senza cioè vederle come un'unica riga grigia) sia di 0,01°.

Ciao.
 
Girmi ha detto:
2) che la "precisione" di calcolo dei display va ben oltre il potere discriminante dell'occhio umano e dello stesso pannello e che quindi molti colori, che al display risulterebbero matematicamente diversi, vengono percepiti dall'occhio o riprodotti dal pannello come uguali.

Ciao.
Scusa Girmi ... ma in questo caso non comprendo in modo chiaro ... che intendi per display :confused:

ciao e grazie per la risposta precedente :)
:cool:
 
L'occhio umano non risponde meglio al verde, ma il picco di risposta lo ha con le gradazioni gialle:
http://eosweb.larc.nasa.gov/EDDOCS/Wavelengths_for_Colors.html
Non è un caso che l'illuminazione delle strade sia proprio giallo intenso (dovuto alle lampade a Sodio usate), perchè ciò aumenta la luminosità percepita nell'ambiente (se avete caso di metter a confronto diversi lampioni (!), noterete facilmente la sensazione di "corposità" che da questa illuminazione, seppur sembri di bassa intensità).

Il verde è importante perchè è quello fra rosso e blu, entrambi limitati agli estremi da infrarosso e ultravioletto, quindi è quello che si estende maggiormente con tutte le sue sfumature, sfumature per questo facilmente percepibili dai nostri occhi.

Il diagramma CIE è utilissimo, ma ha il grosso problema di non rappresentare l'informazione di luminanza, come si può vedere da questa animazione:
http://www.brucelindbloom.com/index.html?ColorCalculator.html

Fra l'altro solo la prima immagine CIE postata in questo topic è giusta, la seconda è parzialmente errata, visto l'enorme spazio bianco (deve esserci solo un punto), e tutta una porzione di azzurrino al posto del verde (dovrebbe esserci tutta una sfumatura verde, o meglio, ciano).
Questo, come detto sopra, è dovuto al fatto che nel CIE manchi l'informazione di luminanza (e inoltre ogni monitor ha una diversa calibrazione di colore, che porta a una diversa colorimetria risultante) percui i grafici possono avere gli uni rispetto gli altri colori più chiari o più scuri, traendo in inganno l'osservatore.

Carino, per capire forse un po' meglio, questo sito con le rappresentazioni dei vari spazi di colore:
http://www.couleur.org/index.php?page=transformations


Non sono però d'accordo con il discorso sui MP di risoluzione dell'immagine e la riproduzione su display dei colori, questa assomiglia più a una deviazione professionale data dal lavorare presumibilmente nel campo fotoritocco.
In realtà avere 17 milioni rappresentabili da un display, che di per sè e capace di rappresentarne (per ora...) al massimo solo 2 milioni alla volta (1920x1080), risulta ugualmente utile dal momento in cui ho la possibilità di sfruttare i restanti 15 milioni in fotogrammi successivi.
Ovvero, è un esempio estremizzato, se ho a disposizione un display capace di mostrare un solo colore alla volta (1 pixel) e due diversi pannelli, uno da 3 colori (ROSSO, BLU, VERDE) e uno da 6 colori (ROSSO, ROSSINO, BLU, BLUINO, VERDE, VERDINO), evidentemente vi è comunque una bella differenza nel mostrare una sequenza di immagini ROSSO, ROSSO, VERDE rispetto a una ROSSO, ROSSINO, VERDE (o eventuali altre combinazioni).
In effetti per un display la profondità di colore è, in ultima analisi, la possibilità di mostrare sfumature di colore in modo più fine, così come la risoluzione non è che la possibilità di mostare immagini più dettagliate.


Il tutto però deve sottostare a una imprescindibile regola, ovvero che sia presente la corrispettiva informazione originaria.
Nel caso della risoluzione dovrò avere un flusso a 1920x1080 per sfruttare a pieno una TV con tale matrice, e dovrò avere un flusso da 10-bit per componente per sfruttare ipotetica tale TV.
Il mondo attuale è praticamente tutto codificato a 8-bit per componente, giochi compresi (a volte addirittura meno) ed è per questo motivo che l'adozione di tali pannelli risulterebbe comunque pressochè inutile.


Quello che invece si è solito fare con i bit, è il cosidetto dithering.
Ancora, mi trovo in disaccordo con il non volerlo definire come un processo di interpolazione, quello che fa il dithering (hardware) non è altro che una manipolazione del flusso video in entrata affinchè vengano creati nell'intorno dei colori, pixel di colori con simile (ma non identica) gradazione, che ammortizzino le transazioni.
I colori utilizzati sono quelli possibili dal display, ma la loro risultante potrebbe sconfinare dalle possibilità dello stesso.
Che è ESATTAMENTE quello che fa (per diverso scopo) l'interpolazione (termine in realtà generico per definire più operazioni), ovvero crea (con algoritmi più o meno avanzati) un colore risultante da due adiacenti o, se preferite, dei pixel fittizi che siano comparabili a quelli adiacenti.
Tutto sommato il dithering non è una brutta cosa, ma la sua utilità si ferma nel correggere errori di visualizzazione del display o deficit nel flusso visivo in entrata, allo stesso modo della interpolazione di risoluzione.


Per chi volesse approfondire:
http://en.wikipedia.org/wiki/Color_banding
http://it.wikipedia.org/wiki/Dithering
http://accelenation.com/?ac.id.146.2
http://www.scantips.com/basics14.html
http://www.behardware.com/articles/...e-of-electronic-components-on-lcd-colors.html


Per questo i bit, al momento, non sono altro che l'ennesimo valore che le case produttrici di periferiche tendono a pompare per fregare l'ignaro aquirente, che ormai ha preso già fin troppo confidenza con gli altri termini come risoluzione, tempo di risposta, contrasto... :,(
 
MiKeLezZ ha detto:
L'occhio umano non risponde meglio al verde, ma il picco di risposta lo ha con le gradazioni gialle
Dato che mi fido sempre meno della mia memoria, prima di rispondere ho rispolverato qualche vecchio testo.

I 550nm di cui mi ricordavo sono effettivamente la lunghezza d'onda a cui si ha la maggior eccitazione dei coni, i recettori posti sulla retina e che catturano le componenti cromatiche della luce.
Esistono coni specializzati per ognuna delle componenti cromatiche.

550nm corrispono al verde erba (tendente al giallo) che si trova fra il verde (535nm) ed il giallo (575nm).

Questo però succede alla luce del sole perchè i coni hanno bisogno, per attivarsi, di molta più luce (sono meno sensibili) rispetto ai bastoncelli che sono i recettori preposti alla cattura della componente luminosa (acromatica) della luce.

In condizioni di luce scarsa i coni sono meno attivi e la maggior parte della visione è dovuta ai bastoncelli.
Questi, pur non recependone il colore, sono più sensibili alla luce verde-blu (505nm).

Quindi i lampioni sono gialli non perché l'occhio sia più sensibile a quel colore. Anzi il giallo arancio, essendo complementrare al blu-verde, sarebbe il meno indicato, se non fosse per la potenza che il lampione esprime.

In realtà il motivo molto più semplice.
Il colore della lampade ad incascenza, siano a filo o a gas, è direttamente proporzionale alla temperatura raggiunta dall'illuminante. Più si scalda e più andrà dal rosso all'arancione al giallo al bianco.

Ma per produrre il calore necessario a scaldare l'illuminante serve energia e l'energia costa, inoltre servono illuminanti in grado di sopportare temperature più alte, quindi più costosi.

Insomma, i lampioni sono gialli solo perché costano di meno e basta.

Che il giallo non sia il colore migliore per vedere di notte è verificabile esaminado il colore delle lampadine da auto.
Essendo molto più piccole di un lampione posso usare materiali più costosi, infatti hanno una luce molto più bianca (maggiore temperatura) fino ad arrivare ad alcuni modelli che hanno anche il vetro colorato in blu proprio per avvicinarsi di più al blu-verde a cui sono sensibili i bastoncelli.

Il diagramma CIE è utilissimo, ma ha il grosso problema di non rappresentare l'informazione di luminanza,
Questo è quello che intendevo dicendo "inoltre sarebbe anche tridimesionale".
Infatti la luminosità, che si sviluppa sull'asse Z, viene cosiderata solo nelle rappresentazioni 3D e nelle formule di conversione.

Ma ai fini di una rappresenzazione cromatica, come nel caso della Tavola CIE 1931, non serve.
Queste sono sempre fatte per valori di luminosità pari al 100%.
Anzi, con valori inferiori di luminosità cambia anche la componente cromatica che quindi verrebbe falsata.

Fra l'altro solo la prima immagine CIE postata in questo topic è giusta, la seconda è parzialmente errata,…
Eretico. :grrr:
La seconda è presa direttamente dal mio Mac :p

Come ho detto, sono solo illustrazioni.

Carino, per capire forse un po' meglio, questo sito con le rappresentazioni dei vari spazi di colore:
http://www.couleur.org/index.php?page=transformations
Con una ricerca per immagini in google si trovano parecchie rappresentazioni 3D ed anche delle animazioni.

Chiunque abbia un Mac, invece, deve solo aprire l'Utility ColorSync per avere le rapprentazioni 3D interattive dei vari spazi colore. :cool:

Non sono però d'accordo con il discorso sui MP di risoluzione dell'immagine e la riproduzione su display dei colori, questa assomiglia più a una deviazione professionale data dal lavorare presumibilmente nel campo fotoritocco.
Casomai "deformazione" professionale :p
Comunque no, io lavoro immagini con ben più di 17MP ed uso dei CRT.
L'esempio era volutamente esagerato per rendere meglio l'idea.

Ancora, mi trovo in disaccordo con il non volerlo definire come un processo di interpolazione,
Il dithering è l'esatto contrario dell'interpolazione.
L'ho già descritto qui.

Volendo estremizzare, tramite un dithering ben fatto, unito ad una alta risoluzione, si posso ottenere le stesse sfumature ottenibili da un'immagine da 17M colori usandone solo 4.
È esattamente quello che fanno tutte le stampanti a colori, che non potendo variare il colore dei sigoli pixel stampati, ne riproducono la tinta proprio usando un retino (a croce, a punti, stocastico (a diffusione d'errore), ecc…) dei soli 4 colori CMYK.

Leggi qui e guarda le immagini allegate.

In alcuni driver di stampanti puoi trovare proprio scegliere il tipo di dithering fra le opzioni di stampa.

Il problema del dithering lo si avverte quando la risoluzione è bassa, come nei display di cui parliamo.

Ad ogni modo, in un display vengono usati sia il dithering che l'interpolazione nella riproduzione dei colori.
Ed in questi processi i bit servono.



Ciao.



p.s.: lascia perdere wikipedia, non ci credono più neanche i fondatori ed inoltre non cita neanche Lovibond :rolleyes:
 
Sì, non hai detto cose completamente errate, e in effetti anche io dovrei smettere di postare a notte, dato che poi al mattino mi accorgo dei terribili mischioni che scrivo...

Ho constatato sia ben documentato che l'occhio umano abbia un picco di eccitazione a frequenze di circa 507nm (ciano) in ambienti pressochè bui (poichè viene attivata la visione tramite bastoncelli), e circa 555nm (verde/giallo) durante la quasi totalità del giorno (si sfruttano i coni).
Mentre sotto un'illuminazione artificiale notturna (che non rientra in alcuno dei due casi) ha un picco visivo in un intorno non definito delle due frequenze sopra citate (in quanto sono adeguatamente stimolati sia i coni che i bastoncelli); per comodità potremo parlare di 530nm (paradossalmente, verde).

Ugualmente innegabile che il range delle lampade a bassa pressione di sodio sia 589nm (giallo).

Qui devo fare una correzione, come già visto, l'occhio umano non presenta picchi esattamente a questa tonalità (ora spiego in cosa mi sono confuso), e non è neppure che abbiano designato tali lampioni in modo che sprigionino luce gialla, è solo una loro peculiarità (motivo anche della loro altissima efficienza).
Rimane comunque vero che rispetto alle altre luci quelle di sodio a bassa pressione riescano a solleticare meglio il nostro occhio, visto che i 589nm cadono evidentemente molto vicini alla frequenza di picco dei coni (555nm), mentre le altre hanno lo uno spettro di emissione non perfettamente definito, il che si traduce nel caratteristo colore biancastro.

Ora, anche la tua affermazione, che "i lampioni sono gialli perchè costano di meno e basta", è veramente troppo banalizzante (dato inoltre il costo maggiore delle lampade a sodio), così come la tua presunta proporzionalità fra temperatura del bulbo, cromaticità della luce, e W consumati (presente sì, ma certamente non in modo direttamente proporzionale, sarebbe altrimenti troppo semplice lo studio illuminotecnico).

Idem per l'affermazione che "le auto vorrebbero creare un fascio di luce verde/blu", no! Il fascio di luce si è spostato alla colorazione bluastra grazie all'utilizzo delle lampade Xeno, più efficienti, che a differenze di quelle tradizionali hanno proprio questa colorazione.
Incidentalmente, un colore più bianco colpisce di più i bastoncelli e, rispetto al giallino, non copre i colori degli oggetti (ha un maggior indice di rendimento cromatico), il che lo rende più comodo su un'automobile (innegabile l'utilità nel caso volessimo fare un'escursione in montagna di notte, senza la possibilità di usufruire di una illuminazione stradale adeguata).
C'è comunque un tradeoff, ed è quello che una luce più bianca, rispetto a una più calda, da maggior problemi con condizioni avverse, come pioggia, neve o nebbia.
Poi, che vada di moda aggiungere dei vetri blu dentro l'armatura dei fari, o addirittura comprare lampadine che creino un fascio bluastro, questo è tutto un altro discorso......


Riguardo il dithering, ho letto il tuo intervento prima di fare il mio, e ritengo che entrambi abbiamo dato un punto di vista valido, asintomatico delle nostre conoscenze culturali, o derivante dall'ambiente lavorativo.
Per esempio ho capito da dove viene questa tua convinzione della ESTRAPOLAZIONE (anche grazie all'esempio di stampa), il software Adobe possiede infatti uno strumento chiamato "dithering", che serve per creare i colori mancanti dalla tavolozza, ovvero fa proprio quello che tu volevi descrivere, usare un set noto di dati per costruire un dato non appartenente a quel set.

Ciò è solo parte della tecnologia. Ovvero, va bene se il mio schermo sia incapace di processare un'immagine a 8-bit per componente (es. un vecchio LCD TN) e quindi tramite questo algoritmo io cerco di rappresentare le gradazioni mancanti dal mio display (nel nostro caso un 6-bit), ravvicinando alcuni colori fra loro.
C'è da notare comunque che questo sarebbe già un algoritmo sofisticato, i primi LCD con dithering sfruttavano invece non un algoritmo di ESTRAPOLAZIONE, ma un formula di trasformazione...

E' che la parola "DITHERING" non si ferma solo a questo (e vedo infatti che anche tu ti sei corretto), in particolare l'applicazione di cui sopra è quella meno usata nel nostro campo (nel tuo, forse è probabilmente il contrario).

In realtà ci si ritrova più spesso ad avere un pannello a 8-bit che riproduce effettivamente materiale a 8-bit, e quindi in cui l'uso di un'algoritmo di dithering come quello sopra descritto sarebbe del tutto inutile (in quanto io effettivamente già possiedo nella mia tavolozza tutti i colori richiesti dal flusso video).
Quindi avere un ALGORITMO (mica tutti sono uguali...) di dithering a bit superiori del mio pannello (che siano 10, 12, o 16 -generalmente anche aumentandoli spropositamente oltre a 12 si nota poco-) è come fare una specie di post-processing dell'immagine, questa volta effettiamente INTERPOLAZIONE, se fossimo in ambiente audio la chiameremmo RE-SAMPLING (termine non errato da usare anche nel nostro caso): es. trasformiamo un brano musicale da 16-bit a 24-bit, e poi nuovamente lo riscaliamo da un ricevitore per una riproduzione a 16-bit.

In questo caso il dithering non è che un algoritmo per la diffusione di errore che serve per "smussare" alcune transizioni (l'analogia la si farebbe con una immagine con banding), il mio link del reply precedente era MOLTO esplicativo a riguardo, e presentava degli ottimi esempi, percui mi fermerò qua: http://www.behardware.com/articles/...e-of-electronic-components-on-lcd-colors.html
 
Ultima modifica:
Brunny ha detto:
Se può essere utile a tutti dopo il rispolvero della materia già discussa a suo tempo:

http://www.audioholics.com/education/display-formats-technology/1080p-and-the-acuity-of-human-vision

OT

C'è una prova dell'Epson 1080p su questo sito.

Con l'osservazione di un limite che avevo notato anch'io un po' di tempo fa facendo i calcoli per rispondere a un post.
Nella modalità theatre black c'è una certa caduta della luminosità che scende sotto i 12 fl.

In quella prova lo schermo usato è un Stewart Studiotek 130, quindi ad alto gain, distanza di proiezione di 11.5 feet, circa 3.5 metri, (quindi anche relativamente vicino).
Sta sotto i 12 fl, e a lampada nuova.
I problemi potrebbero arrivare per coloro che stanno sotto i 12fl già dopo 100/200 ore di lampada.

Interessante la comparazione tra i due fotogrammi volti a illustrare la diversa fill ratio tra il 720 e il 1080.
Praticamente niente più SDE.

Per il resto è un proiettore che merita una calibrazione ben fatta per tirare fuori quello che può dare.
 
Top