Deep color e HDMI 1.3

  • Autore discussione Autore discussione MDL
  • Data d'inizio Data d'inizio
a me sembra ovvio che il discorso va fatto a parità di sw e a parità i hard ware. come è ovvio che ci possono essere macchine che non dispongono di hdmi 1.3 e relativa elaborazione ma diano un risulato milgiore di una catena ps3+ tw1000. qestonessuno le mette in dubbio.
credo, però, che questa capacità di elaborazione del ws della ps3 doni un maggior numero di sfumature e tonalità di colore con un certo miglioramento.
poi non capisco perchè si continua a dire che sw con deep color ci vorranno anni per vederlo quando numerose aziende sostengono (sony e toshiba in primis) che dall'autunno si inizieranno a vedere i primi prodotti.
se la mettiamo da questo punto di vista la ps3 deve ancora uscira, hd-dvd in italia si vedono col contagocce.... non si sa nemmeno quale formato sopravviverà ad una guerra che sta appena iniziando.... eppure ci stiamo lanciando tutti in acqusti poco ponderati, molto istintivi e frutto di una passione che di razionale ha ben poco.... in questo marasma non cedo sia sbagliato considerare hdmi 1.3 e il deep color come un valore aggiunto che se non può determinare da solo il giudizio finale su un prodotto, è sicuramente qualcosa la cui presenza non dispiace.
faccio un esempio: se fossi indeciso tra vpr full hd panasonic ed epson e non riuscissi a notare grandi differenze di visione, a parità di costo tra i due prenderei quello con hdmi 1.3
forse esagera chi mostra molto entusiasmo, ma esagera anche chi dimostra tanto scetticismo.
 
Bene, da quello che ho capito c'e' anche gente che la pensa come me..

Girmi ho capito benissimo quello che tu hai detto.
Tu puoi stare giorni a farmi spiegazioni tecniche, ma non cambiero' mai la mia idea.
Io sono sicuro che i 36 bit veicolati dalla play3 danno un grosso beneficio.
Lo so perche' ho visto con attenzione andare con blu-ray i vari HC5000 e panny 1000 che hanno gli stessi pannelli lcd epson e non sono paragonabili alla immagini del tw1000 con play3.
Tutte le volte che guardo le immagini in 1080p della play3 mi sembra un altro mondo...e dire che ne ho visti di VPR...

Ma secondo voi la play3 monta un'elettronica che AUTOMATICAMENTE porta il segnale a 36 bit quando collegata ad un VPR 1.3 per non avere nessun beneficio o addirittura per perdere di qualita'??????

Meditate gente...:rolleyes:

pannoc
 
FuoriTempo ha detto:
poi non capisco perchè si continua a dire che sw con deep color ci vorranno anni…
Perchè, almeno da quanto mi risulta, gli attuali codec, da MPEG2 a H.264 non supportano il 12bit, solvo rare eccezioni.

In particolare MPEG2 non lo supporta proprio e H.264 lo supporterebbe in alcune implementazioni particolari destinate però al settore pro.

Inoltre una codifica a 36bit, invece che a 24bit, richiederebbe a parità di lunghezza e compressione il 50% di spazio disco in più e parecchia potenza di calcolo.
Per questo la vedo poco applicablibile nell'immediato.

Quanto alle dichiarazioni di Sony, non dimentichiamo che sono gli stessi che dicono che servono più di due setimane per comprimere un film in VC1 :rolleyes:

…in questo marasma non cedo sia sbagliato considerare hdmi 1.3 e il deep color come un valore aggiunto che se non può determinare da solo il giudizio finale su un prodotto, è sicuramente qualcosa la cui presenza non dispiace.
Girmi ha detto:
Morale, se la 1.3 c'è, bene. Se non c'è, va bene lo stesso.
Come vedi, su questo siamo d'accordo.

forse esagera chi mostra molto entusiasmo, ma esagera anche chi dimostra tanto scetticismo.
Non si tratta di scettismo, ma leggiamo sul forum di gente che non vuole acquistare un vp o un lettore solo perché non ha ancora la HDMI 1.3 sperando in chissà quali benefici solo per la presenza della stessa.
Alla luce delle considerazioni che ho fatto, questo a me sembra assurdo.

Poi anch'io sto aspettando che mi arrivi il Toshiba HD-XE1 e stò puntanto il Denon AVR-4308, entrambi con HDMI 1.3, ma ti assicuro che non l'HDMI 1.3 a spingermi verso questi prodotti.

Ciao.
 
pannoc ha detto:
Tu puoi stare giorni a farmi spiegazioni tecniche, ma non cambiero' mai la mia idea.
Faccio il pubblicitario, figuriamoci se voglio demolire il lavoro di colleghi che lavorano così bene :D


Ciao.
 
Ho letto tutto il thread ma mi è rimasto un dubbio...

Leggendo l'ultimo report di Emidio dal CES, notavo come le demo fatte su flat panel (LCD mi pare) delle nuove possibilità offerte dalla tecnologia "deep color" evidenziassero differenze eclatanti tra display "con" e "senza".

Allora mi/vi chiedo: posto che anche il software dovrà essere codificato con le informazioni aggiuntive "lato colore" per poter sfruttare realmente l'aumento di banda passante, come mai Emidio ha visto differenze così grandi?

Vuol dire che SOLO per quella demo i filmati erano codificati apposta per il "deep color"?

Ciao!
Marco
 
poe_ope ha detto:
Ho letto tutto il thread ma mi è rimasto un dubbio...


Allora mi/vi chiedo: posto che anche il software dovrà essere codificato con le informazioni aggiuntive "lato colore" per poter sfruttare realmente l'aumento di banda passante, come mai Emidio ha visto differenze così grandi?

Vuol dire che SOLO per quella demo i filmati erano codificati apposta per il "deep color"?

Bravo!
Anch'io ho fatto la stessa domanda e nessuno mi ha risposto.
Anzi solo EMIDIO ha ammesso che ci potrebbero essere potenziali miglioramenti anche senza DEEP COLOR "nativo" sui supporti.

pannoc
 
Riporto questa notizia data dalla stessa HDMI organization e postata dal nostro MIKE5 nel forum dell'EPSON TW1000

"Deep Color: Al CES abbiamo fatto una dimostrazione di due TV LCD identiche affiancate, che riproducevano contenuto generato da una PS3, rispettivamente a 8 e 10 bit. La differenza era così palese che tutti i visitatori che hanno visto la demo erano in grado di notare le differenze senza che noi dovessimo indicare dove e cosa cercare. Io personalmente non ho visto una demo affiancata che confrontasse i 10 con i 12 bit, ma ho visto contenuti a 10 bit nei quali potevo ancora notare un leggero banding, cosa che mi porta a credere che l'occhio umano sia in grado di vedre la differenza tra 10 e 12 bit. Durante le mie conversazioni con gli esperti di elaborazione video, essi affermavano di essere in grado di prendere un contenuto video a 8 bit ed applicare un'estrazione gamma tale da eliminare il banding e fornire un'esperienza video da pseudo 10 bit. Sembra che diversi produttori di lettori HD DVD e Blu Ray siano convinti che questo produrrà davvero un'esperienza (visiva) migliore, anche se il contenuto è codificato nativamente a 8 bit."

pannoc
 
Girmi ha detto:

La frase "chiave" quindi è sostanzialmente questa?

"Quindi un display a 10 o 12 bit/canale sarà sempre in grado: non di visualizzare più colori in assoluto di un 8 bit/canale, ma di visualizzarne un maggior numero di quelli originalmente contenuti nel software sorgente, operando un numero molto minore di sostituzioni."

E quindi, a prescindere dalla codifica del sw, un miglioramento di qualche genere c'è?

Ciao e grazie per i chiarimenti!
Marco
 
pannoc ha detto:
…cosa che mi porta a credere che l'occhio umano sia in grado di vedre la differenza tra 10 e 12 bit.
Messa così è poco chiaro.
L'occhio umano non distingue certamente la profondità di colore espressa digitalmente, ma solo il suo risultato.

…essi affermavano di essere in grado di prendere un contenuto video a 8 bit ed applicare un'estrazione gamma tale da eliminare il banding e fornire un'esperienza video da pseudo 10 bit.
Praticamente quello che ho scritto io nei post linkati, circa un anno fa!!!

Sembra che diversi produttori di lettori HD DVD e Blu Ray siano convinti che questo produrrà davvero un'esperienza (visiva) migliore, anche se il contenuto è codificato nativamente a 8 bit."
Wow :eek:
Dopo l'HD hanno scoperto anche l'acqua calda :D

Ciao
 
poe_ope ha detto:
E quindi, a prescindere dalla codifica del sw, un miglioramento di qualche genere c'è?
La codifica del sw è ovviamente importante, ma nonostante il fatto che per ora è solo a 8bit canale (comunque suffiicienti) il miglioramento potrebbe esserci comunque.

Questo lo vedresti molto più chiaramente elaborando fotografie ad alta definizione.
Parlo di roba da qualche decina di milione di pixel, non i 2 Mp scarsi dell'HD video.

Se scansioni (o riprendi) una foto a 24 bit, la elabori e correggi a 48 bit e la risalvi a 24 bit, avrai un risultato di gran lunga superiore a quello ottenibile con un intero workflow a 24bit.

Allo stesso modo se l'immagine dovesse subire un ulteriore processo di elaborazione (nel nostro caso si tratterebbe di quello del display) sarebbe meglio se questo fosse a più di 24 bit, per i motivi descritti nei post linkati.

Ma fra i due processi, pre e post, l'mmagine può anche viaggiare a 24 bit, se il processo a monte (nel caso il lettore) è fatto bene. Cioè se non ha deteriorato il contenuto originale.

Per questo dico che l'HDMI 1.3 per ora serve a poco.
Meglio sono pre e post processori che lavorini bene.
Se poi nelle macchine dotate di HDMI 1.3 montano anche DSP migliori, tanto di guadagnato.


Ciao.
 
Scusa Girmi, visto che sembra ne mastichi di elaborazioni digitali, colori, etc..., tu l'hai mai sentita nominare questa "gamma extraction" di cui parla il rappresentante dell'HDMI Organization nel passaggio tradotto da me ? Io non sono riuscito a trovarla su Internet.

Per quanto riguarda l'HDMI 1.3, sono d'accordo che, fino a quando si tratta di uno "scaling di colore" (o gamma extraction, come la chiamano), la 1.3 è (quasi) inutile, perchè lo scaling allora tanto vale farlo sul display. Sarebbe diverso se avessimo materiale codificato Deep Color.

Ho messo il quasi perchè se uno, come Pannoc, ha la sorgente in grado di fare lo scaling e il display no, con la 1.3 si gode almeno lo scaling, senza non si godrebbe neanche quello.:p

Michele
 
Girmi ha detto:
La codifica del sw è ovviamente importante, ma nonostante il fatto che per ora è solo a 8bit canale (comunque suffiicienti) il miglioramento potrebbe esserci comunque.

Insomma sono cieco o condividi con me che l'immagine veicolata a 36 bit dalla play3 porta un miglioramento?

pannoc
 
Mike5 ha detto:
…, tu l'hai mai sentita nominare questa "gamma extraction" di cui parla il rappresentante dell'HDMI Organization nel passaggio tradotto da me ?
Probabilmente è come "l'azulene" o l'effetto "sassoplasso" dei dentifrici. Cioè il nulla.
Lo stesso "Deep Color" che significa?
Non sarà mica deep un immagine a 36 bit?
E a 48 bit o 96 bit cosa sono allora?

Tempo fa si definivano "True Color" le periferiche a 24 bit. Quindi il deep e meglio del true?

In pratica credo sia solo un modo, creativo, per dire che avendo più bit a disposizione si possono mappare, o traslare, le curve del gamma del sw o delle periferiche coinvolte nella catena video con maggior precisione.

Ogni periferica ha una propria curva di trasferimento (il gamma) così come un immagine o un filmato.

Per maggiori info, leggi questa discussione sul gamma
http://www.avmagazine.it/forum/showthread.php?t=43833

e questa sugli spazi colore
http://www.avmagazine.it/forum/showthread.php?p=305486#post305486

Ciao.
 
Mike5 ha detto:
Ho messo il quasi perchè se uno, come Pannoc, ha la sorgente in grado di fare lo scaling e il display no, con la 1.3 si gode almeno lo scaling, senza non si godrebbe neanche quello.:p

Michele

Esatto!
Tra l'altro l'EPSON ha una elettronica interna in grado di gestire benissimo segnali a piu' di 8 bit.

pannoc
 
pannoc ha detto:
Insomma sono cieco o condividi con me che l'immagine veicolata a 36 bit dalla play3 porta un miglioramento?
Come ho scritto più volte e da quanto mi risulta, al momento un collegamento a 36bit può servire solo a traspotare una sorta di "semilavorato".
Non so come la PS 3 mandi fuori il segnale, ma se lo fa a 36 bit impostando qualcosa, è come se demandasse al successivo processore la fine del lavoro che ha iniziato convertendo il sw, contente segnali YUV o YPbPr, da 24 bit a 36 bit.

Se il segnale in questo modo passa al processore video del display sarà li che avviene la conversione nello spazio colore RGB del display

Questo può anche dare un risultato migliore, ma se la conversione a RGB fosse fatta già nella sorgente nello spazio colore di destinazione, come accade usando un HTPC ad esempio, il risultato può essere altrettanto valido viaggiando a 24 bit.

Il problema è che gli spazi colori usati nelle apparacchiature consumer sono quelli legati ai segnali che devo trattare YUV per il software e RGB per i display.
Se come "trasporto" si usasse il Lab, si potrebbe fare tutto il percorso a 24 bit con risultati credo anche superiori ad un 36 bit in RGB o YUV.


Ciao.
 
Girmi ha detto:
Non so come la PS 3 mandi fuori il segnale, ma se lo fa a 36 bit impostando qualcosa, è come se demandasse al successivo processore la fine del lavoro che ha iniziato convertendo il sw, contente segnali YUV o YPbPr, da 24 bit a 36 bit.

Come detto piu' volte nella play3 NON ESISTE una impostazione per il DEEP COLOR.
La console, se collegata ad un display HDMI 1.3, porta il segnale a 36 bit in automatico.
Dato che e' impossibile disattivare tale processo penso che comunque porti giovamento...anzi ne sono sicuro!

pannoc
 
Girmi ha detto:
Per maggiori info, leggi questa discussione sul gamma
http://www.avmagazine.it/forum/showthread.php?t=43833

Estremamente chiara e dettagliata (parlo del post di girmi ivi contenuto), ne consiglio la lettura a tutti.

Mi sembra di capire che tu interpreti questa gamma extraction come un calcolo che utilizza per le conversioni un numero maggiore di cifre rispetto a quelle disponibili nei dati e fornite con il risultato, come fanno le calcolatrici che con dati a 8 cifre e risultato a 8 cifre ne usano 10 per i calcoli interni per evitare di introdurre errori di arrotondamento.

In questo caso, il calcolo comincia nella PS3, che prende i dati a 8 bit dal disco e fornisce un segnale YUV a 10 (12 ?) bit alla HDMI e finisce nel proiettore che converte l'YUV in RGB usando sempre 10 (12 ?) bit per i calcoli di conversione, eliminando gli errori di arrotondamento che si sommerebbero alla "bassa" risoluzione degli 8 bit.

Interpretato così, se io invece faccio la conversione YUV -> RGB sull'HTPC con ffdshow (presumibilmente con calcoli interni a più di 8 bit, forse questo è il significato dell'opzione HQ di ffdshow), ottengo comunque un segnale RGB sempre di 8 bit ma senza errori di arrotondamento, che posso trasmettere al proiettore con una HDMI <1.3.

In effetti quando uso RGB32 HQ con ffdshow nel mio HTPC ottengo una notevole sensazione di maggiore tridimensionalità dell'immagine, che mi porta a preferire questa opzione.

Rimane comunque il fatto che Pannoc, che non usa l'HTPC, riceve comunque un vantaggio dalla HDMI 1.3:)

Michele
 
Mike5 ha detto:
Rimane comunque il fatto che Pannoc, che non usa l'HTPC, riceve comunque un vantaggio dalla HDMI 1.3:)

Michele

Aggiungo che se i nuovi lettori BD/HD-DVD HDMI 1.3 fanno lo stesso lavoro della play 3, avremo un miglioramento con tutti i nuovi display/VPR dotati di 1.3.
Difatti questo miglioramento (per me notevole) sara' possibile con una catena COMPLETAMENTE HDMI 1.3.
Quindi non si puo' dire che l'hdmi 1.3 al giorno d'oggi sia parificabile alle versioni precedenti perche' anche senza deep color nativo si puo' sfruttare.
pannoc
 
Top