• Sabato 14 febbraio da Audio Quality partirà un roadshow che porterà il nuovo proiettore DLP 4K trilaser Valerion VisionMaster Max in giro per l'Italia e che toccherà Roma, Genova, Milano, Napoli, Padova e Udinee forse anche Bari e Torino. Maggiori info a questo indirizzo

Deep color e HDMI 1.3

  • Autore discussione Autore discussione MDL
  • Data d'inizio Data d'inizio
FuoriTempo ha detto:
…qalcuno può spiegarmi la cosa papale papale...?
Si parla dei vantaggi reali o persunti della HDMI 1.3.

FuoriTempo ha detto:
quale sarebbe il profilo migliore?
Il mio è il sinistro :D

Tutto il resto è roba raccattata in rete a casaccio ;)

Ciao.
 
Ultima modifica:
FuoriTempo ha detto:
qalcuno può spiegarmi la cosa papale papale...?

Ci provo.

Gli MPEGx sono algoritmi di compressione video, via via più complessi al crescere di x.

L'MPEG1, il più semplice, gestisce solo risoluzioni 352x288 a 25 fps con un bitrate di 1,5Mbps (è l'1X del CD). Potremmo dire che ha un unico profilo.

L'MPEG2, più complesso, è stato progettato per gestire diverse risoluzioni e bitrate, a cui corrispondono diversi "profili". Ad esempio, i DVD usano il profilo MP@ML (Main Profile@Main Level), che gestisce una risoluzione 720x576 a 25 fps con un bitrate massimo di 9,8Mbps e codifica colore YCbCr 4:2:0. Ma esiste anche il profilo MP@HL (Main Profile@High Level), ideale per l'alta definizione, che gestisce una risoluzione 1920x1080 a 24 fps con un bitrate massimo di 80Mbps.

L'MPEG4 è molto più complesso ed è suddiviso in sub-standard. Per esempio, la Parte 2 è il sub-standard DivX, la parte 3 è AAC, etc...

Quello che ci interessa è la parte 10, detta AVC o H.264. La parte 10 supporta molti profili, tra cui:

- Baseline (BP): bassa risoluzione, utilizzato per videoconferenza e mobile;
- Main (MP):, risoluzione tipo DVD, poco usato;
- Extended (XP): ottimizzato per lo streaming;
- High (HiP): risoluzione HD, 8 bit di colore, YCbCr 4:2:0; è quello che creso sia negli HD DVD, nei BD e nell'HDTV;
- High10 (Hi10P): come HiP, ma supporta i 10 bit di colore;
- High 4:2:2 (Hi422P); come Hi10P, ma supporta YCbCr 4:2:2; è adatto ad applicazioni professionali;
- High 4:4:4 (Hi444P): è il top; HD, 12 bit, YCbCr 4:4:4, codifica regioni lossless; per applicazioni altamente professionali.

Non c'è un profilo "migliore", c'è un profilo più adatto. In un dispositivo mobile, non ha senso usare il profilo HiP, se lo schermo è piccolo e la banda è poca.

Secondo me, nei formati HD, gli standard "papabili" (per restare in tema con il tuo termine:D ) sembrerebbero solo l'HiP e l'Hi10P. Quelli meno risoluti non sono sufficienti e gli ultimi 2 mi sembrano adatti ad applicazioni professionali. Ma non ho informazioni precise.

Dei due "papabili", l'Hi10P supporta i 10 bit, l'HiP solo 8. Quindi, se i formati HD attuali sono codificati HiP (come credo), pannoc vede "solo" l'effetto del rescaling della profondità colore effettuato dalla PS3.

Quando/se saranno/sono codificati almeno Hi10P, pannoc vedrà/vede il vero Deep Color.

Michele
 
Io, invece, non essendo un tecnico, provo a riassumere le certezze alle quali siamo arrivati dopo diversi giorni di raccambolesche ricerche e supposizioni..:D

E' partito tutto il giorno in cui io ho collegato l'Epson tw1000 alla playstation 3, entrambe HDMI 1.3.
Lo stesso giorno io ho asserito pubblicamente che nel menu del mio epson appariva alla voce "deep color" il famigerato dato dei 12 bit.

Da allora fino ad oggi sono state pubblicate diverse teorie piu' o meno giuste, ma direi che adesso le informazioni sicure sono queste:

1-La playstation 3 collegata ad un display/vpr HDMI 1.3 manda un segnale a 36 bit (12 bit per colore) a prescindere da qualsiasi supporto si visualizzi (dashboard, dvd, Blu-ray ecc.)

2-Il processo descritto sopra non e' ne' disattivabile, ne' attivabile in nessun modo. E' automatico.

3-Nessun VPR/display con versione inferiore alla HDMI 1.3 puo' accettare segnali a piu' di 24 bit.

Ora invece le questioni che stiamo tentando di capire:

1-Questo segnale a 36 bit, dato che sarebbe in grado come citato nelle specifiche, di trasportare miliardi di colori e sfumature in piu' dovrebbe sensibilmente migliorare il segnale.
Io, che ho visto tale segnale a 36 bit, suppongo di aver notato un notevole miglioramento generale di immagine, ma, chiaramente, e' una mia opinione e non posso permettere che voi la accettiate per forza.

2-Alcuni dicono che questo miglioramento non e' possibile perche' i 12 bit devono essere contenuti nei supporti nativamente per trarne dei vantaggi.

Dagli ultimi articoli letti pero' sembra incominciare ad esserci maggiore chiarezza.
In particolare nell'articolo pubblicato da AFdigitale si evince che il deep color sarebbe tutt'ora sfruttato con i supporti odierni a 8 bit attraverso Videogames di playstation3 ed i pc.
Praticamente, come detto dal nostro MIKE, per i giochi non ha senso parlare di materiale nativo in Deep Color, perchè la scena è creata da un software che può usare diverse profondità colore.
I miglioramenti nei giochi quindi sono da attribuire alla maggiore profondita' di colore fino ad ora non fattibile con altre versioni di HDMI.
Ora, per quanto riguarda i film, l'articolo non e' chiaro, ma sembra presupporre che per sfruttare il deep color appieno ci vorrebbero supporti nativi a 12 bit.
Dall'ultimo intervento di Dave, basato su fonti ufficiali, pero' sembrerebbe che gia' da tempo i "profili" a 10 e 12 bit siano presenti sui supporti Blu-ray ed HD-dvd.
Questa sinceramente sarebbe una notizia un po' improbabile perche' significherebbe avere il deep color anche nei film adesso.

Detto cio' cerchiamo di fondere le nostre ricerche e supposizioni per arrivare a trovare una soluzione certa per gli ultimi quesiti in sospeso.

Ciao a tutti.
 
Ultima modifica:
pannoc ha detto:
2-Alcuni dicono che questo miglioramento non e' possibile perche' i 12 bit devono essere contenuti nei supporti nativamente per trarne dei vantaggi.

In realtà non credo che anche i più scettici sul pannoc effect:D (il neologismo non è mio) dicano questo. Si dice che questo miglioramento c'è, ma non è lo stesso che si avrebbe con materiale a più di 8 bit nativo, quindi non è il vero Deep Color, così come il rescaling di un DVD a 720p/1080p migliora l'immagine, ma non è vera Alta Definizione.

pannoc ha detto:
Ora, per quanto riguarda i film, l'articolo non e' chiaro, ma sembra presupporre che per sfruttare il deep color appieno ci vorrebbero supporti nativi a 12 bit.

Credo che per avere vero Deep Color basterebbe un supporto nativo a 10 bit. I 12 bit, per stessa ammissione dell'HDMI Organization, sono al limite della sensibilità dell'occhio umano.

pannoc ha detto:
Dall'ultimo intervento di Dave, basato su fonti ufficiali, pero' sembrerebbe che gia' da tempo i "profili" a 10 e 12 bit siano presenti sui supporti Blu-ray ed HD-dvd.

Io credo di no (anche se non ho la certezza). La convinzione si basa sul fatto che su AVSForum ho letto diversi interventi di esperti, tra cui il rappresentante dell'HDMI, che sostenevano che ad oggi non esistono supporti a più di 8 bit. Sul futuro le convinzioni divergono: alcuni sostengono che non ci saranno mai, per via dei profili citati sopra, il rappresentante dell'HDMI sostiene di aspettarsi che le major investano su questo, parallelamente al diffondersi di display Deep Color.

Staremo a vedere.

Michele

P.S. Siamo ancora in attesa di un promesso chiarimento di Emidio su quale fosse la sorgente dei display Deep Color visti al CES di Las Vegas, sui quali anche il tipo della HDMI è stato piuttosto vago.
 
Mike5 ha detto:
P.S. Siamo ancora in attesa di un promesso chiarimento di Emidio su quale fosse la sorgente dei display Deep Color visti al CES di Las Vegas, sui quali anche il tipo della HDMI è stato piuttosto vago.

Era una play 3 mi sa:

"Deep Color: Al CES abbiamo fatto una dimostrazione di due TV LCD identiche affiancate, che riproducevano contenuto generato da una PS3, rispettivamente a 8 e 10 bit. La differenza era così palese che tutti i visitatori che hanno visto la demo erano in grado di notare le differenze senza che noi dovessimo indicare dove e cosa cercare. Io personalmente non ho visto una demo affiancata che confrontasse i 10 con i 12 bit, ma ho visto contenuti a 10 bit nei quali potevo ancora notare un leggero banding, cosa che mi porta a credere che l'occhio umano sia in grado di vedre la differenza tra 10 e 12 bit. Durante le mie conversazioni con gli esperti di elaborazione video, essi affermavano di essere in grado di prendere un contenuto video a 8 bit ed applicare un'estrazione gamma tale da eliminare il banding e fornire un'esperienza video da pseudo 10 bit. Sembra che diversi produttori di lettori HD DVD e Blu Ray siano convinti che questo produrrà davvero un'esperienza (visiva) migliore, anche se il contenuto è codificato nativamente a 8 bit."

Tra l'altro mi sa che questo articolo l'avevi postato tu mike;)
 
Si, ma appunto il riferimento è vago. Non si capisce se il contenuto a 10 bit è "processato" o nativo e in questo caso cosa sia.

Ricordavo una promessa di Emiidio (o di qualcuno dello staff) di maggiori notizie in merito. Ma non se ne sa più niente.:rolleyes:

Michele
 
ringrazio per i chiarimenti.
resta il fatto che la ps3 dovrebbe, seppur aritficialemnte, apportare qualche migliramento e cmq si è riveata un ottimo upscaler per dvd ed un ottimo player per i bd.
da pochi giorno posseggo il lettore hd-xe1 anch'esso dotato i hdmi 1.3... peccato non possedere l'epson per vedere se anche questo lettore si comporta allo stesso modo....
cmq a mio modesto parere tutte le cose in più sono sempre positive....
ormai sono in procinto di prendere questo lettore epson anche se sono molto tentato dall'idea di aspettare un pò e prendere un vpr più importante....
questa prima sfornata non mi convice molto....
se solo avessi modo di conoscere le date delle prosime uscite di vpr...
 
FuoriTempo ha detto:
da pochi giorno posseggo il lettore hd-xe1 anch'esso dotato i hdmi 1.3... peccato non possedere l'epson per vedere se anche questo lettore si comporta allo stesso modo....

Non puoi capire quanto sarei curioso io...;)
 
Vorrei un chiarimento, è solo una mia curiosità magari stupida che mi sono sempre portato dietro a proposito del numero di colori visualizzabili ed in questo caso nello specifico riguardo al deepcolor.
Prendiamo un proiettore full HD, possiede 1920x1080 pixel, cioè 2.073.600. Come posso avvantaggiarmi di milioni e addirittura miliardi di colori se poi al massimo sullo schermo più di quelli contemporaneamente non ci possono stare?

Considerando inoltre che contando i colori utilizzati dalle immagini non ho mai visto la cifra superare nemmeno il mezzo milione di colori. In una foto da 4 MPixel di un tramonto sul mare siamo a circa 88000
Vi ringrazio per tutte le spiegazioni.
Detto questo comunque concludo dicendo che i colori sono come i pixel, più ce ne sono meglio è :)
 
VPR ha detto:
Vorrei un chiarimento, è solo una mia curiosità magari stupida che mi sono sempre portato dietro a proposito del numero di colori visualizzabili ed in questo caso nello specifico riguardo al deepcolor.
Prendiamo un proiettore full HD, possiede 1920x1080 pixel, cioè 2.073.600. Come posso avvantaggiarmi di milioni e addirittura miliardi di colori se poi al massimo sullo schermo più di quelli contemporaneamente non ci possono stare?

Non capisco la tua domanda...:confused:

Non riesco a capire il paragone che fai tra numero di pixel e profondita' colore..:confused:
Forse ho capito male??

Ciao
 
x Vpr

Tu confondi "risoluzione" con "profondità di colore".

Il primo termine si riferisce al numero di pixel con cui si costruisce l'immagine, tanti in orizzontale x tanti in verticale.

Più sono e più si riusciranno a vedere distintamente i particolari più minuti, ad esempio un capello.

La stessa immagine però potrebbe benissimo essere visualizzata in bianco e nero o con una scala di grigi, magari solo 256.

La "profondità di colore" indica quanti colori diversi può assumere ciascun pixel dell'immagine.

Per assurdo, l'immagine potrebbe essere formata solo da un unico grande pixel, che però puo avere miliardi di colori (uno alla volta).

Il conto che hai fatto tu per la foto credo si riferisse al numero di pixel dell'immagine e non ai colori che la stessa aveva.

Poichè ogni pixel dell'immagine è formato da tre sub-pixel (R-G-B) il numero totale di colori rappresentabili è dato dal prodotto dei 3 sub-pixel.

Se si impiegano 8 bit per ogni sub-pixel si potranno avere 256 livelli (dal nero alla massima luminosità) di ognuno dei tre colori; moltiplicando 256x256x256 si ottiene 16.777.216, che è il numero di colori visualizzabili con 24 bit (8x3).

Con 10 bit per ogni sub-pixel il totale diventa astronomico.

Ciao
 
Secondo questa notizia, i nuovi TV LCD Sony Bravia, oltre a supportare i 10 bit di colore, supportano anche lo spazio colore esteso xvYCC (ovviamente con HDMI 1.3).

Si apre pertanto la possibilità di un'altra saga sui vantaggi veri o presunti di xvYCC. Basta solo aspettare che qualcuno compri uno di questi TV ed abbia una PS3 o altra sorgente HDMI 1.3.:D

Michele
 
Vi informo che ho spedito una mail di richiesta di chiarimento alla redazione di AFdigitale riguardante i dubbi che ci sono sorti dalle FAQ ufficiali pubblicate dalla stessa HDMI organization sul sito di AF.
Chiaramente ho fatto riferimento anche alla mia personale esperienza riguardo all'accoppiata Epson/play3.

Speriamo mi rispondano.:rolleyes:
 
nordata ha detto:
...La "profondità di colore" indica quanti colori diversi può assumere ciascun pixel dell'immagine

Per assurdo, l'immagine potrebbe essere formata solo da un unico grande pixel, che però puo avere miliardi di colori (uno alla volta)...

Ciao

prima di tutto grazie per la risposta :) , anche se il quesito principale resta :confused: .
Ti spiego perchè.
Quello che ho quotato mi ha chiarito su cosa facevo confusione cioè tra colori visualizzabili contemporaneamente sullo schermo e colori che un singolo pixel può rappresentare. So la differenza tra pixel e colori :) gli 88000 sono proprio i colori contati dal programma di grafica, tanti software lo fanno, i pixel della foto sono 4 mega.

Detto questo però la mia titubanza rimane comunque legata al numero di colori che possono essere visualizzati sullo schermo contemporaneamente (fermi o parte di una sequenza animata).

Cercherò di essere più chiaro (spero).

Prendiamo di nuovo ad esempio un cielo al tramonto col sole nel centro. Supponiamo che questa immagine nella realtà abbia 500.000.000 :eek: di colori/sfumature, facciamo una ripresa con una videocamera che cattura a 48 bit (siamo nei miliardi di colori mi pare) e la inviamo ad uno schermo anche lui in grado di processare a 48 bit, però che ha la risoluzione 1920x1080. Ed ecco dove volevo arrivare. Per quanto potenti a gestire i colori siano videocamera e schermo, nello stesso momento, nello stesso fotogramma non ci saranno mai comunque contemporaneamente più colori di quanti pixel possiede lo schermo.
In questo caso si torna al mio dubbio iniziale, quali vantaggi mi porta avere a disposizione milioni o miliardi di colori se poi "non ci stanno" sullo schermo? La cosa che mi viene da pensare è che se fosse solo una foto, vantaggi secondo me non ce ne sarebbero, basterebbero al massimo un paio di milioni di colori giusto quelli per riempire tutti i pixel di più non sarebbero comunque utilizzati. Tornando per un momento alla conta degli 88000 colori della mia foto (che si vede già un gran bene come una qualunque foto fatta da una macchinetta discreta), facendo una foto identica, ma che ne conti 1.000.000 di colori (10 volte tanto) mi viene da pensare che non vedrei la seconda foto così diversa tanto che anche mettendole affiancate io possa esclamare "che differenza!"

In una ripresa invece, tornado al vero significato di profondita che mi hai ricordato :p , i pixel possono variare nel tempo e qualche milione di colori in più potrebbe farmi notare quelle lievissime variazioni di colori (sempre occhi permettendo) non nello spazio, ma appunto nel tempo (il rosso che diventa rosa in 800.000 sfumature in qualche secondo. Anche in questo caso comunque credo che ci siano dei limiti dati dal numero dei fotogrammi al secondo che limiterebbero anche i colori che in realtà si potrebbero visualizzare, ma così facendo tra i 24 fotogrammi di 1 secondo e la risoluzione potrei almeno utilizzare una cinquantina di milioni di sfumature :)

Queste sono mie considerazioni, più di un certo numero di colori, secondo me, fisicamente non possono essere utilizzati arrivando al limite delle caratteristiche visive (non di elaborazione) delle macchine utilizzate indipendentemente dalla sensibilità della vista di chi guarda (anche se dubito si possa arrivare a notare differenze di 1/1.000.000.000 tra un colore all'altro.

Ovviamente aspetto chiarimenti, lo scopo di tutta questa lungaggine, me ne scuso, rimane questo, capire se si possono sfruttare miliardi di colori quando già 16 milioni mi sembravano sufficienti, facendo sempre riferimento ai miei discorsi appena fatti
 
VPR ha detto:
nello stesso momento, nello stesso fotogramma non ci saranno mai comunque contemporaneamente più colori di quanti pixel possiede lo schermo

Giusto, anzi ce ne saranno di meno, perchè molti pixel saranno eguali. Ma l'obiettivo non è fare un campionario di tutti i colori in un'unica immagine. L'obiettivo è riprodurre una realtà che è fatta di un continuo di infinite sfumature di colore e non solo di circa 16 milioni di colori, come nei sistemi a 8 bit. Il problema è che se prendi due sfumature anche molto vicine, per esempio due arancioni diversi nel tramonto, anche tra essi c'è un continuo di infinite sfumature di arancioni intermedi.

Per riprodurre quel tramonto, al display non servono tutti i colori del mondo, ma solo il più alto possibile numero di sfumature di arancione tra quei due arancioni. Se in tutto ha 16 milioni di colori (8 bit), tra i due arancioni ne avrà qualche centinaio, forse qualche decina o unità, dipende da quanto i due arancioni sono vicini.

L'effetto sarà il banding, cioè la transizione tra una sfumatura e l'altra dell'arancione diventerà fastidiosamente visibile, un effetto molto innaturale.

Se il display ha miliardi di colori (> 8 bit), non riuscirà mai a mostrarli tutti quanti nello stesso fotogramma, perchè i pixel sono circa 2 milioni (1920x1080), ma si troverà nella sua "tavolozza" migliaia (o decine o centinaia di migliaia, ma comunque meno di 2 milioni) di sfumature di arancione comprese nel range tra i due arancioni del mio tramonto, che gli permetteranno di riprodurre la scena con naturalezza, senza banding.

Vedi le due foto del tramonto qui

VPR ha detto:
La cosa che mi viene da pensare è che se fosse solo una foto, vantaggi secondo me non ce ne sarebbero, basterebbero al massimo un paio di milioni di colori giusto quelli per riempire tutti i pixel di più non sarebbero comunque utilizzati.

Spero che l'esempio di sopra abbia chiarito che non è così.

Michele
 
Ultima modifica:
Michele, la tua spiegazione sulla maggiore scelta dei colori mi può andare bene, così potendo scegliere tra più colori il tramonto di lunedì potrebbe essere diverso da quello di martedì.
Anche se rimango convinto che per non avere il banding (cosa che anche a me infastidisce moltissimo) come anche tu mi hai confermato visto che più di 2 miloni circa di colori sullo schermo non ci stanno, non serve una profondità di colore eccessiva, per quanto riguarda l'utilizzo di miliardi di colori per dare una sensazione di avvicinarsi alla realtà ti do pienamente ragione, a me magari ne basterebbero 100 milioni, ma meglio abbondare :) . Ti ringrazio per il chiarimento almeno adesso mi sono tolto i miei dubbi
 
Top