Visualizzazione Stampabile
-
Citazione:
Originariamente scritto da FuoriTempo
…qalcuno può spiegarmi la cosa papale papale...?
Si parla dei vantaggi reali o persunti della HDMI 1.3.
Citazione:
Originariamente scritto da FuoriTempo
quale sarebbe il profilo migliore?
Il mio è il sinistro :D
Tutto il resto è roba raccattata in rete a casaccio ;)
Ciao.
-
Citazione:
Originariamente scritto da FuoriTempo
qalcuno può spiegarmi la cosa papale papale...?
Ci provo.
Gli MPEGx sono algoritmi di compressione video, via via più complessi al crescere di x.
L'MPEG1, il più semplice, gestisce solo risoluzioni 352x288 a 25 fps con un bitrate di 1,5Mbps (è l'1X del CD). Potremmo dire che ha un unico profilo.
L'MPEG2, più complesso, è stato progettato per gestire diverse risoluzioni e bitrate, a cui corrispondono diversi "profili". Ad esempio, i DVD usano il profilo MP@ML (Main Profile@Main Level), che gestisce una risoluzione 720x576 a 25 fps con un bitrate massimo di 9,8Mbps e codifica colore YCbCr 4:2:0. Ma esiste anche il profilo MP@HL (Main Profile@High Level), ideale per l'alta definizione, che gestisce una risoluzione 1920x1080 a 24 fps con un bitrate massimo di 80Mbps.
L'MPEG4 è molto più complesso ed è suddiviso in sub-standard. Per esempio, la Parte 2 è il sub-standard DivX, la parte 3 è AAC, etc...
Quello che ci interessa è la parte 10, detta AVC o H.264. La parte 10 supporta molti profili, tra cui:
- Baseline (BP): bassa risoluzione, utilizzato per videoconferenza e mobile;
- Main (MP):, risoluzione tipo DVD, poco usato;
- Extended (XP): ottimizzato per lo streaming;
- High (HiP): risoluzione HD, 8 bit di colore, YCbCr 4:2:0; è quello che creso sia negli HD DVD, nei BD e nell'HDTV;
- High10 (Hi10P): come HiP, ma supporta i 10 bit di colore;
- High 4:2:2 (Hi422P); come Hi10P, ma supporta YCbCr 4:2:2; è adatto ad applicazioni professionali;
- High 4:4:4 (Hi444P): è il top; HD, 12 bit, YCbCr 4:4:4, codifica regioni lossless; per applicazioni altamente professionali.
Non c'è un profilo "migliore", c'è un profilo più adatto. In un dispositivo mobile, non ha senso usare il profilo HiP, se lo schermo è piccolo e la banda è poca.
Secondo me, nei formati HD, gli standard "papabili" (per restare in tema con il tuo termine:D ) sembrerebbero solo l'HiP e l'Hi10P. Quelli meno risoluti non sono sufficienti e gli ultimi 2 mi sembrano adatti ad applicazioni professionali. Ma non ho informazioni precise.
Dei due "papabili", l'Hi10P supporta i 10 bit, l'HiP solo 8. Quindi, se i formati HD attuali sono codificati HiP (come credo), pannoc vede "solo" l'effetto del rescaling della profondità colore effettuato dalla PS3.
Quando/se saranno/sono codificati almeno Hi10P, pannoc vedrà/vede il vero Deep Color.
Michele
-
Io, invece, non essendo un tecnico, provo a riassumere le certezze alle quali siamo arrivati dopo diversi giorni di raccambolesche ricerche e supposizioni..:D
E' partito tutto il giorno in cui io ho collegato l'Epson tw1000 alla playstation 3, entrambe HDMI 1.3.
Lo stesso giorno io ho asserito pubblicamente che nel menu del mio epson appariva alla voce "deep color" il famigerato dato dei 12 bit.
Da allora fino ad oggi sono state pubblicate diverse teorie piu' o meno giuste, ma direi che adesso le informazioni sicure sono queste:
1-La playstation 3 collegata ad un display/vpr HDMI 1.3 manda un segnale a 36 bit (12 bit per colore) a prescindere da qualsiasi supporto si visualizzi (dashboard, dvd, Blu-ray ecc.)
2-Il processo descritto sopra non e' ne' disattivabile, ne' attivabile in nessun modo. E' automatico.
3-Nessun VPR/display con versione inferiore alla HDMI 1.3 puo' accettare segnali a piu' di 24 bit.
Ora invece le questioni che stiamo tentando di capire:
1-Questo segnale a 36 bit, dato che sarebbe in grado come citato nelle specifiche, di trasportare miliardi di colori e sfumature in piu' dovrebbe sensibilmente migliorare il segnale.
Io, che ho visto tale segnale a 36 bit, suppongo di aver notato un notevole miglioramento generale di immagine, ma, chiaramente, e' una mia opinione e non posso permettere che voi la accettiate per forza.
2-Alcuni dicono che questo miglioramento non e' possibile perche' i 12 bit devono essere contenuti nei supporti nativamente per trarne dei vantaggi.
Dagli ultimi articoli letti pero' sembra incominciare ad esserci maggiore chiarezza.
In particolare nell'articolo pubblicato da AFdigitale si evince che il deep color sarebbe tutt'ora sfruttato con i supporti odierni a 8 bit attraverso Videogames di playstation3 ed i pc.
Praticamente, come detto dal nostro MIKE, per i giochi non ha senso parlare di materiale nativo in Deep Color, perchè la scena è creata da un software che può usare diverse profondità colore.
I miglioramenti nei giochi quindi sono da attribuire alla maggiore profondita' di colore fino ad ora non fattibile con altre versioni di HDMI.
Ora, per quanto riguarda i film, l'articolo non e' chiaro, ma sembra presupporre che per sfruttare il deep color appieno ci vorrebbero supporti nativi a 12 bit.
Dall'ultimo intervento di Dave, basato su fonti ufficiali, pero' sembrerebbe che gia' da tempo i "profili" a 10 e 12 bit siano presenti sui supporti Blu-ray ed HD-dvd.
Questa sinceramente sarebbe una notizia un po' improbabile perche' significherebbe avere il deep color anche nei film adesso.
Detto cio' cerchiamo di fondere le nostre ricerche e supposizioni per arrivare a trovare una soluzione certa per gli ultimi quesiti in sospeso.
Ciao a tutti.
-
Citazione:
Originariamente scritto da pannoc
2-Alcuni dicono che questo miglioramento non e' possibile perche' i 12 bit devono essere contenuti nei supporti nativamente per trarne dei vantaggi.
In realtà non credo che anche i più scettici sul pannoc effect:D (il neologismo non è mio) dicano questo. Si dice che questo miglioramento c'è, ma non è lo stesso che si avrebbe con materiale a più di 8 bit nativo, quindi non è il vero Deep Color, così come il rescaling di un DVD a 720p/1080p migliora l'immagine, ma non è vera Alta Definizione.
Citazione:
Originariamente scritto da pannoc
Ora, per quanto riguarda i film, l'articolo non e' chiaro, ma sembra presupporre che per sfruttare il deep color appieno ci vorrebbero supporti nativi a 12 bit.
Credo che per avere vero Deep Color basterebbe un supporto nativo a 10 bit. I 12 bit, per stessa ammissione dell'HDMI Organization, sono al limite della sensibilità dell'occhio umano.
Citazione:
Originariamente scritto da pannoc
Dall'ultimo intervento di Dave, basato su fonti ufficiali, pero' sembrerebbe che gia' da tempo i "profili" a 10 e 12 bit siano presenti sui supporti Blu-ray ed HD-dvd.
Io credo di no (anche se non ho la certezza). La convinzione si basa sul fatto che su AVSForum ho letto diversi interventi di esperti, tra cui il rappresentante dell'HDMI, che sostenevano che ad oggi non esistono supporti a più di 8 bit. Sul futuro le convinzioni divergono: alcuni sostengono che non ci saranno mai, per via dei profili citati sopra, il rappresentante dell'HDMI sostiene di aspettarsi che le major investano su questo, parallelamente al diffondersi di display Deep Color.
Staremo a vedere.
Michele
P.S. Siamo ancora in attesa di un promesso chiarimento di Emidio su quale fosse la sorgente dei display Deep Color visti al CES di Las Vegas, sui quali anche il tipo della HDMI è stato piuttosto vago.
-
Citazione:
Originariamente scritto da Mike5
P.S. Siamo ancora in attesa di un promesso chiarimento di Emidio su quale fosse la sorgente dei display Deep Color visti al CES di Las Vegas, sui quali anche il tipo della HDMI è stato piuttosto vago.
Era una play 3 mi sa:
"Deep Color: Al CES abbiamo fatto una dimostrazione di due TV LCD identiche affiancate, che riproducevano contenuto generato da una PS3, rispettivamente a 8 e 10 bit. La differenza era così palese che tutti i visitatori che hanno visto la demo erano in grado di notare le differenze senza che noi dovessimo indicare dove e cosa cercare. Io personalmente non ho visto una demo affiancata che confrontasse i 10 con i 12 bit, ma ho visto contenuti a 10 bit nei quali potevo ancora notare un leggero banding, cosa che mi porta a credere che l'occhio umano sia in grado di vedre la differenza tra 10 e 12 bit. Durante le mie conversazioni con gli esperti di elaborazione video, essi affermavano di essere in grado di prendere un contenuto video a 8 bit ed applicare un'estrazione gamma tale da eliminare il banding e fornire un'esperienza video da pseudo 10 bit. Sembra che diversi produttori di lettori HD DVD e Blu Ray siano convinti che questo produrrà davvero un'esperienza (visiva) migliore, anche se il contenuto è codificato nativamente a 8 bit."
Tra l'altro mi sa che questo articolo l'avevi postato tu mike;)
-
Si, ma appunto il riferimento è vago. Non si capisce se il contenuto a 10 bit è "processato" o nativo e in questo caso cosa sia.
Ricordavo una promessa di Emiidio (o di qualcuno dello staff) di maggiori notizie in merito. Ma non se ne sa più niente.:rolleyes:
Michele
-
ringrazio per i chiarimenti.
resta il fatto che la ps3 dovrebbe, seppur aritficialemnte, apportare qualche migliramento e cmq si è riveata un ottimo upscaler per dvd ed un ottimo player per i bd.
da pochi giorno posseggo il lettore hd-xe1 anch'esso dotato i hdmi 1.3... peccato non possedere l'epson per vedere se anche questo lettore si comporta allo stesso modo....
cmq a mio modesto parere tutte le cose in più sono sempre positive....
ormai sono in procinto di prendere questo lettore epson anche se sono molto tentato dall'idea di aspettare un pò e prendere un vpr più importante....
questa prima sfornata non mi convice molto....
se solo avessi modo di conoscere le date delle prosime uscite di vpr...
-
Citazione:
Originariamente scritto da FuoriTempo
da pochi giorno posseggo il lettore hd-xe1 anch'esso dotato i hdmi 1.3... peccato non possedere l'epson per vedere se anche questo lettore si comporta allo stesso modo....
Non puoi capire quanto sarei curioso io...;)
-
@FuoriTempo e pannoc:
vivete molto lontani uno dall'altro ?:D
Michele
-
Citazione:
Originariamente scritto da Mike5
@FuoriTempo e pannoc:
vivete molto lontani uno dall'altro ?:D
Bologna.....e tu fuoritempo???:D :D
-
Vorrei un chiarimento, è solo una mia curiosità magari stupida che mi sono sempre portato dietro a proposito del numero di colori visualizzabili ed in questo caso nello specifico riguardo al deepcolor.
Prendiamo un proiettore full HD, possiede 1920x1080 pixel, cioè 2.073.600. Come posso avvantaggiarmi di milioni e addirittura miliardi di colori se poi al massimo sullo schermo più di quelli contemporaneamente non ci possono stare?
Considerando inoltre che contando i colori utilizzati dalle immagini non ho mai visto la cifra superare nemmeno il mezzo milione di colori. In una foto da 4 MPixel di un tramonto sul mare siamo a circa 88000
Vi ringrazio per tutte le spiegazioni.
Detto questo comunque concludo dicendo che i colori sono come i pixel, più ce ne sono meglio è :)
-
-
Citazione:
Originariamente scritto da VPR
Vorrei un chiarimento, è solo una mia curiosità magari stupida che mi sono sempre portato dietro a proposito del numero di colori visualizzabili ed in questo caso nello specifico riguardo al deepcolor.
Prendiamo un proiettore full HD, possiede 1920x1080 pixel, cioè 2.073.600. Come posso avvantaggiarmi di milioni e addirittura miliardi di colori se poi al massimo sullo schermo più di quelli contemporaneamente non ci possono stare?
Non capisco la tua domanda...:confused:
Non riesco a capire il paragone che fai tra numero di pixel e profondita' colore..:confused:
Forse ho capito male??
Ciao
-
Citazione:
Originariamente scritto da FuoriTempo
profondo sud...
Allora e' un po' un problema...:D
-
x Vpr
Tu confondi "risoluzione" con "profondità di colore".
Il primo termine si riferisce al numero di pixel con cui si costruisce l'immagine, tanti in orizzontale x tanti in verticale.
Più sono e più si riusciranno a vedere distintamente i particolari più minuti, ad esempio un capello.
La stessa immagine però potrebbe benissimo essere visualizzata in bianco e nero o con una scala di grigi, magari solo 256.
La "profondità di colore" indica quanti colori diversi può assumere ciascun pixel dell'immagine.
Per assurdo, l'immagine potrebbe essere formata solo da un unico grande pixel, che però puo avere miliardi di colori (uno alla volta).
Il conto che hai fatto tu per la foto credo si riferisse al numero di pixel dell'immagine e non ai colori che la stessa aveva.
Poichè ogni pixel dell'immagine è formato da tre sub-pixel (R-G-B) il numero totale di colori rappresentabili è dato dal prodotto dei 3 sub-pixel.
Se si impiegano 8 bit per ogni sub-pixel si potranno avere 256 livelli (dal nero alla massima luminosità) di ognuno dei tre colori; moltiplicando 256x256x256 si ottiene 16.777.216, che è il numero di colori visualizzabili con 24 bit (8x3).
Con 10 bit per ogni sub-pixel il totale diventa astronomico.
Ciao