Visualizzazione Stampabile
-
Secondo questa notizia, i nuovi TV LCD Sony Bravia, oltre a supportare i 10 bit di colore, supportano anche lo spazio colore esteso xvYCC (ovviamente con HDMI 1.3).
Si apre pertanto la possibilità di un'altra saga sui vantaggi veri o presunti di xvYCC. Basta solo aspettare che qualcuno compri uno di questi TV ed abbia una PS3 o altra sorgente HDMI 1.3.:D
Michele
-
Vi informo che ho spedito una mail di richiesta di chiarimento alla redazione di AFdigitale riguardante i dubbi che ci sono sorti dalle FAQ ufficiali pubblicate dalla stessa HDMI organization sul sito di AF.
Chiaramente ho fatto riferimento anche alla mia personale esperienza riguardo all'accoppiata Epson/play3.
Speriamo mi rispondano.:rolleyes:
-
Citazione:
Originariamente scritto da nordata
...La "profondità di colore" indica quanti colori diversi può assumere ciascun pixel dell'immagine
Per assurdo, l'immagine potrebbe essere formata solo da un unico grande pixel, che però puo avere miliardi di colori (uno alla volta)...
Ciao
prima di tutto grazie per la risposta :) , anche se il quesito principale resta :confused: .
Ti spiego perchè.
Quello che ho quotato mi ha chiarito su cosa facevo confusione cioè tra colori visualizzabili contemporaneamente sullo schermo e colori che un singolo pixel può rappresentare. So la differenza tra pixel e colori :) gli 88000 sono proprio i colori contati dal programma di grafica, tanti software lo fanno, i pixel della foto sono 4 mega.
Detto questo però la mia titubanza rimane comunque legata al numero di colori che possono essere visualizzati sullo schermo contemporaneamente (fermi o parte di una sequenza animata).
Cercherò di essere più chiaro (spero).
Prendiamo di nuovo ad esempio un cielo al tramonto col sole nel centro. Supponiamo che questa immagine nella realtà abbia 500.000.000 :eek: di colori/sfumature, facciamo una ripresa con una videocamera che cattura a 48 bit (siamo nei miliardi di colori mi pare) e la inviamo ad uno schermo anche lui in grado di processare a 48 bit, però che ha la risoluzione 1920x1080. Ed ecco dove volevo arrivare. Per quanto potenti a gestire i colori siano videocamera e schermo, nello stesso momento, nello stesso fotogramma non ci saranno mai comunque contemporaneamente più colori di quanti pixel possiede lo schermo.
In questo caso si torna al mio dubbio iniziale, quali vantaggi mi porta avere a disposizione milioni o miliardi di colori se poi "non ci stanno" sullo schermo? La cosa che mi viene da pensare è che se fosse solo una foto, vantaggi secondo me non ce ne sarebbero, basterebbero al massimo un paio di milioni di colori giusto quelli per riempire tutti i pixel di più non sarebbero comunque utilizzati. Tornando per un momento alla conta degli 88000 colori della mia foto (che si vede già un gran bene come una qualunque foto fatta da una macchinetta discreta), facendo una foto identica, ma che ne conti 1.000.000 di colori (10 volte tanto) mi viene da pensare che non vedrei la seconda foto così diversa tanto che anche mettendole affiancate io possa esclamare "che differenza!"
In una ripresa invece, tornado al vero significato di profondita che mi hai ricordato :p , i pixel possono variare nel tempo e qualche milione di colori in più potrebbe farmi notare quelle lievissime variazioni di colori (sempre occhi permettendo) non nello spazio, ma appunto nel tempo (il rosso che diventa rosa in 800.000 sfumature in qualche secondo. Anche in questo caso comunque credo che ci siano dei limiti dati dal numero dei fotogrammi al secondo che limiterebbero anche i colori che in realtà si potrebbero visualizzare, ma così facendo tra i 24 fotogrammi di 1 secondo e la risoluzione potrei almeno utilizzare una cinquantina di milioni di sfumature :)
Queste sono mie considerazioni, più di un certo numero di colori, secondo me, fisicamente non possono essere utilizzati arrivando al limite delle caratteristiche visive (non di elaborazione) delle macchine utilizzate indipendentemente dalla sensibilità della vista di chi guarda (anche se dubito si possa arrivare a notare differenze di 1/1.000.000.000 tra un colore all'altro.
Ovviamente aspetto chiarimenti, lo scopo di tutta questa lungaggine, me ne scuso, rimane questo, capire se si possono sfruttare miliardi di colori quando già 16 milioni mi sembravano sufficienti, facendo sempre riferimento ai miei discorsi appena fatti
-
Citazione:
Originariamente scritto da VPR
nello stesso momento, nello stesso fotogramma non ci saranno mai comunque contemporaneamente più colori di quanti pixel possiede lo schermo
Giusto, anzi ce ne saranno di meno, perchè molti pixel saranno eguali. Ma l'obiettivo non è fare un campionario di tutti i colori in un'unica immagine. L'obiettivo è riprodurre una realtà che è fatta di un continuo di infinite sfumature di colore e non solo di circa 16 milioni di colori, come nei sistemi a 8 bit. Il problema è che se prendi due sfumature anche molto vicine, per esempio due arancioni diversi nel tramonto, anche tra essi c'è un continuo di infinite sfumature di arancioni intermedi.
Per riprodurre quel tramonto, al display non servono tutti i colori del mondo, ma solo il più alto possibile numero di sfumature di arancione tra quei due arancioni. Se in tutto ha 16 milioni di colori (8 bit), tra i due arancioni ne avrà qualche centinaio, forse qualche decina o unità, dipende da quanto i due arancioni sono vicini.
L'effetto sarà il banding, cioè la transizione tra una sfumatura e l'altra dell'arancione diventerà fastidiosamente visibile, un effetto molto innaturale.
Se il display ha miliardi di colori (> 8 bit), non riuscirà mai a mostrarli tutti quanti nello stesso fotogramma, perchè i pixel sono circa 2 milioni (1920x1080), ma si troverà nella sua "tavolozza" migliaia (o decine o centinaia di migliaia, ma comunque meno di 2 milioni) di sfumature di arancione comprese nel range tra i due arancioni del mio tramonto, che gli permetteranno di riprodurre la scena con naturalezza, senza banding.
Vedi le due foto del tramonto qui
Citazione:
Originariamente scritto da VPR
La cosa che mi viene da pensare è che se fosse solo una foto, vantaggi secondo me non ce ne sarebbero, basterebbero al massimo un paio di milioni di colori giusto quelli per riempire tutti i pixel di più non sarebbero comunque utilizzati.
Spero che l'esempio di sopra abbia chiarito che non è così.
Michele
-
Michele, la tua spiegazione sulla maggiore scelta dei colori mi può andare bene, così potendo scegliere tra più colori il tramonto di lunedì potrebbe essere diverso da quello di martedì.
Anche se rimango convinto che per non avere il banding (cosa che anche a me infastidisce moltissimo) come anche tu mi hai confermato visto che più di 2 miloni circa di colori sullo schermo non ci stanno, non serve una profondità di colore eccessiva, per quanto riguarda l'utilizzo di miliardi di colori per dare una sensazione di avvicinarsi alla realtà ti do pienamente ragione, a me magari ne basterebbero 100 milioni, ma meglio abbondare :) . Ti ringrazio per il chiarimento almeno adesso mi sono tolto i miei dubbi
-
riguardando il tuo post a proposito della parte finale ti rispondo qui. Dal tuo discorso in effetti potrebbero essere diverse in quanto quella con più palette potrebbe esporre colori più vicini alla realta in quel momento, ma se ad esempio il caso volesse che le sfumature del tarmonto in quel dato momento siano tutte nella paletta colori dei 16 milioni, in quel caso sarebbero identiche perchè antrambe potrebbero prendere tutti i 2 milioni di colori (o meno) che servirebbero a ritrarre la verà ed unica realtà :)
P.S.: la maggiorparte delle volte però saranno diverse la realtà è sempre molto originale e varia
-
Citazione:
Originariamente scritto da VPR
... per quanto riguarda l'utilizzo di miliardi di colori per dare una sensazione di avvicinarsi alla realtà ti do pienamente ragione, a me magari ne basterebbero 100 milioni, ma meglio abbondare :) . Ti ringrazio per il chiarimento almeno adesso mi sono tolto i miei dubbi
Con una profondita' di colore di 36 bit ce ne sono ben piu' di miliardi......si parla di trilioni..:eek:
Ciao.
-
vi faccio una domanda ingenuotta...
abbiamo assodato che la ps3 elebora qualsiasi segnale (generalmente nativo ad 8 bit) a 12 bit, tramite l'uscita hdmi 1.3 questo segnale veicolato arriva al vpr epson sempre a 12 bit.
questo avviene a prescindere dai bit nativi del sw.
tra le caratteristiche del vpr panasonic full hd ho loetto che vi è l'eeborazione del segnale a 14 bit.
a questo punto mi pare di capire che la stessa identica operazione che compie la ps3 trasformano segnali ad 8 bit in segnali a 12 bit, la compia il panny ma a 14 bit.
quindi, sic stant rebus, l'hdmi 1.3 non servirebbe a molto con gli attuali segnali. diverso sarebbe in futuro quando si eliminerà l'elaborazione ex post e tutto sarà visualizzato così come mamma l'ha fatto.
se ho detto una fregnaccia mi scuso.
-
Citazione:
Originariamente scritto da pannoc
Con una profondita' di colore di 36 bit ce ne sono ben piu' di miliardi......si parla di trilioni..:eek:
2 elevato alla 36 = 68.719.475.736 colori, di cui circa 68.718.000.000 non discriminabili dall'occhio umano.
Ciao.
-
Citazione:
Originariamente scritto da FuoriTempo
a questo punto mi pare di capire che la stessa identica operazione che compie la ps3 trasformano segnali ad 8 bit in segnali a 12 bit, la compia il panny ma a 14 bit.
È quello che cerco di far capire da qualche pagina.
Una buona pre o post elaborazione di sw 8 bit può dare risultati migliori di un pseudo processo a 12bit.
Infatti sembra che il Panny renda un'immagine migliore dell'Epson.
Ovviamente non è una regola e le cose cambieranno quando, fra qualche anno, avremo sw a 10 o 12 bit.
Ciao.
-
Citazione:
Originariamente scritto da FuoriTempo
vi faccio una domanda ingenuotta...
abbiamo assodato che la ps3 elebora qualsiasi segnale (generalmente nativo ad 8 bit) a 12 bit, tramite l'uscita hdmi 1.3 questo segnale veicolato arriva al vpr epson sempre a 12 bit.
questo avviene a prescindere dai bit nativi del sw.
tra le caratteristiche del vpr panasonic full hd ho loetto che vi è l'eeborazione del segnale a 14 bit.
a questo punto mi pare di capire che la stessa identica operazione che compie la ps3 trasformano segnali ad 8 bit in segnali a 12 bit, la compia il panny ma a 14 bit.
Purtroppo non e' cosi'.:rolleyes:
L'eleborazione che fa' il panny e' tutt'altra cosa.
In sostanza e' un Gamma Corrector a 14 bit concepito con la collaborazione degli esperti di Hollywood.
Il panny ha l'HDMI 1.2 e quindi non ha abbastanza banda per veicolare segnali con deep color.
Ciao.
-
ti spiego cosa voglio dire:
tu dici che il panny ha "solo" la hdmi 1.2 per veicolare tutti quei dati.
ok non può accettare in ingresso tutte queste informazioni ma la setssa eleborazione della ps3 avviene ex post.
cosa voglio dire: un film è masterizzato a 8 bit, la ps3 lo elabora a 12 bit e trasmette questa massa di dati tramite hdmi 1.3 al vpr compatibile.
il panny la stessa operazione che la ps3 fa alla sorgente la fa alla fine della catena a/v ma la fa a 14 bit.
per fare un esempio molto semplice:
è come se il panny ha una porta troppo piccola per farci entrare un elefante adulto.
allora ci fa entrare un cucciolo, lo alleva.... e gli fa raggiungere le dimensioni dell'adulto.
se ho capito bene bisogna rivedere tutto l'entusiasmo.
-
Ho capito il tuo discorso pero' qualcosa non torna...
Il panny 1000, a causa di questo gamma correction da 14 bit, e' grado di visualizzare 1.070.000.000 (poco piu' di 1 miliardo) di sfumature colori.
Se il processo fatto dall'ottimo panny fosse similare al "presunto deep color" il numero delle sfumature sarebbero MOLTEEEE di piu'..
Con 14 bit per colore i colori dovrebbero essere TRILIONI.
Stando al conto fatto da girmi dovrebbero essere:
2 elevato alla 42 = non lo so, ma sicuramente piu' di 1 miliardo!:eek:
Con questo non voglio dire che il panny non ha una buona immagine, anzi....pero' mi sembra che questo processo che fa' sia molto lontano anche solo dalle immagini da 10 bit che veicola l'hdmi 1.3.
Se fosse similare dovrebbe poter gestire molte piu' sfumature...:rolleyes:
Nel seguente link c'e' una tabella che riassume il numero dei colori in base alla profondita' dei bit:
http://www.hdtvmagazine.com/articles...part_3_-_h.php
Comunque se mi sfugge qualcosa ditemelo..potrei anche sbagliarmi..;)
-
Citazione:
Originariamente scritto da FuoriTempo
cosa voglio dire: un film è masterizzato a 8 bit, la ps3 lo elabora a 12 bit e trasmette questa massa di dati tramite hdmi 1.3 al vpr compatibile.il panny la stessa operazione che la ps3 fa alla sorgente la fa alla fine della catena a/v ma la fa a 14 bit.
è cristallino quello che dici, ma credo ci sia un errore concettuale di fondo, non tuo, ma indotto dal marketing.
Come sai ogni display giditale è diviso in due pezzi :
1) il front end , che comprende anche la GPU, il deinterlacciatore, lo scaler, il video decoder, l'A/D converter e tutta l'elettronica che effettua il processamento del segnale in ingresso
2) il "video processing", che in pratica in base alla tecnologia proprietaria del display stesso è appannaggio delle diverse case (la TI per i DLP, la Sony per gli SXRD, la Pioneer per i suoi plasma, etc etc).
La PS3 prende il segnale ad 8 bit nativi e li elabora per darne in uscita 14 (in qualche modo, lo fa). Ma ci fermiamo a livello di front end.
Poi, dato che la HDMI 1.2 non riesce a veicolare questi segnali così risoluti in termini di profondità colore, solo i display che sono dotati della 1.3 (come il conosciuto Epson) possono prendersene carico ed eventualmente "trattarli" ancora (se necessario).
Quello che fa il Panny 1000, con i suoi 14 bit di profondità colore è nel "video processing" ! Quindi gli arriva il segnale ad 8 bit/colore e tramite suoi chip proprietari (o programmati di conseguenza) esegue questa eleaborazione .. .poi chiamata Hollywood etc etc ..... ed alla fine ti spara a video l'immagine compresa di enanchement.
Ma non è una grossa novità in effetti.
Fai conto che già gli ASIC della TI che comandavano i "vecchi" DMD Mustang HD2+ (i DDP1010, parliamo di 2/3 anni fa) avevano un'elaborazione per il gamma interno a 14 bit/colore ... anche se alla fine le informazioni che gli arrivavano dal front end erano sempre e solo ad 8 bit.
La vera "figata" dei display con HDMI 1.3 è che se riesci a trovare una sorgente (PS3, nuovi lettori HD, processori video, etc) che sia in grado di far uscire già un segnale a 16 bit/colore (il max accettato dalle specifiche), meglio se Deep Color nativo ;) , è il video processing che viene coivolto in questo, o quasi by-passato se il segnale elaborato dalla sorgente è "superiore" a quello che sarebbe in grado di produrre internamente il display.
Allora godi davvero dei vantaggi di un segnale così risoluto. Altrimenti il "collo di bottiglia" è sempre il video processing dei display . Se accetta segnali ad 8 bit/colore massimi (nel senso che proprio "fisicamente" le linee di segnale degli integrati non vanno oltre questa risoluzione), puoi attaccargli anche 32 PS3 in parallelo ... :D:D ... ma riuscirai a visualizzare sempre e solo 8 bit/colore !
Mandi !
Alberto :cool:
-
Citazione:
Originariamente scritto da pannoc
@VPR: la foto in questo link è esattamente quello che avevo in mente nella mia spiegazione sopra; il banding a 8 bit è visibilissimo a sinistra e scompare con il Deep Color; non ricordavo più dove l'avevo vista:rolleyes:
@pannoc: credo che si voglia solo dire che processare a più di 8 bit alla sorgente (PS3) o al display (Panny) dovrebbe essere esattamente la stessa cosa, a meno che le due elettroniche non usino algoritmi diversi; in questo senso, se uno ha il display capace di farlo, l'HDMI 1.3 non serve a nulla; se invece il display accetta più di 8 bit, ma non è capace di generarli e la sorgente sì (come nel tuo caso) allora l'HDMI 1.3 serve.
Michele