Visualizzazione Stampabile
-
Citazione:
Originariamente scritto da FuoriTempo
la mie conclusioni sarebbero queste: la ps3 è in grado di elaborare qualsiasi sw e "trasformarlo" in un 12 bit che veicola tramite hdmi 1.3.
Potrebbe elaborarlo anche a 24 bit per canale, ma non aggiungerebbe un solo bit di miglioramento.
L'unica cosa che si otterebbe sarebbe una minore perdita delle informazioni originali.
Ma la mancanza di degrado non può certo essere considerata un miglioramento.
Se vuoi approfondire:
http://www.avmagazine.it/forum/showthread.php?t=53567
http://www.avmagazine.it/forum/showt...455#post536455
http://www.avmagazine.it/forum/showt...504#post422504
Citazione:
ovviamente un sw originale già masterizzato a 12 bit è l'unico che può essere considerato dotato di deep color.
Al momento, e penso per molti anni ancora, non vedremo sw a 12 bit.
Ciao.
-
Citazione:
Originariamente scritto da Girmi
Potrebbe elaborarlo anche a 24 bit per canale, ma non aggiungerebbe un solo bit di miglioramento.
L'unica cosa che si otterebbe sarebbe una minore perdita delle informazioni originali.
Al momento, e penso per molti anni ancora, non vedremo sw a 12 bit.
Quindi secondo te, se vedi lo stesso film blu-ray su play3 ed epson tw1000 e su una sorgente HDMI 1.1 con vpr 1.1 full hd di pari livello, si vede uguale?
(chiaramente intendo se il segnale e' esattamente uguale di qualita')
pannoc
-
Citazione:
Originariamente scritto da pannoc
Quindi secondo te, se vedi lo stesso film blu-ray su play3 ed epson tw1000 e su una sorgente HDMI 1.1 con vpr 1.1 full hd di pari livello, si vede uguale?
(chiaramente intendo se il segnale e' esattamente uguale di qualita')
Ho un mezzo sospetto di si... ;)
-
Citazione:
Originariamente scritto da pannoc
Quindi secondo te, se vedi lo stesso film blu-ray su play3 ed epson tw1000 e su una sorgente HDMI 1.1 con vpr 1.1 full hd di pari livello, si vede uguale?
Se è per questo, potrebbe anche vedersi molto peggio sulla prima catena che non sulla seconda.
Prova a pensare se la seconda catena fosse composta da un lettore con uscita RGBHV ed un buon CRT (non necessariamente un vp, basterebbe anche un TV).
La differenza sarebbe che nel secondo caso basterebbe un buon convertitore D/A a 10 o 12 bit all'interno del lettore (ne esistono anche da 14 bit beninteso).
Allo stesso modo una normale HDMI, anche la 1.0, può trasportare un segnale a 8 bit che, se ben elaborato dalla sorgente e visualizzato su display capace di "mapparlo" correttamente nel proprio spazio colore (e qui servono DSP e front end a 10 o più bit), può rendere al massimo la qualità del sw (sempre a 8 bit).
Se ti capita vai a vedere qualche monitor a 14 bit (ne fa EIZO, Quato) o anche solo a 12 bit (Lacie e molti altri) con il normale collegamento DVI e con del normale sw, anche HD.
I vantaggi del "trasporto" di un segnale a 36 bit possono essere assolutamente ininfluenti se il segnale non è pre e post trattato come si deve.
A maggior ragione se il sw, come tutto l'attuale (BRD compreso), è a 8 bit/canale, non vedo proprio come possa esserci qualche differenza.
Anzi l'unico vantaggio, per i motivi che puoi intuire dai link che ho messo, lo si potrebbe avere cn il matriale SD upscalato in HD, dove il processo di interpolazione, cioè l'aggiunta di informazioni, potrebbe dare risultati maggiormente coerenti se veicolato interamente a più di 8 bit/canale.
Ma con l'HD ormai in casa ha senso lavorare per migliorare la SD?
Ciao.
-
-
Citazione:
Originariamente scritto da pannoc
Mha..ho i miei dubbi..:p
Ma hai almeno letto quello che ho scritto?
Se non è chiaro dillo pure.
Ciao.
-
a me sembra ovvio che il discorso va fatto a parità di sw e a parità i hard ware. come è ovvio che ci possono essere macchine che non dispongono di hdmi 1.3 e relativa elaborazione ma diano un risulato milgiore di una catena ps3+ tw1000. qestonessuno le mette in dubbio.
credo, però, che questa capacità di elaborazione del ws della ps3 doni un maggior numero di sfumature e tonalità di colore con un certo miglioramento.
poi non capisco perchè si continua a dire che sw con deep color ci vorranno anni per vederlo quando numerose aziende sostengono (sony e toshiba in primis) che dall'autunno si inizieranno a vedere i primi prodotti.
se la mettiamo da questo punto di vista la ps3 deve ancora uscira, hd-dvd in italia si vedono col contagocce.... non si sa nemmeno quale formato sopravviverà ad una guerra che sta appena iniziando.... eppure ci stiamo lanciando tutti in acqusti poco ponderati, molto istintivi e frutto di una passione che di razionale ha ben poco.... in questo marasma non cedo sia sbagliato considerare hdmi 1.3 e il deep color come un valore aggiunto che se non può determinare da solo il giudizio finale su un prodotto, è sicuramente qualcosa la cui presenza non dispiace.
faccio un esempio: se fossi indeciso tra vpr full hd panasonic ed epson e non riuscissi a notare grandi differenze di visione, a parità di costo tra i due prenderei quello con hdmi 1.3
forse esagera chi mostra molto entusiasmo, ma esagera anche chi dimostra tanto scetticismo.
-
Bene, da quello che ho capito c'e' anche gente che la pensa come me..
Girmi ho capito benissimo quello che tu hai detto.
Tu puoi stare giorni a farmi spiegazioni tecniche, ma non cambiero' mai la mia idea.
Io sono sicuro che i 36 bit veicolati dalla play3 danno un grosso beneficio.
Lo so perche' ho visto con attenzione andare con blu-ray i vari HC5000 e panny 1000 che hanno gli stessi pannelli lcd epson e non sono paragonabili alla immagini del tw1000 con play3.
Tutte le volte che guardo le immagini in 1080p della play3 mi sembra un altro mondo...e dire che ne ho visti di VPR...
Ma secondo voi la play3 monta un'elettronica che AUTOMATICAMENTE porta il segnale a 36 bit quando collegata ad un VPR 1.3 per non avere nessun beneficio o addirittura per perdere di qualita'??????
Meditate gente...:rolleyes:
pannoc
-
Citazione:
Originariamente scritto da FuoriTempo
poi non capisco perchè si continua a dire che sw con deep color ci vorranno anni…
Perchè, almeno da quanto mi risulta, gli attuali codec, da MPEG2 a H.264 non supportano il 12bit, solvo rare eccezioni.
In particolare MPEG2 non lo supporta proprio e H.264 lo supporterebbe in alcune implementazioni particolari destinate però al settore pro.
Inoltre una codifica a 36bit, invece che a 24bit, richiederebbe a parità di lunghezza e compressione il 50% di spazio disco in più e parecchia potenza di calcolo.
Per questo la vedo poco applicablibile nell'immediato.
Quanto alle dichiarazioni di Sony, non dimentichiamo che sono gli stessi che dicono che servono più di due setimane per comprimere un film in VC1 :rolleyes:
Citazione:
…in questo marasma non cedo sia sbagliato considerare hdmi 1.3 e il deep color come un valore aggiunto che se non può determinare da solo il giudizio finale su un prodotto, è sicuramente qualcosa la cui presenza non dispiace.
Citazione:
Originariamente scritto da Girmi
Morale, se la 1.3 c'è, bene. Se non c'è, va bene lo stesso.
Come vedi, su questo siamo d'accordo.
Citazione:
forse esagera chi mostra molto entusiasmo, ma esagera anche chi dimostra tanto scetticismo.
Non si tratta di scettismo, ma leggiamo sul forum di gente che non vuole acquistare un vp o un lettore solo perché non ha ancora la HDMI 1.3 sperando in chissà quali benefici solo per la presenza della stessa.
Alla luce delle considerazioni che ho fatto, questo a me sembra assurdo.
Poi anch'io sto aspettando che mi arrivi il Toshiba HD-XE1 e stò puntanto il Denon AVR-4308, entrambi con HDMI 1.3, ma ti assicuro che non l'HDMI 1.3 a spingermi verso questi prodotti.
Ciao.
-
Citazione:
Originariamente scritto da pannoc
Tu puoi stare giorni a farmi spiegazioni tecniche, ma non cambiero' mai la mia idea.
Faccio il pubblicitario, figuriamoci se voglio demolire il lavoro di colleghi che lavorano così bene :D
Ciao.
-
Ho letto tutto il thread ma mi è rimasto un dubbio...
Leggendo l'ultimo report di Emidio dal CES, notavo come le demo fatte su flat panel (LCD mi pare) delle nuove possibilità offerte dalla tecnologia "deep color" evidenziassero differenze eclatanti tra display "con" e "senza".
Allora mi/vi chiedo: posto che anche il software dovrà essere codificato con le informazioni aggiuntive "lato colore" per poter sfruttare realmente l'aumento di banda passante, come mai Emidio ha visto differenze così grandi?
Vuol dire che SOLO per quella demo i filmati erano codificati apposta per il "deep color"?
Ciao!
Marco
-
Citazione:
Originariamente scritto da poe_ope
Ho letto tutto il thread ma mi è rimasto un dubbio...
Allora mi/vi chiedo: posto che anche il software dovrà essere codificato con le informazioni aggiuntive "lato colore" per poter sfruttare realmente l'aumento di banda passante, come mai Emidio ha visto differenze così grandi?
Vuol dire che SOLO per quella demo i filmati erano codificati apposta per il "deep color"?
Bravo!
Anch'io ho fatto la stessa domanda e nessuno mi ha risposto.
Anzi solo EMIDIO ha ammesso che ci potrebbero essere potenziali miglioramenti anche senza DEEP COLOR "nativo" sui supporti.
pannoc
-
Citazione:
Originariamente scritto da pannoc
Anzi solo EMIDIO ha ammesso che ci potrebbero essere potenziali miglioramenti anche senza DEEP COLOR "nativo" sui supporti.
http://www.avmagazine.it/forum/showt...455#post536455
http://www.avmagazine.it/forum/showp...04&postcount=8
Ciao.
-
Riporto questa notizia data dalla stessa HDMI organization e postata dal nostro MIKE5 nel forum dell'EPSON TW1000
"Deep Color: Al CES abbiamo fatto una dimostrazione di due TV LCD identiche affiancate, che riproducevano contenuto generato da una PS3, rispettivamente a 8 e 10 bit. La differenza era così palese che tutti i visitatori che hanno visto la demo erano in grado di notare le differenze senza che noi dovessimo indicare dove e cosa cercare. Io personalmente non ho visto una demo affiancata che confrontasse i 10 con i 12 bit, ma ho visto contenuti a 10 bit nei quali potevo ancora notare un leggero banding, cosa che mi porta a credere che l'occhio umano sia in grado di vedre la differenza tra 10 e 12 bit. Durante le mie conversazioni con gli esperti di elaborazione video, essi affermavano di essere in grado di prendere un contenuto video a 8 bit ed applicare un'estrazione gamma tale da eliminare il banding e fornire un'esperienza video da pseudo 10 bit. Sembra che diversi produttori di lettori HD DVD e Blu Ray siano convinti che questo produrrà davvero un'esperienza (visiva) migliore, anche se il contenuto è codificato nativamente a 8 bit."
pannoc
-
Citazione:
Originariamente scritto da Girmi
La frase "chiave" quindi è sostanzialmente questa?
"Quindi un display a 10 o 12 bit/canale sarà sempre in grado: non di visualizzare più colori in assoluto di un 8 bit/canale, ma di visualizzarne un maggior numero di quelli originalmente contenuti nel software sorgente, operando un numero molto minore di sostituzioni."
E quindi, a prescindere dalla codifica del sw, un miglioramento di qualche genere c'è?
Ciao e grazie per i chiarimenti!
Marco