• Confronto TV, proiettori e ampli al Roma Hi-Fidelity il 15 e 16 novembre

    Sabato 15 e domenica 16 novembre, all'hotel Mercure West, AV Magazine vi aspetta nella sala Domitilla dalle 10:00 alle 18:00 con un confronto tra TV OLED e tra amplificatori con un diffusore di riferimento. Nella sala adiacente di Gruppo Garman vi aspetta invece un confronto tra videoproiettori Epson LS9000 e QB1000 con un sistema home cinema Dolby Atmos con integrato Denon AVC-A1H e diffusori Focal EVO. Maggiori informazioni a questo link.

  • JVC NZ900 + NZ500 da Videosell il 14 e 15 novembre a Milano

    Venerdì 14 e sabato 15 novembre, presso la showroom di Videosell a Trezzano sul Naviglio, sarà possibile osservare all'opera il videoproeittore JVC DLA-NZ900 (alias DLA-RS4200) con il nuovo firmware 2.0 da poco disponibile. Sarà in funzione anche un eccellente DLA-NZ500 (alias DLA-RS1200) che è un campione del rapporto qualità prezzo. Appuntamento quindi a venerdì 14 novembre, dalle 15:30 alle 20:30 con aperitivo "videofilo" gratuito e anche sabato 15 novembre, sia la mattina dalle 9:30 alle 13:30 e poi il pomeriggio dalle 14:30 alle 16:00. Maggiori informazioni a questo link.

Dolby Vision vs HDR10: il confronto

Secondo me è giustissimo come abbiamo fatto. L’alternativa al Samsung S95C non è il Sony A95L ma il LG G3. Abbiamo dimostrato che il “non ha il Dolby Vision quindi non lo prendo in considerazione” è una scusa sciocca. In più in Dolby Vision il Sony ha qualche problemino alle basse luci e ci saremmo trovati in difficoltà nel definirlo uno scontro equo. La migliore implementazione del Dolby Vision è su LG, lo dice Dolby. Piuttosto, sarà interessante vedere come si comporta su TV con picco inferiore.
 
Potrei dirvi che Avengers Endgame è “leggermente” più luminoso (100 nits) sul Samsung ma parliamo di pelo nell’uovo.
Il disco del film non ha mica Dolby Vision :mbe::mbe:



Cmnq resto in trepidante attesa, sperando si possa anche ampliare il parco TV nel test, e magari testare lo stesso TV in HDR10 e DV/HDR10+: forse si potrebbe usare un Panasonic 820, che almeno li supporta entrambi (piuttosto che l'Oppo che è limitato al solo DV), così da avere un confronto migliore, senza differenze di pannello/marca/modello, piuttosto che affidarsi allo streaming
 
Ultima modifica:
Do you know Disney+?

Per me il confronto è valido così come è stato condotto. L’unica cosa che resta da verificare è il comportamento del DV rispetto ad HDR10 con TV con picco sui 700/800 nits. Lo streaming ormai è il mezzo utilizzato dalla stragrande maggioranza degli utenti dei quali molti non hanno neanche un lettore blu-ray, anche perché sono rimasti in pochi a produrne.

Cosa vuoi che cambi, in un confronto, quando la sorgente è la stessa? Oppure pensi che il Samsung sia migliore con sorgenti con bitrate più basso?

Quello che proponi tu sembra più un confronto tra sorgenti.
 
Ultima modifica:
In sintesi: la mancanza del Dolby Vision è una non mancanza.

Focca la bindella :eek:

Per me (a parte l'antipatia a pelle nei riguardi del Brand) è sempre stato un argomento dirimente per NON considerare Samsung come appetibile nei confronti fra i vari TV da scegliere.

Alla luce di questo, la loro recente implementazione presentata al CES 2024 dotata di pannello con trattamento antiriflesso diventa una seria contender al premio di migliore TV dell'anno, già da ora ?

Aspetto l'articolo completo, ma credo che in sostanza sia già tutto condensato nella frase quotata sopra.
Grazie per lo sforzo e per la prova. :mano:
 
Do you know Disney+?
Beh, se dite che avete usato AppleTV+ come servizio di streaming, il mio dubbio era più che lecito (e resta tale, con il film in questione, trattandosi di video in streaming)
Io propongo di usare un lettore davvero universale, in modo da verificare anche sullo stesso TV quale sia la differenza fra HDR10, Dolby Vision e HDR10+ (a seconda del supporto delle varie marche di TV, ovviamente), per escludere le variabili introdotte dalla differenze di pannelli, marca, modelli ecc.
Perché così si parla solo di DV vs. HDR10, quando sarebbe anche interessante conoscere le differenze fra HDR10+ e HDR10, da sorgenti nobili, non streaming, e magari anche fra DV e HDR10+ (visto che non mancano i film con entrambe le tipologie, come alcuni titoli WB).
Oltre al fatto, già segnalato da alcuni, che c'è una bella differenza, numerica almeno, fra DV MEL (usato nello streaming e su alcuni dischi) e FEL (presente solo sui dischi): anche questo sarebbe un bel punto da approfondire, se vi va
Certo, ce n'è di lavoro da fare :D
 
Ultima modifica:
Ripeto: l’obiettivo del test è stato raggiunto. Ci interessava capire se con TV capaci di 1.000+ nits i metadati dinamici (DV e HDR10+) portassero dei vantaggi. La risposta è no, nessun vantaggio. Tra l’altro, lo conferma la stessa Dolby QUI, a pagina 13. Quando va bene si vedono uguali, quando va male (implementazione fatta male, DV con tone mapping a 600 nits) si vede meglio HDR10 (ossia ha più dettagli e rispetta la curva di riferimento). Usare due esemplari dello stesso TV che supporta i tre formati HDR (quindi o un Panasonic o un Philips) ci avrebbe detto come si comporta quel TV con i tre formati. Cosa che a noi non interessava sapere. Piuttosto, abbiamo preferito utilizzare il miglior TV Dolby Vision e il miglior TV HDR10/HDR10+ e il risultato è stato quello detto prima: la mancanza del Dolby Vision non è un problema. L’utilizzo di contenuti su un supporto meno diffuso, non avrebbe comunque cambiato il risultato.
Per quanto riguarda, invece, il confronto tra G3 e S95C, il vincitore è il Samsung.
 
Ultima modifica:
Ok, era solo un'idea in più.
Restiamo in attesa dell'articolo completo, e di eventuali ulteriori prove come detto da Emidio nel suo post
 
Saucer: A parità di contenuto dici? Ossia stesso film su Netflix e Plex in HDR10.

ni... su plex ho per esempio il film di Mario bros o l'ultimo Matrix in mkv da oltre 30gb che hanno un picco luminoso che non può essere assolutamente di 400, ora su Netflix hanno messo Matrix che è molto meno luminoso del mio mkv (ma non vorrei prenderlo come esempio perché non sono certo che su Netflix sia in hdr, anche se sarebbe assurdo mettere un film del 2323 in sdr). Comunque a occhio lo posso paragonare a quello che vedo nelle ultime serie DV... ma poi in generale 400 nit li ho su tv da cucina... non può essere.

comunque niente da dire sulla guerra Dolby Vision vs HDR10, se sono praticamente identici è anche perché non ci sono display e contenuti che possano sfruttare appeno le specifiche superiori di DV, quando ci saranno display da 10.000 nit e a 12 bit magari la differenza si vedrà
 
Ultima modifica:
Non abbiamo detto che il picco massimo è di 400 nits con l’app interna di Plex ma che un una specifica porzione di un determinato frame, che con Plex per Apple TV misura circa 700 nits, con quella interna misura circa 400. Matrix su Netflix è in SDR.
Dolby Vision non ha specifiche maggiori di HDR10, ha solo i metadati dinamici che con TV con picco uguale o superiore al mastering display non servono a nulla. Idem HDR10+.
 
3) Problemi: nel testare le differenze tra DV e HDR10 sul G3, ci siamo imbattuti in un problema decisamente sconfortante. Le app interne al TV (Plex e il media player LG) castrano la riproduzione in HDR10: un dettaglio luminoso che in DV e Plex con Apple TV o Oppo misura 680 nits, con l’app interna misura 400 nits scarsi! Ovviamente abbiamo controllato due volte le impostazioni del TV e non abbiamo riscontrato differenze. Personalmente, credo sia una sorta di sistema anti-pirateria di LG, nessun problema sul Samsung; stesse misure per Plex interno e Plex/Infuse su Apple TV. Immagino sia così per tutti gli LG che, quindi, necessitano di un dispositivo esterno per il pieno godimento di file locali. Triste ma vero.

messa così è devastante e sembra implicito un limite assurdo, io uso Plex almeno su g2 è sono certo che in generale i file locali sfruttano alla grande il pannello con una resa per me allineata o superiore al 4k HDR di Netflix , ora mi dici che si tratta del singolo fotogramma ... insomma è molto diversa la cosa. Sei arrivato a dire che bisogna collegare periferiche esterne.... anche no.
 
Ultima modifica:
Un paio di curiosità.
Oppo come è stato settato? in TV-LED o Player-LED? ( se il G3 supporta il TV-LED )

I BD DV erano FEL o MEL ?

Oppo o apple TV è stato usata un Force Dolby vision con i contenuti HDR e/o FHD per vedere la differenza? uno dei + più grandi del DV

Potrei dirvi che Avengers Endgame è “leggermente” più luminoso (100 nits) sul Samsung ma parliamo di pelo nell’uovo. Sono entrambi favolosi.

i contenuti su disney+ si sà che sono limitati a 300-400nits , possibile che qui 100nits in più siano del elaborazione video del samsung?


e app interne al TV (Plex e il media player LG) castrano la riproduzione in HDR10: un dettaglio luminoso che in DV e Plex con Apple TV o Oppo misura 680 nits, con l’app interna misura 400 nits scarsi!

quali file sono stati testati ?

Mp4 dual-trak dual-layer , se non sbaglio sono supportati fino alla serie C9.
 
Da sempre utilizzatore di Panasonic, ho un gz950 in sala, un glorioso plasma 42st60 in camera e uno "schifoso" lcd ax800 in taverna che i ragazzi usano per le console, devo dire che se decidessi di comprare un nuovo oled, la scelta non sarebbe poi così scontata anche alla luce delle vostre prove sul DV.
Anzi direi proprio che forse andrei verso il marchio che fino ad ora è stato per me quanto di più lontano ci fosse da una resa cinema like.
Ho visto da un amico il Samsung che avete voi in prova, e impostandolo come si deve, devo dire che è un signor televisore con tutti i contenuti che gli dai in pasto.
Lui lo ha preso direttamente da Samsung il 65 a 2100 con gli sconti e devo dire che sono molto tentato.
Voi consigliereste ancora Panasonic?
Escluderei il Sony a95l che anche se sembra essere il miglior oled in circolazione, credo che costi troppo in relazione a quello che offre.
Voi esperti cosa ne pensate?
 
..cut

2) WRGB vs QD-OLED: il confronto è stato condotto col bianco del G3 “matchato” con quello del Samsung che non ha mostrato metameric failure ai miei occhi al contrario del G3 (e di tutti i pannelli RGB).....Con filmati in bianco e nero, invece, la differenza si nota. Il pannello RGB dona ai grigi la giusta pasta e consistenza, mentre sul WRGB appare sempre “sovraesposto”. Questo vale in HDR e in SDR. ........[CUT]

Ottimo assaggio, aspetto il resto.
Un giorno, vorrei anche i capture della emissione spettrale del QD-OLED per confrontarla con quella WRGB.
Colpevolmente da un po' di tempo non seguo le discussioni sulla calibrazione, quale spettrometro avete utilizzato per profilare il colorimetro?
Dalla definzione di metameric failure lo spettro più problematico da rilevare per uno spettrometro in linea teorica dovrebbe essere quella dei display QD-OLED la cui emissione spettrale dovrebbe avere bande di emissione decisamente più strette (e di conseguenza richiedono una maggiore risoluzione) rispetto a quelle che si ottengono con i normali filtri RGB della tecnologia concorrente.
Vedi la stessa definizione che viene fornita da Samsung:
"The QD-OLED’s narrow band, primary color emission ...."

Da cosa deduci che il metameric failure sia nell' LG e non nel Samsung?
L' effetto sovraesposizione di solito c' è quando succede qualcosa di strano nella curva di trasferimento.
 
Ultima modifica:
Come scritto nell’anticipazione di Emidio, i TV sono stati calibrati con spettroradiometro Colorimetry Research CR-300RH (risoluzione a 2nm) e colorimetro CR-100.
Premesso che il metameric failure è negli occhi di chi guarda e non nello strumento che li misura, tempo addietro effettuai una comparazione percettiva, o perceptual match per gli anglofili, tra il bianco del mio C8 e quello D65 del mio Kuro 5090H calibrato con LUT. Stessa cosa feci per il G1. Per entrambi i TV le coordinate del bianco furono x 0.304 y 0.329. Ad inizio novembre del 2023, sono stato chiamato a Cipro (lo Stato, non la fermata della metropolitana di Roma) per calibrare un 55C1 e un 65A95L. In quel caso, effettuai la calibrazione del bianco del C1 sul bianco D65 del Sony. Le coordinate, valide per i 4 occhi presenti, sono state le stesse del C8 e del G1. Perciò, applicando il sillogismo aristotelico, i pannelli QD-OLED, ai miei occhi, a quelli del cipriota e di tanti altri “amici” calibratori statunitensi, non “soffrono” di fallimento metamerico.
 
Ultima modifica:
Premesso che il metameric failure è negli occhi di chi guarda e non nello strumento che li misura..........[CUT]

Questo è vero a patto che la risoluzione spettrale sia adeguata; se ad esempio profilo il colorimetro con uno spettrometro di risoluzione inadeguata alla tipologia di spettro otterrò un fallimento in modo clamoroso.
Quello dell' occhio invece è, salvo casi in cui ci siano problemi di vista, molto più sfumato e sarebbe causato dalle differenze che individualmente abbiamo rispetto al modello di "occhio medio" cui fa riferimento tutta la teoria; metti ad esempio che individualmente abbiamo una sensibilità più o meno elevata rispetto ad una particolare banda nella zona del rosso o del verde o del blu rispetto al modello percettivo; i display hanno emissioni spettrali differentemente concentrate in quelle zone et voilà... servito il metameric failure.
Per l' effetto di sovraesposizione penso che potrebbe esserci altro alla base e sempre a che vedere con l' iterazione fra curva di trasferimento e ABL.
Preciso che sono semplici "curiosità", con i display sono di "bocca buona" :D, negli ultimi tempi trovo già più che adeguati i preset giusti.
 
Resta il fatto che il fallimento metamerico non è negli strumenti di misura, dovremmo infatti parlare di metamerismo dell'osservatore. Nel caso specifico, quando lo strumento mi dà la stessa misura del bianco 100% su due TV diversi ma i miei occhi non li percepiscono come uguali. Comunque, 2nm dovrebbero bastare per dare la colpa agli occhi, che dici? Io le calibrazioni manuali le effettuo solo con lo spettroradiometro e non col colorimetro. Preferisco l'accuratezza alla velocità, a meno che non debba misurare molto in basso. Diverso il discorso della verifica della calibrazione che io effettuo con migliaia di punti o della profilazione di un TV con cubi colore, in quei casi l'utilizzo del colorimetro è obbligatorio.
 
Oppo come è stato settato? in TV-LED o Player-LED?
Ovviamente, TV-led. L'Oppo è stato usato solo per l'ultimo disco S&M che, secondo me, è stato fatto con i glutei, tanto per non perdere l'abitudine.

apple TV è stato usata un Force Dolby vision con i contenuti HDR e/o FHD per vedere la differenza? uno dei + più grandi del DV

La Apple TV è stata settata in 4K SDR 60hz RGB alto con l'adeguamento automatico all'intervallo dinamico e al contenuto (frame rate). Non abbiamo forzato nulla, non avrebbe avuto senso.

Sull'Oppo, invece, siamo stati costretti a forzare HDR10 con S&M perché senza non si riusciva a impegnare il Samsung in HDR10. Sul G3 diversi problemi col DV dello stesso disco. Insomma, abbastanza penoso.

i contenuti su disney+ si sà che sono limitati a 300-400nits , possibile che qui 100nits in più siano del elaborazione video del samsung?

Non mi risulta che il picco massimo su Disney+ sia 400 nits, noi sul fotogramma di Endgame che abbiamo usato per comparare le misure, abbiamo rilevato circa 800 nits sul Samsung in HDR10 e circa 700 sul G3 in DV. E' con l'app Plex interna del G3 che quello stesso spot ha misurato 300 nits in meno! Ma credo di aver capito il motivo, non dovrebbe essere un problema dell'app interna ma dei metadati del film che sono:
Luminanza display mastering: min: 0.0050 cd/m2, max: 4000 cd/m2.

Come sappiamo, LG basa il tone mapping HDR10 prima su MaxCLL e, in mancanza, su MaxMDL che in questo caso è 4.000 nits, applicando il roll-off intorno al 60/70% della curva EOTF del TV, mi pare. Era la mia prima ipotesi sulla causa del problema (Emidio, avevo azzeccato!), poi ho puntato sulla seconda, sbagliando (!), perché è raro che non venga indicato il MaxCLL. Ciò non avviene con Apple TV 4K e Fire TV perchè la prima forza i metadati HDR10 così: MaxMDL 4.000, MaxCLL 1.000 e la seconda in MaxMDL 1.000, MaxCLL 0. Perciò, in entrambi i casi, il G3 agisce senza tone mapping. Samsung invece applica un roll-off e un tone mapping molto meno aggressivo e qunidi non subisce lo stesso effetto.
Comunque, approfondirò la questione, spero presto. Mi basterà cambiare il punto di roll-off e controllare! Magia degli imbattibili strumenti per la calibrazione di LG. Per ora potete annullare gli ordini di Fire TV e Apple TV! :D

Aggiornamento: ho fatto diverse prove con le impostazioni del tone mapping ma non cambia nulla. Quindi, proverò con altri film HDR sprovvisti di MaxCLL per vedere se il comportamento dell’app interna è lo stesso. Vi aggiorno.

Con questo credo di aver risposto anche alla tua ultima domanda.
 
Ultima modifica:
Voi esperti cosa ne pensate?

Direi che sei nella condizione in cui mi trovavo circa 8 mesi fa. Ossia: ma davvero mi tocca comprare un TV Samsung?! Ma non starò a fa’ una stronz@ta?!? Proprio per questo mio pregiudizio, basato comunque su esperienze dirette ed indirette, ho acquistato l’estensione di garanzia a 5 anni. Ma devo dirti che è, senza ombra di dubbio, il miglior TV che abbia mai avuto e ne ho avuti diversi, dal Sony CRT Super Trinitron al LG G3, passando per un vecchio Hitachi plasma 37” (una mezza ciofeca), un Pioneer Kuro 9G, un Panasonic VT60 (che pensavo potesse sostituire il Kuro ma non lo ha fatto e l’ho restituito), un LG C8 e un LG G1. Insomma, sono molto esigente sia in termini di qualità d’immagine che di strumenti/possibilità di calibrazione.
Se vuoi percorrere la mia stessa strada hai due possibilità: aspettare che esca il S95D e approfittare dei mega sconti che Samsung certamente farà sulla serie C, oppure aspettare il prossimo ottobre o il black Friday e prendere un S90/S95D se si dimostrerà sufficientemente superiore agli attuali. Ovviamente, dando un occhio al G4 e allo Panasonic Z95A (se sei interessato ad una diagonale fino a 65”).
 
Top