A livello di visione, per quanto riguarda me e i miei gusti, è certamente il riferimento. Il discorso sul Dolby Vision andrebbe affrontato in maniera tecnica perché mi pare ci sia una percezione distorta sul tema. Il DV, come l'HDR10+, è un sistema a metadati dinamici, mentre l'HDR10 è a metadati statici, tutti questi sistemi ricadono sotto l'etichetta HDR (High Dynamic Range) che è regolamentata dallo standard ITU-BT.2100 che, molto sinteticamente, dice: primari BT2020 e EOTF ST.2084 (quindi picco di luminanza 10.000 cd/m^2 e bianco diffuso al 58% della curva EOTF, ossia 203 candele e spiccioli). Ma cosa sono i metadati e a cosa servono? Siccome, al tempo dell'emanazione dello standard, nessun TV possedeva i requisiti necessari, SMPTE decise di emanare un secondo standard, ossia ST.2086, con lo scopo di "definire i metadati necessari a specificare il volume del colore (i colori primari, il punto di bianco e l'intervallo di luminanza) del display utilizzato nella masterizzazione del contenuto video.", tramite questi (meta)dati ogni produttore di TV poteva gestire la risposta del proprio prodotto per farlo performare al meglio. Ci si accorse presto che i metadati statici, nella fascia dove il TV cominciava a tone mappare (roll-off), potevano limitare la resa. Arrivò quindi ST.2094 (e sue declinazioni: Samsung, Philips, Dolby, ecc.) che introdusse i metadati dinamici. Quindi, i metadati sono un modo per far sì che i TV possano adeguare le loro capacità ai contenuti HDR. Il DV prevede un mastering a 4.000 cd/m^2 con primari DCI-P3 D65, mentre la maggior parte dei contenuti HDR10 sono masterizzati a 1.000 cd/m^2 con qualche eccezione a 4.000 ma spesso con MaxCLL inferiore alle 1.000; i primari obbligatoriamente BT.2020 ma con frequente uso del mastering monitor con primari DCI-P3. Significa che SE il DV è applicato correttamente, il contenuto mostrato sarà cromaticamente nei limiti del TV ma con frequente tone mapping (ossia clippa e/o scurisci) per quegli stimoli che superino le capacità del TV, poiché 4.000 cd/m^2 sono (per ora) fuori dalla portata della tecnologia in argomento. Ma cosa succede quindi, quando un TV copre pienamente i requisiti richiesti? Con gli attuali OLED premium (sia WRGB che RGB) il picco ha raggiunto e superato abbondantemente i 1.000 cd/m^2. Significa completa rappresentazione della curva EOTF e colori entro il gamut del TV. Di conseguenza, in questi casi, i metadati dinamici (quelli statici sì perché dicono al TV "dai bello che ce la fai!") non hanno più motivo di esistere poiché il TV non applica alcun tone mapping.
Detto ciò, ti propino alcune domande:
- perché dovrei preferire un contenuto clippato e scurito ad uno che viene mostrato così come pensato?
- quando le TV raggiungeranno il picco di 4.000 candele, il DV sparirà o continuerà ad esistere spingendo il mastering a 10.000 cd/m^2?
Inoltre, per quei (pochi) contenuti che si spingono altre le 1.300/1.400 cd/m^2, sappiamo che Amazon propone, da sempre, anche contenuti HDR10+ e che tutto il catalogo HDR di Apple TV+ e iTunes vengono ora proposti anche in HDR10+. Io, comunque, continuo a preferire contenuti senza tone mapping.
Il picco di luminanza del mio S95C si assesta intorno alle 1.360 candele, il G3 è sulle 1.430/1.450, ma la poca differenza si noterebbe solo in un confronto fianco a fianco e con contenuti masterizzati a 4.000 candele, sempre che il maxCLL superi le 1.360. Una rarità, insomma.
La calibrazione è abbastanza inutile, la riproduzione delle curve EOTF (BT.709/1886 che ST.2084) è già ottima di fabbrica, ovviamente post calibrazione migliora. I colori sono meravigliosi e la sovrasaturazione che si nota con contenuti HDR, può essere risolta abbassando il colore di un paio di tacche (facile per tutti), oppure calibrando il CMS (non per tutti).