non è così che funziona HDR. Se un film è tarato per tutta la sua durata con un massimo di 1000 nits , le scene a 100- 200 (ovvero la maggior parte) saranno ad un 10-20% della luminosità. Con un Dynamic HDR come il dolby vision è possibile che la stessa scena sia definita con un limite di 200 e di conseguenza molto più luminosa.
No. HDR10, HDR10+ e Dolby Vision fanno riferimento a REC.2100 che altro non è che la "somma" di ST.2084 (che definisce, tra l'altro, l'EOTF) e REC.2020 (che definisce lo spazio colore). Parliamo di un sistema
assoluto. Significa che ad un determinato stimolo o, semplificando, segnale corrisponda
obbligatoriamente un determinato colore e una determinata luce, senza se e senza ma. Il suddetto riferimento prevede 10.000 cd/m^2 o nits come picco di luminanza e 203 cd/m^2 o nits come bianco diffuso. Tralasciando i VPR che non raggiungono neanche il livello di luminanza del bianco diffuso, nessun TV
consumer arriva a 10.000 nits o a 4.000. Quindi, si è reso necessario introdurre il cosiddetto
tone mapping che, basandosi sui metadati del film, in parole povere, rimappa le porzioni non riproducibili dal TV (
e solo quelle!) all'interno di un
range di luminanza riproducibile.
Non essendoci una regola sul
tone mapping, ogni produttore applica la soluzione che ritiene migliore; con LG e Sony che lasciano più spazio di manovra ai propri clienti. La scelta da prendere è se preferire la luminanza o il dettaglio. Facciamo qualche esempio (senza scendere nei dettagli di MaxFALL e MaxCLL se no dovrei scrivere un libro):
1) ho un TV capace di 1.000 nits, non avrò tone mapping con film masterizzati a 1.000 nits e, pertanto, il DV e HDR10+ saranno totalmente inutili, se non addirittura dannosi. Questo perché vedrò il film come è stato pensato dal regista e classificato dal colorista (a tal proposito ricordo che il DV è una semplice conversione di un film SDR o HDR10 e non una vera e propria nuova sessione di
color grading);
2) ho un TV da 1.000 nits e il film è masterizzato a 4.000: caso a) la TV arriva a 1.000 nits rispettando la curva PQ EOTF e clipperà tutto quello che va oltre; caso b) la TV a 800 nits comincia a rimappare tutto quello che va oltre i 1.000 nits per preservare più dettagli possibili finché non sarà costretta a clippare le luci superiori a un determinato limite; (inesistente) caso c) la TV rimappa tutto il range da 1.000 a 4.000 nits nella gamma delle sue possibilità.
Questo per dire che, in HDR10, una scena scura non subirà mai il tone mapping, ma verrà sempre riprodotta come l'ha intesa il regista. Se poi Dolby Vision e HDR10+ alterano questa scena rendendo visibili dettagli che il regista ha ritenuto di non dover rendere visibili, non possiamo dire che si vedano meglio. Sarebbe come dare ragione al vicino di casa che guarda la TV in Vivid mode perché "i colori sono più belli".
Concludo dicendo che HDR (tutti i formati) non è sinonimo di scene più luminose, ma di ulteriore spazio per la luminosità degli
spectral highlight details e questo è palese quando si parla di bianco diffuso che in SDR è fissato a 100 nits mentre in HDR a 203 nits, non a 1.000, 4.000 o 10.000!