Apple TV 4K HDR - 2021

Ieri sera mi sono messo a verificare SOLO VISIVAMENTE film tra app della tv e app ATV e devo dire che pur mettendomi di impegno non sono riuscito a trovare differenze. Al mio occhio sono esattamente uguali (parlo di HDR10).

E prima di fare ciò ho impostato la stessa modalità immagine, resettandola ai valori standard (visto che avevo applicato qualche modifica personale).

Non ho apparecchiatura per verificare l'effettività delle cose ma, ripeto, ad occhio MIO sembra non cambi nulla.

Personalmente il problema di tutti gli altri dispositivi riguardo al frame rate corrispondete, attualmente rimane molto più fastidioso di questa cosa che non riesco a notare.
 
Idem. Non ho visionato la mia intera libreria ma non ho notato differenze tra Infuse e eGreat nella gestione dello stesso contenuto HDR10. Magari ho beccato solo film con metadata uguali a quelli fissi di Apple.

Ma il problema del gamma leggermente più alto (0,06 circa) della ATV 4K (principalmente della versione 2017) non è confinato al dominio HDR/DV ma si estende anche a SDR. Puoi che qualcuno si sia accorto della cosa solo con filmati HDR, lascia il tempo che trova. Anche perché se ragioniamo meglio su come funziona l'HDR (a maggior ragione su TV che raggiungono a stento i 1000 cd/m2 di picco di luminanza), possiamo capire che non può essere quella la causa delle immagini più scure su tutta la durata di un film. Se qualcuno è interessato e se il moderatore autorizza l'OT, volentieri provo a spiegarlo.

Davvero TUTTI i contenuti che vedi sono DV??

Principalmente guardo Netflix, Disney+ e Apple TV+ dove non esiste nulla (almeno credo) in HDR10, ma è tutto in DV o SDR. Prime Video, che fino a poco tempo fa, a parer mio, era il servizio con più qualità in termini artistici e meno fuffa, ultimamente mi sembra non proporre più contenuti di quel livello, o forse sono io che non ho molto tempo di cercare meglio.

se consideri anche l’imprecisione di gamma e quella cromatica francamente ne esce un po’ a pezzi…

Sono d'accordo, anche perché sono io ad aver rivelato al mondo questi problemi (92 minuti di applausi :D) e sono stato io a trovare una soluzione. Se non lo avessi fatto, probabilmente, nessuno si sarebbe accorto di nulla. Però, per quanto mi riguarda, funziona talmente bene che ho preferito calibrare una modalità immagine, sacrificandola, e dedicarla esclusivamente alla Apple TV... con la quale faccio tutto.

Se ci ragioni, una Fire tv 4k ha l'uscita YCC accurata ma se la colleghi ad un TV non accurato, non sei in una posizione migliore rispetto a chi collega una ATV 4K allo stesso TV, in più hai i microscatti e scarse possibilità di poterla usare in maniera soddisfacente con la tua libreria di film 4K HDR. Ma è una fireTV, costa 40€ e quindi si tende ad essere meno "arrabbiati".

Ma ripeto, sfondi una porta aperta, sono senza dubbio il critico più duro ma obbiettivo della Apple TV 4K; e lo sono perché certe cose non me le aspetto da Apple che è sempre stata attenta alla qualità di visione dei suoi dispositivi. Ma la mia critica punta ad essere costruttiva, non a denigrare un marchio perché mi è anitpatico.
 
Io ho provato film con sicuramente valori diversi da quelli che dovrebbe dare fissi Apple (presi dal forum di infuse) come Blade Runner 2049 e non ho notato assolutamente differenze.

Temendo un effetto "placebo" ho chiesto alla mia compagna di mettere il film da ATV o da app interna mentre non guardavo. Lo abbiamo fatto per più volte per più film e non ho quasi mai indovinato la fonte e quelle poche volte che ho indovinato è perchè tiravo a caso. La scelta non era dettata da nessun particolare.

Mi ritengo ancora soddisfatto dell'acquisto e ritengo ancora ATV, con tutti i suoi difetti, il sistema VOD migliore (avendoli provati tutti, firestick e shield compresi).

Anche io con AppleTV+, Netflix e Disney+ come servizi maggiormente utilizzati, la grande maggior parte dei contenuti che guardo è DolbyVision ma se avessi notato l'effettività del problema con HDR10 non avrei fatto comunque spallucce perchè voglio che tutto funzioni bene.

Non notando il difetto (se esiste ancora a questo punto) sto a posto cosi.
 
Ultima modifica:
Principalmente guardo Netflix, Disney+ e Apple TV+ dove non esiste nulla (almeno credo) in HDR10, ma è tutto in DV o SDR.[CUT]

Giusto per cronaca su Disney+ ci sono sia contenuti in HDR10 che in DV, a memoria ricordo sicuramente la saga degli X-Men, Speed, Le spie della porta accanto che sono "solo" in HDR10.
 
Visto che avete nominato due volte Appletv+ apro una piccola parentesi... Non so in quanti abbiano visto Ted Lasso (se non lo avete fatto correte ai ripari) ma vogliamo parlare di come si vede in Dolby Vision? Non sembra nemmeno un VOD ha una qualità' superiore al 99% dei BD.. Gli sta sopra solamente Gemini Man in BD ma quello e' fuori concorso...
Con 40 Mbps di bitrate e' quasi un miracolo...
 
Ted Lasso e See sono i contenuti video streaming migliori che abbia mai visto.

Nonchè due splendide serie tv.

AppleTv+ ha una qualità superiore a tutti. (a livello di streaming)
 
Ultima modifica:
Giusto per cronaca su Disney+ ci sono sia contenuti in HDR10 che in DV, a memoria ricordo sicuramente la saga degli X-Men, Speed, Le spie della porta accanto che sono "solo" in HDR10.

Si si sicuramente ci sono ma ciò che ho visto e mi interessava è sempre stato DV.

Solo The Walking Dead sto vedendo che è SDR.
 
In che percentuale?

Difficile fare una percentuale. Ci fosse sull'app un filtro per visualizzare solo certi tipo di contenuti, sarebbe più facile darti questa informazione.

Sappi solo che sono presenti TUTTI i film della Marvel e tutti in DV.

Anche le serie Marvel che stanno uscendo mano mano (WandaVision, Loki ecc ecc) sono DV.

Tutti i film di Star Wars sono in DV.

I classici animati Disney (Wall-e, Up, Gli incredibili, La bella e la bestia ecc ecc) sono in DV.

I film disney che dalle sale passano all'app (o in contemporanea pagando una cifra folle) come Jungle Cruise, Black Widow, Crudelia ecc ecc, sono in DV.
 
Idem. Non ho visionato la mia intera libreria ma non ho notato differenze tra Infuse e eGreat nella gestione dello stesso contenuto HDR10. Magari ho beccato solo film con metadata uguali a quelli fissi di Apple.

Ma il problema del gamma leggermente più alto (0,06 circa) della ATV 4K (principalmente della versione 2017) non è confinato al dominio..........[CUT]

Ho precisato che parlavo di VOD, per quei pochi casi dove visiono file locali uso Zidoo.
Per quanto riguarda la calibrazione, non potrebbe essere fatta in automatico col software JVC e non mi va di spendere tempo extra per sopperire ai problemi di un lettore strapagato che mi aspetto essere accurato.
Anche la mia critica è costruttiva, ti dicevo che sono ancora più arrabbiato perché ero intenzionato ad acquistarlo come lettore definitivo, ma i problemi sono troppi e PER ME inaccettabili.
Non è un problema di prezzo, la Firestick 4K ha oggettivamente il solo "problema" dei microscatti con contenuti non Amazon Prime Video, quindi per il VOD resta tuttora la soluzione migliore.
Se non notate differenze potrebbe essere che è perché usate un dynamic tone mapping che non usa i metadati.
Io tra 1000, 4000 e 10000 nits la differenza la vedo eccome. Basta vedere i test disc Spears & Munsil.
 
Ultima modifica:
In che percentuale?

E' difficile dare una percentuale bisognerebbe veramente spulciare il catalogo titolo per titolo, magari c'è qualche sito che lo ha fatto ma sinceramente non mi interessa più di tanto visto che uso Disney+ solo per i contenuti originali che non si trovano su disco, però essendo di natura curioso a volte mi metto a girovagare nel catalogo.
Da persona esterna sembra non aver una logica di come carichino i film, te li puoi trovare in HD o in HDR10 o in DV (mi sembra invece di non aver mai trovato niente in 4k SDR però non ci metto la mano sul fuoco), li devi veramente aprire uno per uno.
Non puoi neanche cercare di capire lo schema prendendo in considerazione la controparte 4k su disco perchè viaggiano apparentemente su 2 strade diverse, per esempio ho visto nel catalogo "Tutti pazzi per Mary" o "10 cose che odio di te" in 4K HDR10 ma non esiste il disco 4k e sicuramente ci saranno anche altri titoli, la saga "Star Wars" tutta in DV ma su disco esiste solo la versione HDR10 (tranne 1 capitolo se non ricordo male), la saga "Die Hard" tutta in HDR10 ma su disco c'è solo il primo capitolo su 4k, stessa storia di Star Wars per quando riguarda i film della saga Marvel.
Anche i Pirati dei Caraibi nel catalogo sono tutti in DV tranne uno (Ai Confini del Mondo) che è invece in HD così per me senza apparente motivo, ecco per quanto riguarda la saga Pirati dei Caraibi fino all'altro giorno non esistevano i dischi 4k ma ora sono spuntati all'estero i preordini di tutti i 5 film per fine dicembre e parrebbero avere "solo" l'HDR10.
Insomma questa è la situazione del catalogo HDR10/DV di Disney+, se aspettavate da me una percentuale mi dispiace di avervi deluso ma è un lavoraccio enorme da fare, invece per quanto riguardo la risoluzione dei film caricati nel catalogo mi sembra veramente un terno al lotto ma magari mi sta sfuggendo qualcosa.
 
Esattamente. La domanda era retorica e simpaticamente provocatoria. Io come te guardo solo contenuti originali e, finora, mi sono imbattuto solo in materiale in DV. ;) Diciamo che rispetto a Prime Video, dove la stragrande maggioranza dei titoli HDR è in HDR10, Disney+ ha la stragrande maggioranza dei titoli HDR in DV.

@CyberPaul: La differenza tra un film HDR masterizzato a 1000 cd/m2 e uno masterizzato a 4000 cd/m2 è come lo schermo che riceve le immagini interpreta il dato. Considerato che la curva PQ-EOTF è un riferimento assoluto, ad un dato stimolo deve corrispondere una determinata luminanza (es: la tripletta 128,128,128 deve dare 0.1465 cd/m2) su qualsiasi schermo. Quindi, la differenza tra un proiettore con picco di 100 cd/m2 e un ideale schermo con picco a 10.000 cd/m2 è che da 0 a 100 cd/m2 seguono (o dovrebbero seguire) la stessa identica curva PQ EOTF, poi il proiettore "clipperà" tutto il resto mentre lo schermo ideale no. Detto ciò, subentrano le scelte dei vari produttori, poiché lo standard BT.2100 nulla dice in merito a come dovrebbe comportarsi uno schermo che non raggiunge 10.000 cd/m2 di picco. Alcuni produttori preferiscono conservare i cosiddetti "spectral highlight details" e altri preferiscono mantenere l'effetto accecante. Si tratta di filosofie e nessuna delle due è corretta o sbagliata, perché non esiste una regola. LG dal 2019 permette ai calibratori di decidere come deve comportarsi il TV, Sony da un paio d'anni (se non ricordo male) ha 2/3 settaggi per accontentare (quasi) tutti. Altri hanno un punto di roll-off in base ai metadati ricevuti. Vale lo stesso per i proiettori solo che spesso non potendo raggiungere neanche i 203 cd/m2 del bianco diffuso, il risultato è un tone mapping pressoché totale. Torniamo al proiettore con picco 100 cd/m2, gamut colore a parte, come farà a rendere la differenza tra un film HDR10 masterizzato a 1000 e uno a 4000 cd/m2? Modulerà la parte della sua capacità luminosa dedicata al tone mapping. Diciamo che con i 1.000, il punto di roll-off è 90 cd/m2 mentre con 4.000 è 80 e con 10.000 è 70. Se gli arriva un film che originariamente è a 1.000 ma che la ATV gli dice essere a 4.000, il proiettore comincerà il suo roll-off a 80 invece che a 90 cd/m2 clippando poi tutto a 100 cd/m2. Avrai quindi un'immagine meno punchy e tendenzialmente più scura nella fascia da 80 cd/m2 in su. Ma solo su quella fascia! Ovvio che i produttori di proiettori si siano lasciati molto più spazio per dare dinamica alle luci e, pertanto, l'effetto è assolutamente più evidente. Ha senso l'HDR e il DV su un proiettore? Per me, no.

Su un TV OLED la situazione è diversa a seconda del produttore e del modello. Prendiamo per esempio un LG C9 e come può essere gestito il roll-off:
dSnHz9vQQBWMZK9F9


Picco a 740 cd/m2, con materiale masterizzato a 1.000, il roll-off (tone mapping) comincia dal 70% del picco misurato ossia a circa 518 cd/m2. A 4.000 comincia da circa 444 cd/m2 e a 10.000 a 370 cd/m2. Quindi, per vedere la differenza, devi visionare la stessa scena con luci oltre i 520 cd/m2.

Di seguito, un esempio grafico (non fatto benissimo ma rende l'idea) della curva PQ e relativi tre roll-off:

sBf9jaRHqY9HHdJH6


Detto quanto sopra, faccio due domande per vedere se avete capito:
1) su un TV che "rolloffa" sempre alla stessa percentuale indifferentemente dal "mastered at", che succede se un film a 1.000 gli dico che è a 4.000?
2) su un film masterizzato a 1.000 cd/m2, significa che il picco di luminanza di quel film è 1.000 cd/m2?
 
Ultima modifica:
Gran parte di quanto dici è vanificato dagli algoritmi del dynamic tone mapping che non sono affatto così semplicistici basati su soglie come presumi. Il preconcetto poi che hai sui videoproiettori che non sarebbero “degni” dell’HDR fa il resto. Evidentemente non hai mai visto il DTM dei JVC in azione o meglio ancora soluzioni come radiance o madvr.
Il sottotesto del tuo sproloquio è: cosa parliamo a fare con te che hai il VPR, piuttosto ora ti spiego un po’ di teoria che non ci capisci molto… Resta pure della tua idea ma PER ME (come continuo a dire) non è accettabile in un prodotto di questa classe avere metadati errati e inaccuratezze inspiegabili.
Mi duole dire ciò perché ti reputo una persona intelligente che però credevo meno assiomatica e più oggettiva.
Il fatto che a te non piacciano i VPR non deve condizionare il giudizio su un prodotto calato anche in contesti e usi diversi.
 
Ultima modifica:
Un film a 1000 sul mio oled dovrebbe avere il riferimento a 518, secondo il regista. Se gli dico erroneamente che è 4000, si "ferma" a 444... Quindi mi "scurisce" tutte le scene SOTTO a questa soglia, per tenersi il margine da mostrare sopra? Ammetto che è un casino, un argomento interessante ma sopra (nettamente sopra) le mie conoscenze e capacità di comprensione
 
Con questa storia uscita fuori ormai sono un paio di giorni che faccio confronti.

Per quanto riguarda HDR10 confermo l'assoluta mancanza di percezione di differenze tra ATV e app della TV.

Invece il problema a me, stranamente, si pone sul DV. Ho fatto le medesime prove e, nonostante ATV dia una sensazione di una visualizzazione più pulita (insomma si vede meglio), ho constatato che con le medesime impostazioni il DV di ATV è leggermente più scuro.

Certo potrei aumentare di un punto la Gamma e risolverei, sempre se di problema si tratta.
 
Non esattamente Max, non dipende dal regista il punto di roll-off ma dal produttore del TV e/o dal calibratore/proprietario. Le scene che verrebbero mappate (quindi nel caso di un film a 1000 passato a 4000) sono quelle da 444 cd/m2 in su. In realtà, dovrei parlare anche di MaxCLL e MaxFALL, ma credo sia importante prima capire come funziona l'HDR. Ci sono articoli su altre testate, nel tentativo di fare informazione, fanno disinformazione anche se in buona fede. Per carità, tutti sbagliamo. A me capita spesso, però se scrivo un articolo cerco di essere certo che quello che scrivo sia esatto.

Gran parte di quanto dici è vanificato dagli algoritmi del dynamic tone mapping

Mi spiace che tu usi questi toni. Io non parlo per sentito dire o perché l'ho letto su un forum, io studio gli standard e mi fido solo di quelli. Liberissimo di mettere in dubbio quello che scrivo, ma fallo dopo aver letto e capito gli standard, altrimenti fai disinformazione arrabbiata. L'HDR funziona con metadati statici, pertanto il tone mapping dinamico del TV andrebbe disabilitato SEMPRE. Diciamo che è l'equivalente del contrasto dinamico su SDR. A qualcuno può piacere e nessuno ne vieta l'utilizzo. Però, non sostituisce il riferimento e, quindi, non può essere argomento per denigrare chi parla di riferimento.

Il preconcetto poi che hai sui videoproiettori che non sarebbero “degni” dell’HDR fa il resto
Non ho nessun preconcetto sui VPR, anzi! Mi piacerebbe avere lo spazio, le possibilità economiche e il tempo per allestire una sala cinema tutta mia. Ma se leggessi lo standard BT.2100, capiresti che già un TV con 1.000 cd/m2 di picco e copertura dello spazio colore DCI-P3 rende il 10% di quello che dovrebbe essere l'HDR, figurati un VPR (o un TV) con picchi e copertura più bassi.

Il sottotesto del tuo sproloquio è: cosa parliamo a fare con te che hai il VPR, piuttosto ora ti spiego un po’ di teoria che non ci capisci molto…
Non sono il genere di persona che fa guerre di tecno-religione e non faccio sproloqui e, come detto, magari potessi permettermi una sala cinema con proiettore! Ma non ho ne spazio, ne soldi, ne tempo.

Il sottotesto del mio discorso è: prima di sparare a zero, cerchiamo tutti (me compreso, visto che, appresa la notizia, lì per lì ho detto un paio di stupidaggini) di capire il perché di certe decisioni prese da questo o quel produttore, partendo dalle basi e dal contesto in cui le basi vengono applicate. Mi sembra interessante, no? Anche perché quando Apple (o altri) sembra aver fatto una stupidaggine, sotto c'è un valido motivo tecnico e/o economico.

Mi duole dire ciò perché ti reputo una persona intelligente che però credevo meno assiomatica e più oggettiva.
Ti ringrazio del complimento, credo di essere normodotato. Però, mi piace scrivere con cognizione di causa su argomenti che mi appassionano. Per il resto, sono un gran "cazzone" (inteso come persona goliardica e sempre pronta a sparare cagate). Sono tutto l'opposto di assiomatico, studio documenti ufficiali proprio per essere il più obiettivo possibile. In gioventù, sono stato troppe volte vittima dei teoremi da forum, per continuare a fare figuracce alla soglia dei 50.

Il fatto che a te non piacciano i VPR non deve condizionare il giudizio su un prodotto calato anche in contesti e usi diversi.
Evidentemente non hai mai visto il DTM dei JVC in azione o meglio ancora soluzioni come radiance o madvr.
Non ho giudizi sui VPR, non ne ho mai posseduto uno, ne ci ho mai messo le mani sopra seriamente. Come detto, magari potessi averne uno in una saletta cinema tutta mia!
Per quanto riguarda il DTM (bellissima sigla!) e madvr, non possono fare miracoli e dare più luminanza a TV e VPR. Con algoritmi proprietari, cercheranno di andare oltre i limiti e rendere visivamente meglio l'HDR. Ma il limite resta (più evidentemente) sui VPR e (un po' meno) sui TV.
 
Top