E allora perchè lo chiedi? :D
Comunque ce ne sono molti HDR10.
Visualizzazione Stampabile
E allora perchè lo chiedi? :D
Comunque ce ne sono molti HDR10.
Sta diventando faticoso...
Aspettiamo la percentuale che ci darà Ferrara89 allora, cosi riposerai un pò.
Ho precisato che parlavo di VOD, per quei pochi casi dove visiono file locali uso Zidoo.
Per quanto riguarda la calibrazione, non potrebbe essere fatta in automatico col software JVC e non mi va di spendere tempo extra per sopperire ai problemi di un lettore strapagato che mi aspetto essere accurato.
Anche la mia critica è costruttiva, ti dicevo che sono ancora più arrabbiato perché ero intenzionato ad acquistarlo come lettore definitivo, ma i problemi sono troppi e PER ME inaccettabili.
Non è un problema di prezzo, la Firestick 4K ha oggettivamente il solo "problema" dei microscatti con contenuti non Amazon Prime Video, quindi per il VOD resta tuttora la soluzione migliore.
Se non notate differenze potrebbe essere che è perché usate un dynamic tone mapping che non usa i metadati.
Io tra 1000, 4000 e 10000 nits la differenza la vedo eccome. Basta vedere i test disc Spears & Munsil.
E' difficile dare una percentuale bisognerebbe veramente spulciare il catalogo titolo per titolo, magari c'è qualche sito che lo ha fatto ma sinceramente non mi interessa più di tanto visto che uso Disney+ solo per i contenuti originali che non si trovano su disco, però essendo di natura curioso a volte mi metto a girovagare nel catalogo.
Da persona esterna sembra non aver una logica di come carichino i film, te li puoi trovare in HD o in HDR10 o in DV (mi sembra invece di non aver mai trovato niente in 4k SDR però non ci metto la mano sul fuoco), li devi veramente aprire uno per uno.
Non puoi neanche cercare di capire lo schema prendendo in considerazione la controparte 4k su disco perchè viaggiano apparentemente su 2 strade diverse, per esempio ho visto nel catalogo "Tutti pazzi per Mary" o "10 cose che odio di te" in 4K HDR10 ma non esiste il disco 4k e sicuramente ci saranno anche altri titoli, la saga "Star Wars" tutta in DV ma su disco esiste solo la versione HDR10 (tranne 1 capitolo se non ricordo male), la saga "Die Hard" tutta in HDR10 ma su disco c'è solo il primo capitolo su 4k, stessa storia di Star Wars per quando riguarda i film della saga Marvel.
Anche i Pirati dei Caraibi nel catalogo sono tutti in DV tranne uno (Ai Confini del Mondo) che è invece in HD così per me senza apparente motivo, ecco per quanto riguarda la saga Pirati dei Caraibi fino all'altro giorno non esistevano i dischi 4k ma ora sono spuntati all'estero i preordini di tutti i 5 film per fine dicembre e parrebbero avere "solo" l'HDR10.
Insomma questa è la situazione del catalogo HDR10/DV di Disney+, se aspettavate da me una percentuale mi dispiace di avervi deluso ma è un lavoraccio enorme da fare, invece per quanto riguardo la risoluzione dei film caricati nel catalogo mi sembra veramente un terno al lotto ma magari mi sta sfuggendo qualcosa.
Esattamente. La domanda era retorica e simpaticamente provocatoria. Io come te guardo solo contenuti originali e, finora, mi sono imbattuto solo in materiale in DV. ;) Diciamo che rispetto a Prime Video, dove la stragrande maggioranza dei titoli HDR è in HDR10, Disney+ ha la stragrande maggioranza dei titoli HDR in DV.
@CyberPaul: La differenza tra un film HDR masterizzato a 1000 cd/m2 e uno masterizzato a 4000 cd/m2 è come lo schermo che riceve le immagini interpreta il dato. Considerato che la curva PQ-EOTF è un riferimento assoluto, ad un dato stimolo deve corrispondere una determinata luminanza (es: la tripletta 128,128,128 deve dare 0.1465 cd/m2) su qualsiasi schermo. Quindi, la differenza tra un proiettore con picco di 100 cd/m2 e un ideale schermo con picco a 10.000 cd/m2 è che da 0 a 100 cd/m2 seguono (o dovrebbero seguire) la stessa identica curva PQ EOTF, poi il proiettore "clipperà" tutto il resto mentre lo schermo ideale no. Detto ciò, subentrano le scelte dei vari produttori, poiché lo standard BT.2100 nulla dice in merito a come dovrebbe comportarsi uno schermo che non raggiunge 10.000 cd/m2 di picco. Alcuni produttori preferiscono conservare i cosiddetti "spectral highlight details" e altri preferiscono mantenere l'effetto accecante. Si tratta di filosofie e nessuna delle due è corretta o sbagliata, perché non esiste una regola. LG dal 2019 permette ai calibratori di decidere come deve comportarsi il TV, Sony da un paio d'anni (se non ricordo male) ha 2/3 settaggi per accontentare (quasi) tutti. Altri hanno un punto di roll-off in base ai metadati ricevuti. Vale lo stesso per i proiettori solo che spesso non potendo raggiungere neanche i 203 cd/m2 del bianco diffuso, il risultato è un tone mapping pressoché totale. Torniamo al proiettore con picco 100 cd/m2, gamut colore a parte, come farà a rendere la differenza tra un film HDR10 masterizzato a 1000 e uno a 4000 cd/m2? Modulerà la parte della sua capacità luminosa dedicata al tone mapping. Diciamo che con i 1.000, il punto di roll-off è 90 cd/m2 mentre con 4.000 è 80 e con 10.000 è 70. Se gli arriva un film che originariamente è a 1.000 ma che la ATV gli dice essere a 4.000, il proiettore comincerà il suo roll-off a 80 invece che a 90 cd/m2 clippando poi tutto a 100 cd/m2. Avrai quindi un'immagine meno punchy e tendenzialmente più scura nella fascia da 80 cd/m2 in su. Ma solo su quella fascia! Ovvio che i produttori di proiettori si siano lasciati molto più spazio per dare dinamica alle luci e, pertanto, l'effetto è assolutamente più evidente. Ha senso l'HDR e il DV su un proiettore? Per me, no.
Su un TV OLED la situazione è diversa a seconda del produttore e del modello. Prendiamo per esempio un LG C9 e come può essere gestito il roll-off:
https://images.app.goo.gl/dSnHz9vQQBWMZK9F9
Picco a 740 cd/m2, con materiale masterizzato a 1.000, il roll-off (tone mapping) comincia dal 70% del picco misurato ossia a circa 518 cd/m2. A 4.000 comincia da circa 444 cd/m2 e a 10.000 a 370 cd/m2. Quindi, per vedere la differenza, devi visionare la stessa scena con luci oltre i 520 cd/m2.
Di seguito, un esempio grafico (non fatto benissimo ma rende l'idea) della curva PQ e relativi tre roll-off:
https://images.app.goo.gl/sBf9jaRHqY9HHdJH6
Detto quanto sopra, faccio due domande per vedere se avete capito:
1) su un TV che "rolloffa" sempre alla stessa percentuale indifferentemente dal "mastered at", che succede se un film a 1.000 gli dico che è a 4.000?
2) su un film masterizzato a 1.000 cd/m2, significa che il picco di luminanza di quel film è 1.000 cd/m2?
Gran parte di quanto dici è vanificato dagli algoritmi del dynamic tone mapping che non sono affatto così semplicistici basati su soglie come presumi. Il preconcetto poi che hai sui videoproiettori che non sarebbero “degni” dell’HDR fa il resto. Evidentemente non hai mai visto il DTM dei JVC in azione o meglio ancora soluzioni come radiance o madvr.
Il sottotesto del tuo sproloquio è: cosa parliamo a fare con te che hai il VPR, piuttosto ora ti spiego un po’ di teoria che non ci capisci molto… Resta pure della tua idea ma PER ME (come continuo a dire) non è accettabile in un prodotto di questa classe avere metadati errati e inaccuratezze inspiegabili.
Mi duole dire ciò perché ti reputo una persona intelligente che però credevo meno assiomatica e più oggettiva.
Il fatto che a te non piacciano i VPR non deve condizionare il giudizio su un prodotto calato anche in contesti e usi diversi.
Un film a 1000 sul mio oled dovrebbe avere il riferimento a 518, secondo il regista. Se gli dico erroneamente che è 4000, si "ferma" a 444... Quindi mi "scurisce" tutte le scene SOTTO a questa soglia, per tenersi il margine da mostrare sopra? Ammetto che è un casino, un argomento interessante ma sopra (nettamente sopra) le mie conoscenze e capacità di comprensione
Con questa storia uscita fuori ormai sono un paio di giorni che faccio confronti.
Per quanto riguarda HDR10 confermo l'assoluta mancanza di percezione di differenze tra ATV e app della TV.
Invece il problema a me, stranamente, si pone sul DV. Ho fatto le medesime prove e, nonostante ATV dia una sensazione di una visualizzazione più pulita (insomma si vede meglio), ho constatato che con le medesime impostazioni il DV di ATV è leggermente più scuro.
Certo potrei aumentare di un punto la Gamma e risolverei, sempre se di problema si tratta.
Non esattamente Max, non dipende dal regista il punto di roll-off ma dal produttore del TV e/o dal calibratore/proprietario. Le scene che verrebbero mappate (quindi nel caso di un film a 1000 passato a 4000) sono quelle da 444 cd/m2 in su. In realtà, dovrei parlare anche di MaxCLL e MaxFALL, ma credo sia importante prima capire come funziona l'HDR. Ci sono articoli su altre testate, nel tentativo di fare informazione, fanno disinformazione anche se in buona fede. Per carità, tutti sbagliamo. A me capita spesso, però se scrivo un articolo cerco di essere certo che quello che scrivo sia esatto.
Mi spiace che tu usi questi toni. Io non parlo per sentito dire o perché l'ho letto su un forum, io studio gli standard e mi fido solo di quelli. Liberissimo di mettere in dubbio quello che scrivo, ma fallo dopo aver letto e capito gli standard, altrimenti fai disinformazione arrabbiata. L'HDR funziona con metadati statici, pertanto il tone mapping dinamico del TV andrebbe disabilitato SEMPRE. Diciamo che è l'equivalente del contrasto dinamico su SDR. A qualcuno può piacere e nessuno ne vieta l'utilizzo. Però, non sostituisce il riferimento e, quindi, non può essere argomento per denigrare chi parla di riferimento.
Non ho nessun preconcetto sui VPR, anzi! Mi piacerebbe avere lo spazio, le possibilità economiche e il tempo per allestire una sala cinema tutta mia. Ma se leggessi lo standard BT.2100, capiresti che già un TV con 1.000 cd/m2 di picco e copertura dello spazio colore DCI-P3 rende il 10% di quello che dovrebbe essere l'HDR, figurati un VPR (o un TV) con picchi e copertura più bassi.
Non sono il genere di persona che fa guerre di tecno-religione e non faccio sproloqui e, come detto, magari potessi permettermi una sala cinema con proiettore! Ma non ho ne spazio, ne soldi, ne tempo.
Il sottotesto del mio discorso è: prima di sparare a zero, cerchiamo tutti (me compreso, visto che, appresa la notizia, lì per lì ho detto un paio di stupidaggini) di capire il perché di certe decisioni prese da questo o quel produttore, partendo dalle basi e dal contesto in cui le basi vengono applicate. Mi sembra interessante, no? Anche perché quando Apple (o altri) sembra aver fatto una stupidaggine, sotto c'è un valido motivo tecnico e/o economico.
Ti ringrazio del complimento, credo di essere normodotato. Però, mi piace scrivere con cognizione di causa su argomenti che mi appassionano. Per il resto, sono un gran "cazzone" (inteso come persona goliardica e sempre pronta a sparare cagate). Sono tutto l'opposto di assiomatico, studio documenti ufficiali proprio per essere il più obiettivo possibile. In gioventù, sono stato troppe volte vittima dei teoremi da forum, per continuare a fare figuracce alla soglia dei 50.
Non ho giudizi sui VPR, non ne ho mai posseduto uno, ne ci ho mai messo le mani sopra seriamente. Come detto, magari potessi averne uno in una saletta cinema tutta mia!
Per quanto riguarda il DTM (bellissima sigla!) e madvr, non possono fare miracoli e dare più luminanza a TV e VPR. Con algoritmi proprietari, cercheranno di andare oltre i limiti e rendere visivamente meglio l'HDR. Ma il limite resta (più evidentemente) sui VPR e (un po' meno) sui TV.
Potresti spiegare meglio come riusciresti? Scusate la mia ignoranza ma anch’io soffro un po’ le scene troppo scure in DV su Apple TV, ma la mia LgC16 non mi permette di toccare la gamma con uscita Dolby Vision attivata, quindi non posso regolarla di conseguenza!!!
Parlare di gamma in ambito HDR10/DV non è corretto, bisognerebbe parlare di EOTF/PQ. E' però anche vero che la calibrazione dei TV in HDR10/DV avviene tramite la calibrazione della curva del gamma 2.2 che poi viene matematicamente trasformata in PQ.
In ogni caso, onde evitare conseguenze peggiori, occorre dotarsi di un colorimetro profilato su uno spettrometro di riferimento (Jeti, CR, Konica Minolta, ecc.).
Quindi meglio lasciar tutto com’è?! :) non sono di certo in grado di spingermi oltre tra sonde da profilare e programmi di calibrazione :)
Se non hai gli strumenti idonei meglio evitare di cambiare le impostazioni al TV perché rischi facilmente di sballare l’immagine piuttosto che migliorarla, se invece sei interessato solo a provare a toccare il gamma a seconda della TV che hai può essere più o meno semplice a secondo delle impostazioni che ti propone nel menu
@anger.Miki
Ero indietro di qualche giorno e quindi mi allaccio solo ora alla questione, comunque i contenuti nuovi o comunque recenti su Disney plus godono praticamente tutti del Dolby vision ma se vai su cose più datate ovviamente non c’è quindi all’effettivo sono tanti anche i semplici hdr10, e su alcuni hanno anche fatto qualche pastrocchio secondo me prendendo il dvd e buttandolo in qualche maniera in 4k hdr e ne escono scene con luminosità completamente sballate, però essendo film datati si soprassiede...
volevo aggiungere invece una cosa che mi ha fatto rimanere male anche se non è completamente in topic.. ho comprato il disco 4k di black widow per avere quella che teoricamente avrebbe dovuto essere la massima qualità, invece poi ho scoperto che non gode del Dolby vision come la versione in streaming! Purtroppo non ho ne le attrezzature ne le conoscenze utili a fare un confronto tra disco e streaming però già di base la cosa fa incavolare visto che il disco costa come diversi mesi di abbonamento...