Grazie per la spiegazione Anger. :)
.
Visualizzazione Stampabile
Grazie per la spiegazione Anger. :)
.
Il colorista interviene sempre ma, mentre in HDR10 l’intervento è diretto, in Dolby Vision è l’utility di conversione che fa il lavoro che poi viene eventualmente revisionato.
Non essendo del settore non riesco a comprendere ed entrare troppo nei tecnicismi ma se dovessi suddividere i dubbi:
1) Su TV con nits di picco >= 1000 (come S90C, G3, G2, LZ1500) il Dolby Vision diviene sempre più "inutile" mentre rimarrebbe preferibile su TV con nits < 1000 (come C3, LZ1000) indipendentemente dal tipo di pannello?
2) Nel caso in cui un contenuto disponesse solo di Dolby Vision e HDR10 (non HDR10+) su Samsung S90C verrebbe riprodotto in HDR10 e sarebbe comunque visivamente "non inferiore" allo stesso contenuto riprodotto su altra TV con nits simili o superiori (tipo G3) in Dolby Vision?
3) Quindi Sony con i suoi QD-OLED o altri produttori come LG e Panasonic che offrono Dolby Vision anche su TV che raggiungono nits superiori a 1000 starebbero continuando a pagare tale supporto per "niente"?
4) RTINGS nonostante consigli S90C tra i vari, riporta:
Citazione:
You're losing out on a few advanced features, like Dolby Vision HDR, so some movies don't look quite as good, as well as advanced audio features like DTS:X
In riferimento a LG G3 (ed in parte anche a C3):Citazione:
Sadly it doesn't support any DTS audio formats, making it tricky for a home entertainment center, and it only has adequate low-quality content smoothing, which isn't optimal for streaming services with low bitrates.
Sembra quindi che S90C sia quasi preferibile solo in ambito gaming.Citazione:
The LG gets brighter than the Samsung in HDR, but the latter outputs more vibrant colors. The Samsung also supports 4k @ 144Hz, while the LG is limited to 4k @ 120Hz. The Samsung also has a much wider color gamut and more accurate colors, so it's great for HDR gaming. However, the LG supports DTS audio formats and Dolby Vision making it great for Blu-ray movie fans, and it also has better low-quality content smoothing, making it better for watching streaming content, especially in low-bitrate situations.
5) Non ricordo se fossero i QD-OLED, a seconda delle condizioni di luce, ad avere neri tendenti al grigio.
6) Non so se sia vero ma leggevo che se si è sfortunati è possibile ritrovarsi S90C con pannello della serie dello scorso anno.
Grazie.
@Stelock
Vorrei soffermarmi su una differenza che balza subito all' occhio mettendo di fianco un Lg e un Samsung e che sarebbe giusto sempre puntualizzare.
Samsung ha una resa più morbida in stile Panasonic, Lg così come Sony e Philips spinge di più sulla nitidezza e il dettaglio.
Entrambe le filosofie hanno pro e contro e questo aspetto può contribuire a fare la differenza tra uno e l' altro.
Per tutte le altre risposte, potresti guardare le tante vecchie discussioni già fatte sul forum ma molto probabilmente tra gli utenti che hai citato, quello preparato potrebbe nuovamente e per l' ennesima volta ripetersi. @Miki
Non "per niente", la gente percepisce il Dolby Vision come un vantaggio e preferisce comprare TV che lo supportino. In questo caso, Samsung si trova, suo malgrado e per motivi diversi, a comportarsi da giapponese, ossia non supportando funzioni che non ritiene utili (anche se il vero motivo non è quello), e i giapponesi si comportano come i coreani, ossia se la funzione vende la supporto.
Purtroppo, è davvero difficile riuscire a far capire come funzioni il DV (o qualsiasi altro formato a metadati dinamici) senza usare tecnicismi. Ci provo, semplificando molto: diciamo che il tone mapping è il nemico, evitarlo è lo scopo finale. Se non possiamo, un sistema a metadati dinamici è preferibile poiché non dipende da una sola curva di tone mapping ma ne può avere molte. Quindi può fare in modo che una scena sia clippata e abbagli lo spettatore mentre un'altra mostri tutti i dettagli luminosi scurendo la scena stessa. Con metadati statici avresti o l'uno o l'altro in base alla scelta del produttore della TV (gradazione o luminanza). Premesso che molti film HDR non superano gli 800 nits e tralasciando il discorso ABL, prendiamo un TV capace proprio di 800 nits e guardiamo un film il cui pixel più luminoso è 1.000 nits ed è il sole a mezzogiorno. Con metadati statici avrò o il sole di un solo bianco a 800 nits e il resto della scena con la giusta luminosità o il sole composto da diverse sfumature di bianco (i famosi dettagli), di cui quella centrale a 800 nits, e il resto della scena (o una parte di essa) più scura del previsto. Con metadati dinamici posso avere, nello stesso film l'uno o l'altro. Senza tone mapping avrei dettagli e giusta luminosità. Quindi se non mettete fianco a fianco un TV con DV e uno con HDR10 mentre mostrano lo stesso film in formati diversi, non vi accorgerete mai della differenza. Inoltre, il DV è implementato male su tutti i TV, specialmente sui Sony. LG è il meno peggio. Significa avere a volte il nero elevato, a volte neri affogati e strane curve di tone mapping che clippano e scuriscono insieme.
No comment. Spero presto di poter fare un confronto tra un TV con e uno senza DV. Io valuto l'immagine di un TV non in termini di "bontà" ma di "accuratezza". Il Dolby Vision non sarà mai accurato come HDR10, con qualsiasi TV. L'immagine potrebbe essere più "acchiappona" su TV con basse potenzialità, ma mai altrettanto accurata.
Per quanto riguarda il DTS, il mio S95C legge le tracce audio DTS, non so perché ma lo fa. Non sono esperto di formati audio.
E' vero, il G3 è più luminoso (il C3 proprio no) del S95C di 100 nits (nulla) ma utilizzando un algoritmo di brightness boosting, a volte, rende i dettagli speculari più luminosi. A volte sono più luminosi su S95C. Questo riguarda solo il bianco però, per il resto del colori non c'è partita. Ma il vero problema dei pannelli MLA è il chrominance overshooting. Lo vedrai sempre su ogni viso con con una parte illuminata e l'altra ombreggiata. Per me è insopportabile e un passo indietro rispetto alle generazioni precedenti. Altro discorso: low quality content smoothing... se parliamo di upscalare sorgenti a 480p ti rispondo "ma chi le guarda?" e comunque va benissimo anche il Samsung. Se parliamo di gradazione di contenuti molto compressi, non è qualche scalettatura in meno a farmi godere di più il contenuto. Sono discorsi da "fianco a fianco" e giustamente validi se affrontati in una recensione, ma non credere che la differenza sia così atroce, anche perché parliamo di processamento dell'immagine che comporta spesso lo smussare anche i dettagli, facendoli sparire.
S90C è preferibile al S95C per il gaming (4 porte a 48Gbps invece di 40Gbps), rispetto ai pannelli WRGB, per me, è preferibile in tutto.
Il discorso pannelo di prima o di seconda generazione vale per i 55" e i 65", i 77" sono solo di seconda generazione. Non è un discorso di sfortuna, a meno che non si sia intenzionati ad applicare una semplice modifica (da service menu) per trasformare S90C in S95C, se ti mostrassi un S90C con pannello di prima generazione e un altro di seconda, non sapresti dirmi quale è quale. Te lo garantisco. Però certo, capisco che si preferisca avere quello di seconda gen. Credo che quelli di prima siano terminati, comunque. Specialmente ordinando direttamente dallo store Samsung. In ogni caso, è abbastanza semplice controllare da service menu e, in caso, rendere il TV e prenderne un altro esemplare. Capisco che è uno sbattimento, ma questo è.
Quando ti arriva, contattami via messaggi privati e ti dico tutto. Devi avere un telecomando Samsung con i tasti numerici o un cellulare con porta infrarossi.
Finalmente, mi sono ricordato di controllare se le singole sorgenti (HDMI e app interne) mantengono ciascuna l’ultima modalità immagine utilizzata. Ebbene no, la modalità immagine è comune a tutte. Quindi se su Netflix utilizzo film, poi passo al lettore Blu-ray, utilizzo FilmMaker Mode e infine torno su Netflix, quest’ultima app utilizzerà FilmMaker Mode e non Film. Ovviamente, quando guarderò un contenuto HDR la modalità utilizzata passerà alle corrette impostazioni HDR.
In pratica c'è un solo banco per SDR ed uno per HDR. Si sono sprecati....
No, ho semplicemente (non abbastanza evidentemente) detto che il TV mantiene l’ultima modalità immagine utilizzata e la usa per tutte le sorgenti. Le modalità immagine saranno 4 o 5 ma, come su ogni TV, alla fine se ne utilizzano 2/3.
Ma se regoli ad esempio la modalità filmaker (o qualsiasi altra) sul digitale terrestre, poi quando passi su un ingresso esterno o lanci un app selezionando la stessa modalità questa riporta le stesse regolazioni? Mi spiego meglio, ad esempio sul mio TV se modifico la modalità professionale sul digitale terrestre e poi seleziono HDMI 1 la modalità professionale la posso settare in maniera differente da come ho regolato la stessa modalità sul digitale terrestre. In pratica per ogni ingresso posso settare la stessa modalità in modi diversi e quando seleziono quell' ingresso mi trovo la mia regolazione. Non so se sono stato chiaro. È così anche sul Samsung?
Grazie per il tuo intervento.
Soggettivamente potrei anche preferire la resa di LG, poi saltano fuori difetti come il nominato chrominance overshooting (anche se ho visto solo un paio di video che lo mostrano in alcune scene) e boh, non farebbe piacere nemmeno quello :D
LZ1500 non saprei come si potrebbe comportare sotto questo aspetto.
Ho espresso tali dubbi successivamente all'intervento di Anger.Miki, non volevo far "ripetere" nessuno in particolare :D
@Anger.Miki
Intanto grazie per le varie delucidazioni :)
Si tenta di evitarlo con TV con picchi di luminanza superiori al contenuto riprodotto?
Se così fosse, in HDR (che sia HDR10/HDR10+/Dolby Vision o altro) il tone mapping si "attiverebbe" comunque in modalità HDR sia statica che dinamica anche per esempio con contenuto a 800 nits su TV di 1000 nits od in questo caso in modalità HDR statica/dinamica, il TV riuscirebbe a gestire l'HDR senza l'intervento del tone mapping e quindi ad offrire, se ho ben capito, il miglior risultato possibile?
Qua mi sono perso con i vari "o" riferiti ad entambi i tipi di metadati :D
Sempre in caso di tone mapping, con metadati statici otterrei, a seconda dei casi descritti, un risultato più o meno buono ma comunque fisso per tutta la durata del film mentre con metadati dinamici:
a) otterrei il meglio dei due casi scena per scena?
oppure
b) otterrei un risultato similare ai metadati statici con l'unica differenza di un adattamento scena per scena?
Infine, al di là dell'effettiva qualità tra HDR10/HDR10+/Dolby Vision, se per esempio dovessero prendere piede contenuti a, non so, 1200 nits ed in questo caso mettiamo il Samsung S90C si fermi a 1000 e quindi subentrasse il tone mapping, contando che scrivi:
e che il Dolby Vision, salvo rivoluzioni, restasse il formato dinamico più diffuso, non sarebbe più "future-proof" un TV che appunto offre DV per quei contenuti che dovessero supportare solo DV/HDR10 e non HDR10+?
:D
L'ho riportato giusto per avere un "riferimento" da profano e perché spesso vedo consigliare modelli anche in base a recensioni di siti ritenuti autorevoli tra cui quello nominato, non volevo "offendere" nessuno :D
Mi piace questo concetto secondo cui i coreani sono i nuovi giapponesi!