Visualizzazione Stampabile
-
Chiedo scusa ma dissento.
La mia è solo una "speculazione teorica" non avendo modo di fare pratica al momento, sia ben chiaro...
Specificato questo...
Un video in SDR ha, per definizione, una profondità colore di 8 bit per componete cromatica.
256 variazioni possibili di Rosso, Verde e Blu rispettivamente.
Il che porta a un totale di 16.7 milioni di colori in totale.
E ha una gamma dinamica di 6 stop.
Un video in HDR ha, per definizione, una profondità colore di 10 bit per componete cromatica.
1024 variazioni possibili di Rosso, Verde e Blu rispettivamente.
Il che porta a un totale di 1 miliardo di colori in totale.
E ha una gamma dinamica di 17.6 stop (se visualizzato con 2.000 cd/mq).
Per non parlare dei filmati con i metadati dinamici che si spingono oltre...
In aggiunta la fatto che i video SDR sono codificati con una luminosità molto inferiore a quelle dei video in HDR.
Ora, ripentendo che il mio è un puro e semplie ragionamento teorico perché non ho alcun dispositivo che mi permetta di usufruire dell'HDR, e con tutta l'umilta di questo mondo...
Come può un filmato con i limiti dell'SDR avere il gamut esteso dell'HDR se non ha la profondità colore necessaria e la luminosità sufficiente?
Come possono 16.7 milioni di colori bastare (contro 1 miliardo dell'HDR)?
Come può la luminosità si un SDR essere sufficiente (contro quella molto più elevata dell'HDR)?
E lo chiedo con sincera curiosità...
-
Si ho fatto delle prove la TV non commutando in HDR riduce fortemente la luminosità del video. Credo che si possa ovviare al problema smanettando con tutti quei campi che la build 113 ha creato nel HDR di madVR.
-
Madvr non può farci niente, ad esempio nel mio OLED LG B7 se non commuti in HDR la luminosità di picco rimane ridotta e quindi nonostante riesca a sfruttare il tone mapping di madvr, setto quest'ultimo affinchè commuti il TV in HDR.
Fortunatamente il tone mapping dell'LG si fa da parte, ricevendo e sfruttando bene quello che gli manda madvr.
Su altre TV il problema non si pone e quindi si può fare a meno di commutarle in HDR
Per i VPR, basta forzare la lampada in high ed il problema è risolto.
Non esistono regole precise, è una giungla di comportamenti differenti da modello a modello.
Riguardo alla domanda precedente, rispondo facendo notare che il deep color esiste da molto prima che si parlasse di HDR ...
E che l'HDR continua a funzionare perfettamente quando in RGB 444 per limitazioni dell'HDMI 2.0 per rate superiori a 24Hz. i 10 bit di profondità colore vengono ridotti ad 8 bit
-
Citazione:
Originariamente scritto da
Microfast
[CUT]..........Riguardo alla domanda precedente, rispondo facendo notare che il deep color esiste da molto prima che si parlasse di HDR ...
E che l'HDR continua a funzionare perfettamente quando in RGB 444 per limitazioni dell'HDMI 2.0 per rate superiori a 24Hz. i 10 bit di profondità colore vengono ridotti ad 8 bit
Riguardo al Deep Color lo so che esiste da prima dell'HDR ma, mi pare, sia comunque una cosa che debba essere "nel filmato", se emulata non è proprio la stessa cosa...
Se sbaglio chiedo venia.
Riguardo al fatto che, per limitazioni di connesioni, dopo la conversione da 10 bit a 8 bit l'HDR continui a funzionare mi pare alquanto curioso.
Ci credo, ovviamente, ma comunque mi pare curioso dati i limiti degli 8 bit e quanto già detto.
Quando avrò, spero presto, la possibilità di "sbatterci le corna" di mio magari il tutto si paleserà meglio.
-
Considera che esistono BD-UHD in 2020 senza HDR, anche trasmissioni UHD in 2020 ma senza HDR.
Poi ti stupirà ancora di più conoscere che esistono pochissime scene in altrettanti pochi film dove il gamut esteso viene effettivamente sfruttato ...
Il problema è che a suon di nuovi standard e features che poi nella realtà servono a poco o nulla si cerca di far cambiare l'hardware ( e pure i software ), all'utente.
Invece si trascurano sistematicamente i fondamentali che permetterebbero all'utente una buona resa ...
Sarà un caso ma quasi ovunque andiamo ad installare troviamo situazioni nella migliore delle ipotesi ben lontane dall'ottimale e che richiedono ore ed ore di calibrazioni difficilmente alla portata di un utente normale e degli strumenti ( ma anche possibilità di regolazione ) spesso e volentieri non presenti o scarsamente presenti nei normali apparecchi consumer.
E' sempre stato così in HIFI e così sta diventando anche in HT, dove proprio l'HDR per come è stato proposto ha complicato assai la situazione.
-
Lo allego anche qui, https://www.dropbox.com/s/bdbgbg42n9...10bit.png?dl=0
Immagine test Gray scale con differenza 8 e 10bit
Forse sono orbo, ho verificato sul mio Monitor 4k LG 27UD68 che ne sono certo è nativo 10bit, le 2 bande sono praticamente identiche e tutte e 2 hanno lo stesso difetto di avere del banding.
La fascia a 10bit non è per niente migliore di quella a 8bit, è praticamente identica e tutte e 2 hanno gli stessi difetti di vedersi del banding.
Forse bisognerebbe fare un confronto con un gray scale fra 8 e 12bit
Stessa cosa succede con l'Optoma UHD65
Fabio
-
UHD sta per Ultra High Definition.
Ossia definizione ultra alta = 4K.
Mi chiedo che si inventeranno per l'8K...
La definzione di un video, in linea puramente teorica, non ha molto a che vedere con la sua profondità cromatica...
Definizione e numero di colori sono parametri indipendenti.
Noi li "legniamo" perché per motivi di standard e commerciali si trovano insieme nei BD4K.
Sul fatto che la gamma dell'HDR (uso la sigla per semplicità) sia usata non spesso, ci credo benissimo anche senza avere la possibilità di vederlo a casa mia o di fare prove altrove.
Del resto, anche il fatto che si usino pochissime scene per fare i test qualcosa significherà...
Certo, sono quelle fatte meglio, ma sono anche tra le poche dove la cosa è particolarmente "reale".
Che in molti casi sia venduto per HDR e poi di HDR non abbia nulla ne sono ben conscio.
Basta vedere alcuni video su YouTube di Vincent Teoh che prova dai video giochi ai film alle serie e smentiche i produttori che le spacciano per HDR...
Anche il fatto che le cose "dal vivo" nelle case degli utenti, siano "molto non idonee" per usare un eufemismo, non mi stupice, anzi...
E che gli standard, sempre più complessi e sempre più veloci nel susseguirsi complichino la cosa è solo, purtroppo, normale...
-
Fa sempre piacere trovare qualche utente maturo consapevole e che non si lascia infinocchiare ...
-
Citazione:
Originariamente scritto da
miguel
Potresti cortesemente linkarmi la discussione completa da dove hai estrapolato questo test? Io non la ritrovo, grazie
-
qui:
https://forum.doom9.org/showthread.php?p=1673855
oppure in prima pagina sempre allo stesso link
-
Citazione:
Originariamente scritto da
Microfast
Considera che esistono BD-UHD in 2020 senza HDR.........[CUT]
Forse volevi dire BD-UHD in BT.709 (quindi senza HDR) ?
Infatti per questa manciata di titoli, ho dovuto creare un'ulteriore profilo in madVR, visto che privi dell'HDR (quindi nessun utilizzo del Tone mapping), si può spingere un pò di piu con i settaggi
-
Vi chiedo un parere in ambito gpu, secondo voi una sapphire PULSE 5500 è migliore di una sapphire PULSE 580/590? purtroppo devo rimanere nel modello PULSE perché è l unica gpu di 23 cm che sta nel mio case.
-
Citazione:
Originariamente scritto da
miguel
Grazie.
Ho provato in tutti i modi, innanzitutto mappando il pannello 1:1, ma il miglior risultato è vedere entrambi i numeri 4:2:2 e 4:4:4 .
Eppure la scheda video è settato su full RGB 4:4:4 a 10 bit e window mi conferma che trattasi di RGB a 10 bit. La GPU, inoltre, è collegata direttamente al vpr, senza passare per l'ampli: come devo interpretare questo dato?
-
Citazione:
Originariamente scritto da
Nidios
Lo allego anche qui,
https://www.dropbox.com/s/bdbgbg42n9...10bit.png?dl=0
Immagine test Gray scale con differenza 8 e 10bit
Forse sono orbo, ho verificato sul mio Monitor 4k LG 27UD68 che ne sono certo è nativo 10bit, le 2 bande sono praticamente identiche e tutte e 2 hanno lo stesso difetto di avere del banding.
La fas..........[CUT]
Ma qualcuno è riuscito a fare questa prova? No perchè nel caso Lazy a ragione, a cosa serve 10bit se non è dimostrabile il suo miglioramento visivo a livello effettivo?
Fabio
-
@lello
Il tuo pannello allora non è 4:4:4.
La mia TV lg B9 se imposto la modalità PC ottengo a schermo solo 4:4:4. Se imposto la modalità home teather ottengo 4:2:2. E questo a parità di altri settaggi ( scheda video sempre su l full RGB)
@fabio
Ancora non ho fatto la prova. Ma la farò