Vi espongo un quesito: l'altro giorno ho provato a misurare la greyscale della mia calibrazione day per gaming (sliding power 2.25, 120cd/m" pattern 11%) usando come sorgente il mio PC, provando sia il lettore bluray che la riproduzione dei pattern da .mkv. Ho notato che con entrambi i programmi (PowerDVD / VLC) ho ottenuto un andamento stranissimo - mai visto prima in più di 20 calibrazioni con 20 catene video diverse - del blu alle basse IRE. Guardate il Blu da 20-40 IRE ed il picco del GAMMA a 90 IRE, oltre allo "scalino" troppo pronunciato a 20 IRE. Il dE alle basse IRE è decisamente alto, cosi come il dE u'v' (a 20 IRE è proprio sballato).
Di seguito il grafico.
Presupposto che:
- il metodo di calibrazione è sempre quello giusto, ovvero mai più di 5 click fino a 50 IRE (10 ire a parte); CUT a 0 -2 0; GAIN solito -11 0 -16, no WB10p da 50 IRE in su, ecc ecc.
- il dE medio è 1.19, non una catastrofe ma lontano dalle 0.7 circa della calibrazione regolare, sono i picchi 20-40 che mi turbano
- cambiando sorgente la greyscale torna ad essere quella che deve essere (pure da PS4 va bene!)
- ma che cavolo è quel gamma misurato a 90 IRE? Solitamente è proprio l'opposto (per via della ritenzione)
Cosa mi consigliate di fare? devo provare a pestare sul Blu/CUT per linearizzare o semplicemente .. me ne frego e lascio tutto così? :fuck:
Le impostazioni di uscita della scheda video sono tutte a defualt, l'uscita è in RGB con gamma dinamica completa.