Io credo, ma ovviamente non sono sicuro (ci vorrebbero dei test e delle analisi fattibili ma un po' complesse) che molto sia dovuto alla compressione del video. Come si diceva prima risoluzione e "pesantezza" del file dicono poco....l'algoritmo di compressione scelto e soprattutto il fattore di compressione invece potrebbero essere rivelatori. L'algoritmo di compressione (qualsiasi esso sia, tranne quelli lossless) non fa altro che eliminare dei dati ritenuti non essenziali. Più si spinge la compressione, più dati si perdono...mi viene da pensare che ai bassi ire si tenda a eliminare informazioni in modo massiccio perché, fino ad oggi, nessun tipo di tv si spingeva a riprodurre correttamente quelle situazioni. Anche i plasma, pur avendo in alcuni casi un livello del nero strepitoso soffrivano comunque di dithering e quindi non mostravano le "magagne" della sorgente compressa....voi che ne dite?
L'ideale per una prova empirica credo sarebbe prendere un filmato 4k compresso in maniera minima con molti passaggi in chiaro scuro e poi encodarlo in varie versioni sempre più compresse....a quel punto le si riproduce una alla volta guardando quando il problema si presenta. Ovviamente se si presenta alla visione già nella versione non compressa allora la mia tesi non sta in piedi
!
L'ideale per una prova empirica credo sarebbe prendere un filmato 4k compresso in maniera minima con molti passaggi in chiaro scuro e poi encodarlo in varie versioni sempre più compresse....a quel punto le si riproduce una alla volta guardando quando il problema si presenta. Ovviamente se si presenta alla visione già nella versione non compressa allora la mia tesi non sta in piedi
