Sam Cooper
New member
@clapatty il tuo ragionamento non fa una piega se fossimo di fronte ad immagini definitissime e prive di alcuna elaborazione digitale, ma penso (pur non essendo un ingegnere elettronico, né occupandomi di progettazione di display) che il risultato finale sia influenzato da come é stato realizzato il filmato sorgente e dagli algoritmi del processore video, diverso da produttore a produttore.
Mi spiego meglio: se riprendo una partita di tennis in pieno giorno con una telecamera capace di registrare 1200fps o più, ci sta che ogni fermo immagine riproduca una palla perfettamente definita (oltre allo sfondo), fluttuante a mezz'aria in un punto ben preciso dello schermo. E che il fotogramma successivo faccia la stessa identica cosa, con la palla spostata di qualche pixels.
Ma se il frame rate di ripresa si riduce, le stesse immagini immortalate perdono di precisione e introducono un po' di blur già a livello nativo: 60fps é tanto, ma per un oggetto che si muove ad alta velocità potrebbe essere poco ed ecco che la stessa videocamera introduce blur nella registrazione.
Se poi aggiungi che il segnale sorgente non passa direttamente dal lettore allo schermo, ma attraversa sempre e comunque il processore d'immagine che i vari produttori di televisori hanno sviluppato, anche se non vi fosse la necessità di up/downscaling o di interpolazione per il motionflow ad un frame rate diverso da quello nativo, qualche attività di processing avviene ugualmente anche solo per la conversione digitale su digitale.
Mi spiego meglio: se riprendo una partita di tennis in pieno giorno con una telecamera capace di registrare 1200fps o più, ci sta che ogni fermo immagine riproduca una palla perfettamente definita (oltre allo sfondo), fluttuante a mezz'aria in un punto ben preciso dello schermo. E che il fotogramma successivo faccia la stessa identica cosa, con la palla spostata di qualche pixels.
Ma se il frame rate di ripresa si riduce, le stesse immagini immortalate perdono di precisione e introducono un po' di blur già a livello nativo: 60fps é tanto, ma per un oggetto che si muove ad alta velocità potrebbe essere poco ed ecco che la stessa videocamera introduce blur nella registrazione.
Se poi aggiungi che il segnale sorgente non passa direttamente dal lettore allo schermo, ma attraversa sempre e comunque il processore d'immagine che i vari produttori di televisori hanno sviluppato, anche se non vi fosse la necessità di up/downscaling o di interpolazione per il motionflow ad un frame rate diverso da quello nativo, qualche attività di processing avviene ugualmente anche solo per la conversione digitale su digitale.