Esperimento fatto! Interessante..grazie Peppe per lo stimolo!
Nell'articolo che vi linko…
http://community.sony.it/t5/Discuss...-e-Plasma-100Hz-200Hz-400Hz-600Hz/td-p/199666
viene chiarito molto bene come può essere corretta da Sony la difficoltà dell'occhio ad "apprezzare" la sequenza di un oggetto in movimento che,
- anziché essere composta da 1'000 fotogrammi al secondo (come immagino, decimale più decimale meno…, sa fare l'occhio umano quando spedisce l'immagine percepita nella realtà vera verso il cervello e dunque fotogrammi caratterizzati da piccolissime differenze (blur) tra ciò che veniva percepito 1/000 di secondo prima e ciò che arriva ai neuroni della retina il 1/1000 di secondo successivo)
- è costituita da fotogrammi molto più "modificati" l'uno rispetto al suo precedente... nella loro successione… in quanto è passato un "lunghissimo" 1/50 di secondo (!!!) , tra ciò che era rappresentato prima e ciò che va rappresentato subito dopo!
Nonostante il tentativo di "interpolarle" con dei fotogrammi "intermedi" (200Hz, 400 Hz, dcc) che tendono a "ridurre la quantità di cambiamento" da un fotogramma al successivo…(e dunque lo "spessore di blur" ) rimaneva un altro fenomeno produttore di spurie parassite : la lunghissima (si fa per dire… in termini neurologici) permanenza sullo schermo della "luce" dei pixel dell'LCD che servivano a rappresentare il "fotogramma" precedente… ma che, non essendosi potuto spegnersi ed aggiornarsi in modo veramente immediato… determinano questo fastidioso "strascico" fatto dal resto (anche sullo schermo!) dell'immagine precedente non ancora totalmente "spenta".
Come dicevo prima… nell'OLED il "salto" brutale del fotogramma che rappresentava la posizione ad es di un pallone in movimento alle ore 12 15 min 5 sec con quello nuovo che rappresenta la nuova posizione del pallone alle 12ore 15 min 5.
02 sec ha come effetto una "sfocatura": probabilmente la nostra retina sta "ritenendo" ancora l'immagine che l'ha "bombardato" per un tempo "otticamente e neurologicamente" troppo lungo... e nei primi centesimi dopo il passaggio…la nuova immagine (fotogramma) non "collima" con quanto vedeva 1/1000 di secondo prima (è che è neurologicamente ancora un po' presente) .
Sembra strano… ma probabilmente il nostro cervello funziona bene quando guarda la realtà: ogni fotogramma stimola i neuroni della retina per pochi millesimi e dunque non ci sono "salti" tra un'immagine e la successiva... e via di seguito.. a colpi di "piccolissimi salti" e con dosi non eccessive di "impressione".
Davanti ad un OLED sembrerebbe che la "velocità" di ogni passaggio di fotogramma… (che si era fissato per ben 1/50 di sec) impedisce al cervello di prepararsi alla transizione: non c'è più l'"aiuto" dei vari fenomeni ( in sé negativi) delle precedenti norme:
- la caduta di luminosità dei fosfori nei CRT dopo alcuni millesimi dovuta alla tecnica del passaggio per "pennellate" di linee horizz successive eseguita dal tubo catodico sui fosforo stessi ,
- la lentezza dello spegnimento degli LCD (che crea comunque un effetto scia sgradevole sull'immagine in movimento).
La soluzione dovrebbe essere quella di impedire ai neuroni umani di "ritenere" oltre il 1/50 di secondo reale i pixels visualizzati dallo schermo per 1/50 di secondo nel quadro precedente: fenomeno certamente dovuto a ragioni di "inevitabile ritenzione" di un'immagine vista per così "tanto" tempo dalla nostra retina che, per ora, è "umana" e non bionica!.
Una soluzione potrebbe essere quella di "svuotare" ( o comunque diminuire) l'illuminazione dei leed organici dell'OLED nell'ultima parte del cinquantesimo di secondo previsto dal segnale televisivo, allo scopo di "preparare" la nostra retina alla transizione, eliminando quei famosi centesimi (o millesimi) di sovrapposizione PERCEPITA…
Questo avrebbe però LA GRAVE CONSEGUENZA DI DIMINUIRE MOLTO LA LUMINOSITA' DELL'IMMAGINE (sia sullo schermo che percepita);
UN'altra soluzione, certamente fantastica, sarebbe quella che dicevo nel primo messaggio: creare artificialmente molti frames di interpolazione… (NON nuove linee per aumentare la risoluzione..), ma per raccorciare la durata dei frames che compongono una sequenza: anche in quelle con forte movimento… Il cervello non avrebbe così il senso di sfocatura dovuto alla sovrapposizione "neurologica" dei fotogrammi (sullo schermo questa sovrapposizione non esiste assolutamente come dimostrano le foto dell'articolo linckato) .
In definitiva:
- la poca durata di ogni singolo "fotogramma" (che non si impressiona oltremodo sulla retina e forse sul cervello)
- la piccola "entità" delle modifiche tra un fotogramma e l'altro, finalmente temporalmente molto meno "distanti" (e dunque meno diversi tra di loro) ,
dovrebbe permettere una fluidità straordinaria!
Sarebbe sfruttata in questo modo tutta la potenza della tecnica MOTIONFLOW SONY …(che trovate nell'articolo) senza i limiti imposti dalla lentezza di reazione (accensione e spegnimento) dei pixels di un LCD!!!!
Un solo problema: e se Sony avesse brevettato la sua invenzione?