lasciamo perdere gli strumenti di rilevazione, bastano gli occhi ;) ... comunque fammi capire, in pratica stai dicendo che l'interpolazione aumenta la velocità del pannello
Visualizzazione Stampabile
lasciamo perdere gli strumenti di rilevazione, bastano gli occhi ;) ... comunque fammi capire, in pratica stai dicendo che l'interpolazione aumenta la velocità del pannello
Aspetta:
una cosa è la quantità di fotogrammi che il pannello riesce a mostrare nell'unità di tempo (che comunque non va oltre i 200, non so se i più recenti pannelli arrivano a 400, oltre quello non si può andare comunque). Quella è la velocità del pannello, ovvero il refresh che riesce a tenere inteso come immagini diverse che riesce a mostrare nell'unità di tempo;
il punto è proprio che il refresh alto, se poi la quantità di fotogrammi nativi a disposizione è la stessa, non risolve completamente le cose dal punto di vista del dettaglio, perché quello che conta veramente è la latenza ovvero il tempo che ci mettono i cristalli a seguire il comando impartito.
Il blur - partiamo dall'ipotesi di un materiale di partenza che ne sia privo, cosa che non è sempre vera, quindi parliamo di blur generato dal pannello stesso - nasce proprio quando il pannello passa da un fotogramma all'altro e "non riesce a tenere il passo", per cui il cambiamento di stato dei cristalli liquidi mischia le cose.
Unito a questo c'è il fatto che il cinema non va a 24fps perché a quella frequenza l'occhio viene ingannato completamente.
Il cinema va a 24fps (24Hz) perché la pellicola costa, e inizialmente si decise di trovare la frequenza minima in grado di ingannare l'occhio, ma è stato dimostrato che la risoluzione (temporale) dell'occhio arriva fino a 50-55Hz. In sostanza, l'occhio-cervello funziona maledettamente bene e scova il blur benissimo.
Facciamo due conti con numeri non del tutto veritieri ma per capirci.
Supponiamo che tu stia visionando un filmato a 25fps, progressivo già in partenza, e che il tuo pannello riesca a tenere "al naturale" un refresh di 250Hz ovvero di 250 quadri completi mostrati a schermo al secondo. Allo stesso tempo supponiamo che il suo tempo di latenza (effettivo, non dichiarato) sia superiore a 1/250s = 4ms. Diciamo 4.5ms.
Questo vuol dire che ognuno dei 25 fotogrammi sarà mostrato 10 volte, ognuna delle 10 volte per un tempo di 1/250s e quindi starà a schermo complessivamente 10 x 1/250 = 1/25s (il che torna essendo il filmato 25fps).
Il blur nasce nel momento in cui dopo 10 volte che il fotogramma i_esimo è stato proiettato, il pannello deve passare all'i+1_esimo. Come abbiamo detto il passaggio da 1 fotogramma all'altro avviene in 1/250s = 0.004s = 4ms, ma il TV ad aggiornare tutto ci mette di più (4.5ms).
Questo ipoteticamente. Nella realtà, tempo che il fotogramma i+1_esimo avrà finito di essere mostrato a schermo per le 10 volte che gli competono, forse (ma forse) tutti i cristalli saranno correttamente allineati sulla nuova immagine, ma a quel punto sarà il momento di passare alla successiva.
E' chiaro che estremizzando il discorso e avendo un pannello con un refresh altissimo e una latenza bassissima avremmo risolto (attenzione avremmo risolto l'argomento: blur aggiunto dal TV, non quello blur rilevato dall'occhio), ma la cosa non è possibile tanto è vero che hanno cominciato a puntare tutti sull'elettronica.
Il discorso quindi è diventato: OK, il mio pannello ha dei limiti, ma se riesco a rendere una immagine mostrata il più possibile simile alla successiva, le variazioni che dovrò rappresentare saranno minori e quindi forse i cristalli liquidi si potranno riadattare più facilmente.
Se stai guardando una partita e in un lancio lungo la palla (e appresso a lei la telecamera) spazzano in 0.5s tutto il campo, i fotogrammi (lasciamo da parte deinterlacer & co) sono troppo diversi tra di loro.
Allora:
- l'elettronica crea dei fotogrammi intermedi che rendono il passaggio da un originale all'altro molto più graduale
- tra un fotogramma e l'altro magari ti ci metto anche un quadro nero, così inganno l'occhio-cervello e gli faccio percepire meno trascinamento (black frame insertion)
- già che ci sono non ti faccio vedere tutto il fotogramma intero ad ogni ciclo ma (sfruttando in modo furbo il refresh alto del pannello) te ne faccio vedere tramite l'illuminazione gestita anch'essa elettronicamente solo una fascia alla volta (scanning backlight)
e tu percepirai meno blur.
La velocità del pannello non aumenterà, ma utilizzandola in modo furbo riuscirò a aumentare il dettaglio che percepirai.
Chiarissimo, e ti ringrazio per avermi ricordato del backlight scanning e black frame insertion, che in effetti non stavo considerando...ho un lcd è un samsung di un paio di anni fà (dovrebbe essere l'ultima serie prima dei led)e probabilmente ne è sprovvisto. Nelle opzioni per quanto riguarda l'interpolazione ho il motion plus: standard lineare ecc... e poi c'è modalità film che posso settare su auto, auto2: non sò se possa essere uno dei sistemi sopracitati...
Sia chiaro sul mio lcd non c'è alcun effetto scia o trascinamento, i bordi si distinguono, ma il dettaglio non c'è... Mi piacerebbe testare un HX855, per verificare coi miei occhi il funzionamento di questi 2 sistemi...
Mi sa che qui ti sei distratto :D ... se le tv fossero effettivamente in grado di aggiornarsi 200 ( ma nche 100) volte al secondo, non aggiungerebbero alcuna sfocatura a nessun materiale video... è un dato di fatto che 60 fps sono più che sufficienti per mettere perfettamente a fuoco un immagine, per quanto velocemente si muova (smetti di mettere a fuoco tu prima del televisore, a velocità ovviamente molto molto elevate...) correggimi se sbaglio
P.S. parlo in pratica di ciò che arriva all'occhio, non del pilotaggio del pannello, cioè il processore può mandare un segnale di aggiornamento al pannello per 200, 400, 800 volte al secondo, ma come hai giustamente detto il pannello non gli sta dietro, ma và a inseguire...
No, confermo quello che ho scritto, leggi bene tutto assieme.
Non aggiungerebbero nessuna sfocatura (ma parliamo di blur la sfocatura è una cosa ottica che non c'entra anche se capisco cosa dici) se al refresch corrispondesse un tempo di latenza effettivo uguale se non minore.
Il fatto che 60fps effettivi siano sufficienti per una immagine in movimento a velocità non elevatissime non c'entra molto ed è tutto sempre relativo alla veocità di ciò che si sta riprendendo.
Non a caso esistono le riprese fatte a rate anche più alti (si arriva ormai a 5000-10000 fotogrammi al secondo), poi però si proiettano a velocità standard e ne viene fuori l'effetto (super) moviola, durante il quale non percepisci blur perché è un po' come se al posto dell'elettronica del TV, per rendere un fotogramma già molto simile all'altro ci avesse pensato l'otturatore della fotocamera.
Non a caso quando vogliono pubblicizzare un nuovo canale HD fanno sempre vedere immagini di questo tipo.
L'utente occasionale, anche davanti allo stesso TV di sempre, percepisce un dettaglio superiore a causa del rallenty particolare (perché il TV sempre quello è, e se non sei abbonato HD non è che ti fanno vedere in HD solo quel filmato) e della relativa mancanza di blur. Praticamente è un trucco per farti veder meglio il TV ;)
Ma già questo ti fa capire che anche quando guardi SD la TV (su un LCD) ci mette del suo, perchè non arriva nemmeno a sfruttare tutte le linee a disposizione. Tanto è vero che nell'esempio di cui sopra ti accorgi immediatamente della differenza.
Venendo ai Samsung, mi sembra che nei Samasung le opzioni che citi tu gestiscano il deinterlacer, non il frame interpolation.
Il funzionamento sui Sony è obiettivamente impressionante. Poi la resa può piacere o meno in termini di fulidità eccessiva (con alcune opzioni attivate), ma il dettaglio in più in movimento è percepibilissimo e con pochi artefatti.
chiedo scusa non avevo letto bene, in effetti quello che ho scritto nel P.S. è un po quello che avevi già scritto tu sul problema della latenza dei cristalli.
Le opzioni che ho scritto gestiscono l'interpolazione, il motion plus fluidifica in modo osceno l'immagine creando frame aggiuntivi, modalità film non so di preciso ma avevo letto da qualche parte che ha a che fare con l'interpolazione, infatti nella descrizione della voce sul tv dice:
modalità film: Ottimizza la qualità dell'immagine per i programmi basati su video o film
Off
Auto1: Attiva la funzione modalità film
Auto2: Ottimizzazione automatica del testo su video durante la visualizzazione di un film (potrebbe anche essere backlight ma nono sono sicuro)
Comunque per quanto riguarda il mio tv con i giochi anche se a 60 fps quando ruoto la camera blurra tutto (provato su crt il dettaglio rimane TUTTO) ora se spostiamo la faccenda della latenza sul fattore frame, sicuramente i pixel riescono a cambiare colore neanche 25 volte al secondo, ad occhio ( che è quello che conta IMHO) direi meno di 10 volte (testato paragonando materiale a diversi frame-rate tra lcd e crt) insomma su crt, senza blur alla fonte, anche a 30 fps, il dettaglio c'è tutto anche in veloce movimento (scatta ma non blurra) certo lo sfarfallio può dare una sensazione di parziale sovrapposizione dei frame (se capisci cosa intendo) e "disturbarci" un pò nella visione del dettaglio che comunque, si vede lo stesso tutto quanto.
Un'ultima cosa riguardo la fluidità: su lcd attivando i 100 hz la sensazione di tridimensionalità c'è legata appunto alla fluidità (totalmente inutili su materiale a 60 fps gia fluidi alla fonte) e sembra quasi che l'immagine sia più definità, ma, posso garantirti che il dettaglio in realtà non cambia affatto, solo rimane su schermo più a lungo (essendoci il doppio,triplo dei frame) ma quando arriva il momento di cambiare (dopo il fotogramma i esimo che dicevi) il dettaglio si perde, questo almeno è quello che vedo sul mio samsung , stessa cosa su schermi lcd di un netbook e notebook che posseggo abbastanza recenti....
P.S. MI hai fatto salire la scimmia per testare l'interpolazione del sony, che ho gia visto ma solo di sfuggita, se non vedo non credo ;)....
Sono più di 3 anni che mi sono accorto di questo fatto.
Ma quello che dici è un'altra cosa.
Tutti gli tv-monitor LCD a 60 frame su un gioco, ruotando con il mouse scattano e vibrano anche con il più sofisticato mouse. Ancora non ho capito perche. Tipo vanno fuori sincronizzazione. Anche mettendo vsync. Lo puoi notare anche semplicemente sul desktop e muovendo la freccetta. Questa ti risulterà non fluida
Invece spostandosi destra e sinistra il gioco è fluido.
Oppure provando a ruotare anche con un pad, rimane tutto fluidissimo.
Su un vecchio CRT tutto questo non ce.
Si ruota fluido e la freccetta sul desktop è fluida
Mhaa
Non credo ciò che dici abbia a che fare con il monitor (a me non succede niente di simile...) ma più probabilmente centra l'HW/SW del pc...
Cmq una precisazione, riguardo i miei precedenti post: non conoscevo ancora i giusti test... ora posso dire che il problema non sta nella lentezza dei tv lcd (come giustamente affermato da ABAP) ma nel modo con cui un lcd aggiorna l'immagine, il noto "sample and hold" (niente decadenza...) con conseguente ritenzione nella nostra retina.
Su monitor CRT vanno fluidi alla stessa risoluzione.
Su LCD scattano quando si ruota con il mouse.
Comunque stanno uscendo (già ci sono) in commercio monitor con il g-sync dell'nvidia. Costosi.
E uscirà il nuovo standard AMD che penso risolverà questa cosa
A ecco hai collegato lo stesso pc ai 2 diversi monitor (crt/lcd), ora è chiaro... è sicuramente un problema del software di elaborazione dell'immagine del monitor (lcd), ma che non ha niente a che fare con la tecnologia di base, cioè i problemi da te riscontrati non sono dovuti al pannello lcd ma all'elettronica che lo pilota (probabilmente qualche incompatibilità con alcune opzioni della tua scheda video...)
.... Ma no...... Lo fa su tutti i monitor e TV del mondo.
Ti basta muovere il mouse sul desktop piano piano e vedrai la freccia non fluida. Anche con mouse con 7milioni di PSI.
Lo vedi subito.
Infatti stanno uscendo i nuovi monitor e i nuovi standard che hanno un tipo di vsync diverso e migliorato.
;)
Ma guarda, un lcd ti fa sicuramente percepire una sfocatura dell'immagine ma non ho mai riscontrato gli scatti di cui parli, o meglio, li noto, ma mi pare ci fossero anche quando usavo il monitor crt e cmq sicuramente il problema non è dovuto alla tecnologia del pannello ma alla sua elettronica: Tu stesso lo confermi parlando di aggiornamento del vsync ( i monitor restano sempre i soliti lcd...) ... L'lcd come tecnologia di base (elettronica a parte) non ha problemi simili.