1080i Vs. 1080p

viganet

New member
Traspare più o meno chiaramente da molti thread più disparati, che esiste una gran confusione su questo argomento.

Molti sono convinti che il 1080i sia il formato sfigato, qualitativamente lontano anni luce rispetto al nobile 1080p.

Partendo dal presupposto che il formato 1080p è SICURAMENTE meglio, tutto sta a capire QUANTO sia meglio rispetto all'analogo formato interlacciato.

Fissando a 10 la qualità del "segnale perfetto" 1080p, quanto gli diamo al 1080i ?

Io andrò probabilmente contro corrente, ma sono convinto che il QUID qualitativo non sia tale da giustificare le odierne paure.

Ne è nata un'interessante discussione col simpatico Alberto in un thread che c'entrava poco o nulla con questo argomento, e allora ho pensato di aprire questo nuovo thread ad hoc per confrontare le nostre riepsttabili opinioni.

L'ultima considerazione che ho esternato era più o meno la seguente :

(partendo dal presupposto che i deinterlacer li vediamo tutti i giorni da anni col caro vecchio 576i ed a parte realizzazione economiche e malriuscite mi sembra che nessuno ne abbia da lamentarsi, anzi tutt'altro, mi si faceva notare che però un conto è il 576i "studiato" da anni, e un altro il nuovo e più complesso 1080i....)


E' vero che per deinterlacciare il PAL basta un circuito vecchio di anni, e difatti si trovano ormai soluzioni supereconomiche (senza entrare nel dettaglio qualitativo)

Per il 1080i non vedo tutta questa maggior complicazione.
Si tratta sempre di fare il medesimo lavoro (deinterlacciare due semiquadri video), con una maggiore capacità di calcolo dovuta al maggior peso del segnale (più "zeri e uno", ma stesso tipo di segnale video)

La maggiore potenza di calcolo richiesta, sarebbe ammortizzata proprio dal progresso tecnologico legato alla distanza temoporale che ci separa dai primi esemplari di deinterlacciatori, vecchi di anni.

Gli algoritmi invece sono convinto (per logica, non certo per conoscenze tecniche che non ho) che siano gli stessi, continuamente ottimizzati com'è logico, ma gli stessi, visto che si tratta sempre di deinterlacciare due semiquadri video.
Anzi, nel caso che poi il display sia un full hd, sarebbero addirittura più semplici degli attuali upscaler che, loro si, fanno il lavoro sporco, dovendo più o meno "inventarsi" pixel che in realtà non esistono.

Aggiungo poi che ........ siamo sicuri che esisteranno formati 1080p nativi ?
Quelli dei broadcaster quasi sicuramente non lo saranno.
Quelli pre registrati ?
Perchè se non lo fossero manco loro, il problema sarebbe del tutto inesistente.
Visto che comunque il segnale andrebbe deinterlacciato in tutti i casi, e che lo faccia il Faroudja presente nel lettore DVD, oppure lo faccia lo stesso identico Faroudja presente nel display, non farebbe differenza alcuna (essendo oltretutto i due apparecchi collegati in digitale).

L'unica differenza potrebbe esserci per quegli inguaribili smanettoni che spendono cifre astronomiche per deinterlacer esterni sperando che siano migliori di quelli integrati negli apparecchi.
Certo, in questo unico caso la differena potrebbe esserci, ma di quanto sarebbe quantizzabile qualitativamente ?
Tale da giustificare ingenti investimenti futuri e intransigenze talebane attuali ?
 
viganet ha detto:
Aggiungo poi che ........ siamo sicuri che esisteranno formati 1080p nativi ?
Quelli dei broadcaster quasi sicuramente non lo saranno.
Quelli pre registrati ?
Perchè se non lo fossero manco loro, il problema sarebbe del tutto inesistente.
Il materiale di origine cinematografica potrebbe benissimo essere a 1080p, formato che se non erro viene già usato nel digital cinema (il famoso 2k).
Per le trasmissioni televisive il discorso è diverso e penso che il miglior compromesso lo si abbia a 1080i.
In ogni caso il proiettore dlp a 1080p visto all'ultimo top audio aveva un dettaglio veramente degno di nota;tuttavia penso che su schermi di piccole o medie dimensioni non si noti molta differenza tra i due formati mentre in quelli grandi forse sì. In un prossimo futuro speriamo di avere la possibilità di fare dei confronti sul campo.
 
E che mi dite del lavoro opposto: cioè interlacciare un segnale 1080p per un display compatibile con i soli segnali 1080i?
Che eventuale perdità di qualità si avrebbe?
Lorenzo.
 
si parla di VPR vero? prechè sotto i 50" credo che non si noti nemmeno la differenza tra 720p e 1080i...

il progressivo ha indubbi vantaggi nelle trasmissioni sportive....
 
offlines ha detto:
si parla di VPR vero? prechè sotto i 50" credo che non si noti nemmeno la differenza tra 720p e 1080i...

il progressivo ha indubbi vantaggi nelle trasmissioni sportive....
Per quanto mi riguarda parlo di tv crt e, anche su un 28", la differenza tra un 1080i nativo e un 720p scalato dalla scheda video si vede eccome.
Lorenzo.
 
Ultima modifica:
viganet ha detto:
........(partendo dal presupposto che i deinterlacer li vediamo tutti i giorni da anni col caro vecchio 576i ed a parte realizzazione economiche e malriuscite mi sembra che nessuno ne abbia da lamentarsi, anzi tutt'altro, mi si faceva notare che però un conto è il 576i "studiato" da anni, e un altro il nuovo e più complesso 1080i....)

Personalmente ho usato per quasi due anni il Cinemateq POP II interfacciato ad un proiettore 1024X768 ottenendo risultati decisamente apprezzabili.
Ora con un proiettore 1400x1050 appaiono evidenti problemi riconducibili ( forse ) alla difficoltà dello stesso Cinemateq a gestire una matrice così risoluta.
Ritengo che l'avvento di proiettori con matrice nativa FULL HD richiederà prodotti ( scaler ) con prestazioni decisamente superiori.
 
Ultima modifica:
mah..

su un 28" 16:9 la base è di circa 59cm (lasciando cmq perdere quei 3/4cm che si perdono di overscan)
un segnale 1080i ha risoluzione orrizontale di 1920punti..
59cm / 1920 = 0,03cm =0,3mm..
59cm / 1280 = 0,046cm =0,46mm

siamo sicuri che a 2 metri di distanza l'occhio umano riesca a distinguere la differenza?!
 
offlines ha detto:
mah..

su un 28" 16:9 la base è di circa 59cm (lasciando cmq perdere quei 3/4cm che si perdono di overscan)
un segnale 1080i ha risoluzione orrizontale di 1920punti..
59cm / 1920 = 0,03cm =0,3mm..
59cm / 1280 = 0,046cm =0,46mm

siamo sicuri che a 2 metri di distanza l'occhio umano riesca a distinguere la differenza?!
Te lo posso assicurare, nell'insieme i dettagli sono incredibili a 1080i mentre se riscalata, l'immagine appare più morbida, come se fosse leggermente fuori fuoco.
Si parla comunque di segnali a 1920 x 1080 dato che per ora in italia non ci sono crt in grado di agganciare segnali a 1280 x 720.
Lorenzo.
 
lorenzo82 ha detto:
E che mi dite del lavoro opposto: cioè interlacciare un segnale 1080p per un display compatibile con i soli segnali 1080i?
Che eventuale perdità di qualità si avrebbe?
Lorenzo.
Non credo che ci saranno display o vpr capaci di visualizzare immagini a 1080i, saranno sempre e comunque progressivi. Semmai se accettassero solo segnali 1080i farebbero una doppia conversione....credo. :D
 
scusa... domanda.. 28" crt hd collegato in component?

cmq.. le variabili sono tantissime.. dalla qualità di deinterlacciamento, alle elettroniche interne del tv.

il "leggermente fuori fuoco" mi da proprio l'impressione che sia un "problema" legato al deinterlacciamento.. che facendo la "media" tra 2 righe adiacente tenda a sfocare... ma se prendiamo lo stesso filmato..(tipo i wmvhd imax) in cui c'è la versione 1080 e al versione 720.. le differenze... su display sotto i 37" secondo me sn impercettibili.. se non per effetto placebo o per fattori legati alla qualità delle elettroniche...
 
nemo30 ha detto:
Non credo che ci saranno display o vpr capaci di visualizzare immagini a 1080i, saranno sempre e comunque progressivi. Semmai se accettassero solo segnali 1080i farebbero una doppia conversione....credo. :D


Ora come ora dovrebbe essere l'esatto opposto. La quasi totalità di vpr e display sono compatibili con segnali in ingresso 1080i, molto pochi quelli che accettano il 1080p.;)
 
Raffaele ha detto:
Ora come ora dovrebbe essere l'esatto opposto. La quasi totalità di vpr e display sono compatibili con segnali in ingresso 1080i, molto pochi quelli che accettano il 1080p.;)
Cioè vuoi dire che accettano solo segnali fino a 1080i? ;)

Ma questi display non dovrebbero visualizzare sempre e solo immagini progressive?
 
offlines ha detto:
scusa... domanda.. 28" crt hd collegato in component?

cmq.. le variabili sono tantissime.. dalla qualità di deinterlacciamento, alle elettroniche interne del tv.

il "leggermente fuori fuoco" mi da proprio l'impressione che sia un "problema" legato al deinterlacciamento.. che facendo la "media" tra 2 righe adiacente tenda a sfocare... ma se prendiamo lo stesso filmato..(tipo i wmvhd imax) in cui c'è la versione 1080 e al versione 720.. le differenze... su display sotto i 37" secondo me sn impercettibili.. se non per effetto placebo o per fattori legati alla qualità delle elettroniche...
Si, in component.
Ti rammento che io non posso fare la prova con immagini native a 1080i e 720p ma solo 1080i native e 720p scalate a 1080i e, facendo la prova, si vede molto meno bene ad occhio nudo il 720p scalato, come è ovvio che sia.
Lorenzo.
 
ma hai lo stesso filmato nelle 2 risoluzioni?

ripeto: credo che la maggior qualità del 1080i nel tuo caso sia dato solo ed esclusivamente dal fatto che entra nativamente nel tv, al contrario del 720p che deve venire interlaciato e upscalato...
 
offlines ha detto:
ma hai lo stesso filmato nelle 2 risoluzioni?

ripeto: credo che la maggior qualità del 1080i nel tuo caso sia dato solo ed esclusivamente dal fatto che entra nativamente nel tv, al contrario del 720p che deve venire interlaciato e upscalato...
Me lo posso procurare facilmente, ma come fare la prova?
Potrei usare il monitor crt ma è un 19" :(
Lorenzo.
 
siamo OT scusate... ma credo che in qualche modo il tutto serva per capire quanto questo amatissimo 1080i "serva"

prova fatta su un crt 16:9 SD , lettore H&B, collegato via RGB.
filmati in 1080i e 720p sembrano splendidi.. anche se la mia testa dice: è impossibile che si vedano meglio.. dopotutto il TV è SD... prova e riprova... leggi e non leggi... alla fine dico: metto su un bel caro DVD.. di quelli che ho visto almeno 150volte :D il gladiatore e...

..e il DVD di vedeva cmq EGREGIAMENTE.. meglio di come mi ricordavo... mooolto meglio...

il che mi ha fatto ragionare sul fatto che tanta differenza è data dal lettore... e le differenze tra filmato SD (DVD) e filmato HD sono date forse solo dalla minore compressione dei video HD che anche se downscalati risultano leggermente meglio del video SD sugli sfondi e nei panning...

tornando a noi... a parità di elettroniche, a parità di display e collegamento..
prendendo due filmati NATIVI 1080i e 720p riprodotti su di un display di dimensioni comuni (32"), CRT, (eliminamo quindi eventuali problemi di scaling e interlacciamento) l'occhio .. a mio modestissimo parere NON può percepire la differenza... se parlassimo di video non compressi potremmo dire che anche il vecchio PAL in anamorfico si comporta cmq in maniera + che egregia.. tanto che sui VPR.. nonostante 2 /3mt di base.. i DVD sono pienamente godibili..

il 1080p penso sia nato per lo + per evitare inutili conversioni da progressivo (pellicola) a interlacciato 1080i a di nuovo progressivo (display)

il 1080i in america, dove vpr e retro tritubo.. sono diffusi da anni in maniera "capillare" ha sfondato rispetto al 720p. (credo abbia anche un occupazione di manda simile...) ma.. su display lcd o plasma.. che sono nativamente prog. non ha un gran senso..
 
offlines ha detto:
prendendo due filmati NATIVI 1080i e 720p riprodotti su di un display di dimensioni comuni (32"), CRT, (eliminamo quindi eventuali problemi di scaling e interlacciamento) l'occhio .. a mio modestissimo parere NON può percepire la differenza...
Sono d'accordo se prendiamo due filmati senza alcun problema di rumore di fondo, di artefatti e di compressione in generale...quindi ipotizzando di avere due filmati 1080i e 720p non compressi e dalla qualità video perfetta allora mi trovi d'accordo sul dire che molto difficilmente l'occhio umano potrebbe distinguerli.
Ma se aggiungi i problemi di compressione che ci sono da sempre sui dvd e che, magari in più piccole proporzioni, ci saranno sempre anche in hd, secondo me diventa ben più facile riconoscere un 1080i per la mole di dati, traducibili in dettagli, che sono i primi a saltare all'occhio.
Lorenzo.
 
Ciao Viga,

viganet ha detto:
Partendo dal presupposto che il formato 1080p è SICURAMENTE meglio, tutto sta a capire QUANTO sia meglio rispetto all'analogo formato interlacciato.

Non è detto che sia sicuramente meglio, perchè dipende "da dove arriva" questo segnale, come è stato ottenuto (in caso di un upscaling da SDTV) e con quali apparecchiature. Ai fini del video processing, un "signor" segnale interlacciato ha ancora il suo perchè. Bisogna appunto capire quali siano le esigenze specifiche e le condizioni di utilizzo.
Se non si ha uno schermo grande, andare in 1080p (ammesso e non concesso che con gli attuali display in commercio ci si arriva effortless forse con un numero di essi inferiore alle dita di una mano ...) non ci cambia la vita. Se non il conto corrente che si "prosciuga" per ottenere una catena video omogenea.

viganet ha detto:
Fissando a 10 la qualità del "segnale perfetto" 1080p, quanto gli diamo al 1080i ?

Potresti dargli altrettanto 10 ; come scritto sopra, alla fine, dipende tutto dalle condizioni di utilizzo e dalla catena video. Addirittura, in base al display, non è detto che l'interlacciato rosicchi un mezzo punto al progressivo. La recente visione di un filmato 1080i a 65 Mbit/sec visto da un CRT 8" tarato al 75% su un centinaio di pollici, non mi ha fatto rimpiangere assolutamente la stessa immagine in 1080p ottenuta tramite un display digitale sulla stesa base di proiezione. Anzi ... ti dirò ..... ;) ... ma li si entra troppo nei gusti personali.

viganet ha detto:
Per il 1080i non vedo tutta questa maggior complicazione. Si tratta sempre di fare il medesimo lavoro (deinterlacciare due semiquadri video), con una maggiore capacità di calcolo dovuta al maggior peso del segnale (più "zeri e uno", ma stesso tipo di segnale video)

Se fissi un tempo "x" per deinterlacciare come si deve un PAL, immagina che nello stesso "x" devi fare un lavoro per una risoluzione che è circa 5 volte maggiore ... altro che banda passante dei chip utilizzati, davvero ti devi "inventare" qualcosa. Per assurdo, secondo questo ragionamento, il deinterlaccio di un 1080i potrebbe essere più semplificato di quello relativo ad un 576i proprio in virtù della potenza di calcolo che manca. E qui entra in gioco l'ingegno dei vari costruttori che si devono trovare una soluzione per farlo .... almeno altrettanto bene.

viganet ha detto:
Gli algoritmi invece sono convinto (per logica, non certo per conoscenze tecniche che non ho) che siano gli stessi, continuamente ottimizzati com'è logico, ma gli stessi, visto che si tratta sempre di deinterlacciare due semiquadri video.
Anzi, nel caso che poi il display sia un full hd, sarebbero addirittura più semplici degli attuali upscaler che, loro si, fanno il lavoro sporco, dovendo più o meno "inventarsi" pixel che in realtà non esistono.

Gli algoritmi di scaling sono una cosa, quelli di deinterlacing un'altra .... tipo pere e patate per intenderci :D
Per il deinterlaccio non sono gli stessi in virtù del discorso appena affrontato sopra.

viganet ha detto:
Aggiungo poi che ........ siamo sicuri che esisteranno formati 1080p nativi ?

Dovrebbero esistere si.

viganet ha detto:
Visto che comunque il segnale andrebbe deinterlacciato in tutti i casi, e che lo faccia il Faroudja presente nel lettore DVD, oppure lo faccia lo stesso identico Faroudja presente nel display, non farebbe differenza alcuna (essendo oltretutto i due apparecchi collegati in digitale).

Se sono collegati in digitale, nel 99.9% dei casi ha già deinterlacciato la sorgente, per cui .... non è che hai molto scampo. Se usi il collegamento HD-SDI invece fai fare tutto a valle del decoder H.264 utilizzato (o qualunque altro sia l'algoritmo di compressione adottato). In questo caso rientriamo nella casistica "standard" di quando conviene usare un collegamento HDMI e quando no, anche se con i formati HDTV non abbiamo quasi scampo, purtroppo.

viganet ha detto:
Certo, in questo unico caso la differena potrebbe esserci, ma di quanto sarebbe quantizzabile qualitativamente ?

Come sempre sono i dettagli che fanno la differenza ... tutto stà nel capire quanto si è disposti (e se lo si è effettivamente) a spendere per questi dettagli. Anche li si entra troppo nel soggettivo.

Mandi !

Alberto :cool:
 
La discussione e` molto interessante...:D
Credo si debba quindi fare alcune importanti precisazioni:
1)Con il segnale 720p abbiamo a seconda dello standard 1280x720 a 50fps/60fps mentre con il 1080i si parla di 1920x540 per semiquadro(in teoria...in pratica si hanno solo 1440 pixel verticali fruibili nella maggioranza delle trasmissioni) ad un rate di 50/60Hz.I 1080i soffrono di flicker mentre i 720p no e che poi il segnale 1080i possa essere immagazinato su di un media o trasmesso in modo tale da ricostruire un segnale 1080p anche questo e` vero ma a scapito del numero di fotogrammi altrimenti bisogna parlare di interpolazione e/o duplicazione.
2)In termini di risoluzione temporale,risoluzione nelle immagini con veloci movimenti, i 1080i hanno una risoluzione pressocche` equivalente alla 540p.
Nelle immagini statiche i 1080i hanno una risoluzione spaziale equivalente alla 1080p.La risoluzione all´interno di questo intervallo(immagini statiche o con movimenti veloci) varia tra questi 2 estremi.;)
 
Top