Incompatibilità1080p: problema vero o mito da forum?

viganet

New member
Leggendo in varie sezioni del fourm mi sembra evidente la gran confusione che regna sovrana sull'argomento 1080i/1080p, ed è opinione comune sparare a zero su quegli apparecchi incompatibili col formato 1080p.

Visto che secondo me la disinformazione in materia è continua e si autoalimenta, ho pensato di aprire questo thread per dipanare qualche dubbio e chiarire i miei.

Partiamo pertanto dal tanto vituperato formato 1080i (1920x1080 interlacciato).
Tale formato è utilizzato per tutte le trasmissioni broadcast e per tutto il software non cinematografico (con eccezioni) presente nei supporti hd.
Guardacaso chi abbia avuto modo di visionare una quantità significante di materiale hd, è concorde nel giudicare proprio questo materiale (sport documentari e concerti in primis) come il miglior materiale visionabile in alta definizione.
Ma come mai hanno scelto questo formato?
Essenzialmente per risparmiare banda. Semplificando infatti il segnale interlacciato è un sistema di compressione loseless che, molto semplificando, funziona dividendo in due il fotogramma dell'immagine e spedendo le due metà verso il display.
Il display a sua volta non farà altro che unire le due metà in ingresso riottenendo il fotogramma originale.
Stessa risoluzione, stessi pixel, nessuna perdita di informazioni rispetto al segnale originale (soprattutto ragionando in digitale).

PArliamo ora del formato 1080p (1920x1080 progressivo).
Tale formato è utilizzato prevalentemente nel software cinematografico (con eccezioni) escluse le trasmissioni broadcast.

Il problema quindi si pone solo ed esclusivamente in questo caso, ovvero dischi BR o HDDVD contenenti film codificati 1080p.

Cosa succede se il nostro display non accetta tale formato in ingresso? Che il lettore hd debba per forza interlacciarlo (dividere in due il fotogramma) e inviarlo verso il display che provvederà a de-interlacciarlo per ricostruire esattamente il fotogramma originale.
Alla fine i nostri occhi vedranno comunque un segnale 1080p, perchè i display a matrice di punti (LCD, Plasma, DLP) sono capaci di visualizzare solo il formato progressivo corrispondente alla risoluzione del pannello stesso, e questo è bene chiarirlo una volte per tutte perchè troppo spesso leggo di gente convinta che una tv in grado di accettare solo il 1080i, non visualizzi in 1080p.

Ovviamente non dico che non sia meglio avere un segnale progressivo dalla sorgente al display piuttosto che uno interlacciato e deinterlacciato, ma a parte i "miti da forum", quale sarà la differenza realmente percepita visivamente?

L'unica prova attendibile è quella di prendere due dischi identici, riprodotti da due lettori identici, visualizzati su due display identici: uno settato a 1080i e l'altro settato a 1080p.

La differenza (ove percepibile) tra le due immagini risultanti (entrambe sempre e comunqe 1080p), sarà il risultato su cui basarsi.

Tutto il resto è aria fritta.

Del resto il fatto che sia unanimamente riconosciuto il fatto che le migliori immagini fino ad ora visionate siano riconducibili a segnali 1080i, dovrebbe far riflettere che il processo di deinterlacciamento operato dai tanto temuti display non compatibili col 1080p, non è la bestia nera che stiamo credendo.
 
Non vorrei fare l'avvocato del diavolo, ma intanto che il deinterlaccio da 1080i a 1080p sia cosa 'semplice' è tutta da dimostrare e poi non hai dimenticato qualcosa in questa disanima che si chiama 1080p24fps? :D
 
nemo30 ha detto:
che il deinterlaccio da 1080i a 1080p sia cosa 'semplice' è tutta da dimostrare

Non bastano le splendide immagini di una partita di calcio (o di bikini destination:D ) a dimostrarlo?
Io sono poco teorico e molto pratico :)

e poi non hai dimenticato qualcosa in questa disanima che si chiama 1080p24fps? :D

Saresti così gentile da spiegarmi in parole semplici che problemi comporta il fatto di operare il deinterlacciamento su di un filmato cinematografico girato a 24 fotogrammi al secondo?
 
Alla prima domanda però non hai risposto;)

Ho letto i thread citati ma si tratta di teoria teoria teoria....

E poi si introduce un ulteriore contendente: display che accettano 1080p24fps e display che non lo accettano :cry:
Non era il senso del mio topic e cmq non credo che i difetti descritti siano imputabili al pull dowm (si parlava anche di una partita di calcio, quindi...)

Per me è come se avessero inventato ieri i diffusori acustici e tutti i vari santoni avessero subito sentenziato che i modelli che non abbiano il bi-wiring e non siano pilotati ad amplificazione separata bisogna evitarli come la peste. Tutti ci credono ciecamente ed invece di ascoltarli con le proprie orecchie ambiscono unicamente ai diffusori biwiring evitando tutti gli altri.
Cioè, un fondo di verità c'è sempre, ma quanti sono in grado di percepire la differenza tra un diffusore biamplificato e uno normale?

Io insisto: l'unica prova da fare è questa:

prendere due dischi identici, riprodotti da due lettori identici, visualizzati su due display identici: uno settato a 1080i e l'altro settato a 1080p.
La differenza (ove percepibile) tra le due immagini risultanti (entrambe sempre e comunqe 1080p), sarà il risultato su cui basarsi.:

Tutto il resto è aria fritta :D
 
viganet ha detto:
Il display a sua volta non farà altro che unire le due metà in ingresso riottenendo il fotogramma originale.
Stessa risoluzione, stessi pixel, nessuna perdita di informazioni rispetto al segnale originale (soprattutto ragionando in digitale).

Ho dei seri dubbi che faccia e comunque solo questa operazione.
Se il materiale e' filmico lo puoi fare , se e' video la bonta' del deinterlacciamento conta ed anche parecchio.

www.100fps.com

Se un film e' 24P e lo interlacci a 48i magari cambia poco , sempre che poi il tuo display lo accetti.
Se lo interlacci a 60i la musica cambia e a 50i magari acceleri l'audio originale come per i DVD nostrani ... sara' una scelta del regista.

Per Bikini su Sky si nota che il 50i e' derivato da un 60i , e' vero che e' meglio guardare le gnocche che gli scattini :)

Che poi siano tutte pippe mentali e sia un piacere vedere l'HD sono daccordo.

Ciao :)
Antonio
 
viganet ha detto:
Semplificando infatti il segnale interlacciato è un sistema di compressione loseless …
Forse volevi scriver "lossy" invece di lossless e "sistema di trasmissione" invece di sistema di compressione. ;)

…molto semplificando, funziona dividendo in due il fotogramma dell'immagine e spedendo le due metà verso il display.
Fosse così semplice non ci sarebbero grossi problemi.

A parte i "salti" di frame rate evidenziati da Ciuchino, il fatto è che molto materiale viene ripreso direttamente in interlacciato.
Questo fa si che un secondo di filmato non sia composto da 25 fotogrammi interi divisi in due, ma proprio 50 semiquadri disitinti.

In pratica se c'è un oggetto in movimento inquadrato a 50i, questo compierà, fra i frames, uno spostamento pari alla metà di quello che sarebbe con una ripresa a 25p e se vai ad unire due semiquadri l'oggetto non sarà intero ma diviso, per righe, nelle due posizioni.

Se pensi ad un dispaly da un metro di base, un oggetto che lo passi per intero in un secondo, avrà spostamenti da 4 cm a 25p e di 2cm a 50i.

Prova ad immaginare due semiquadri sfalsati di 2 cm!!!

I vari algoritmi di deinterlaccio (motion adaptive, motion detection o motion qualchecosa, a seconda della marca) servono proprio a considerare i due semiquadri, dove gli oggetto sono inquadrati in posizioni diverse, per ricrearne un terzo, che in realtà non esiste nel software sorgente, ma che contiene gli elementi "congelati" in un'unica posizione.

Il processo che descrivi tu invece è quello dell'interlacciamento di immagine nativamente progressive, ma non è la regola nelle trasmissioni broadcast.

Il problema quindi si pone solo ed esclusivamente in questo caso, ovvero dischi BR o HDDVD contenenti film codificati 1080p.
Infatti sarebbe meglio confrontare, se mai fosse possibile avere la stessa qualità, una trasmissione 1080i ed un DVD HD 1080p (a parità di Fps)

Nel primo caso, che il pannello accetti in ingresso il 1080p o meno, serve un buon deinterlacciatore.
Nel secondo caso se il display accetta solo il 1080i il lavoro del deinterlacciatore è comunque molto più facile.



Ciao.
 
Ultima modifica:
viganet ha detto:
Non bastano le splendide immagini di una partita di calcio (o di bikini destination:D ) a dimostrarlo?
Io sono poco teorico e molto pratico :)
Una partita di calcio forse, bikini destination meno, per due motivi, il primo perché le immagini ti abbagliano in altri sensi :sborone: :D il secondo perché si tratta per lo più di immagini statiche.

Di visione di scalettature se ne parla parecchio mi pare.

viganet ha detto:
E poi si introduce un ulteriore contendente: display che accettano 1080p24fps e display che non lo accettano :cry:
Esatto, ed ecco che la cosa si complica e continua a non essere così semplice.
 
nemo30 ha detto:
Una partita di calcio forse, bikini destination meno, per due motivi, il primo perché le immagini ti abbagliano in altri sensi :sborone: :D
Nemo,
non andiamo mica bene :D :D :D


Ciao.
 
ciuchino ha detto:
se e' video la bonta' del deinterlacciamento conta ed anche parecchio.

Perdonami ma questo non c'entra nulla col mio thread.

In questo caso il fatto che il display accetti o meno un segnale 1080p è assolutamente ininfluente, visto che stiamo parlando di segnali 1080i ;)

Se si vuole sostenere che è meglio prendere un display che accetti un segnale 1080p così si può comprare anche un deinterlacer esterno migliore di quello della tv (che costerà probabilmente quanto la tv stessa se non di più), è tutto un altro paio di maniche.
Ed è proprio questo che, a mio avviso, genera confusione negli utenti casuali che credono erroneamente che un display che accetti il 1080p sia migliore "a prescinedere" e lo scaler esterno intanto non lo comprerebbero mai :)

Ripeto, leggendo le varie sezioni del forum (soprattutto relativamente alle tv) è questa la mia impressione.
 
Girmi ha detto:
Forse volevi scriver "lossy" invece di lossless e "sistema di trasmissione" invece di sistema di compressione. ;) .

Nono, volevo proprio dire quello che ho scritto.
Loseless perchè il fotogramma viene prima scomposto in due semiquadri che sono gli stessi utilizzati poi per ricrearlo, e sistema di compressione perchè si riesce a trasmettere lo stesso segnale (il fotogramma iniziale) utilizzando meno banda.



A parte i "salti" di frame rate evidenziati da Ciuchino, il fatto è che molto materiale viene ripreso direttamente in interlacciato..
Questo sancisce appunto che non fa alcuna differenza avere un display in grado di accettare un segnale 1080p, visto che stiamo parlando di segnali 1080i.

Se si vuole sostenere....... ecc ecc leggi sopra :)

Il processo che descrivi tu invece è quello dell'interlacciamento di immagine nativamente progressive, ma non è la regola nelle trasmissioni broadcast.
.

e difatti ho ben precisato che l'unico caso in cui si avrebbe una differenza ad utilizzare un display in grado di accettare un segnale 1080p è parlando di dischi BR HDDVD.


Infatti sarebbe meglio confrontare, se mai fosse possibile avere la stessa qualità, una trasmissione 1080i ed un DVD HD 1080p (a parità di Fps)
Perdonami ma non ti seguo: per dimostrare cosa?

Nel primo caso, che il pannello accetti in ingresso il 1080p o meno, serve un buon deinterlacciatore.)

Non direi: se il segnale in ingresso è già progressivo a cosa serve un deinterlacciatore?

Nel secondo caso se il display accetta solo il 1080i il lavoro del deinterlacciatore è comunque molto più facile.

Molto più facile rispetto a cosa?
 
viganet ha detto:
Se si vuole sostenere che è meglio prendere un display che accetti un segnale 1080p così si può comprare anche un deinterlacer esterno migliore di quello della tv (che costerà probabilmente quanto la tv stessa se non di più), è tutto un altro paio di maniche.
Ed è proprio questo che, a mio avviso, genera confusione negli utenti casuali che credono erroneamente che un display che accetti il 1080p sia migliore "a prescinedere" e lo scaler esterno intanto non lo comprerebbero mai :)
I pannelli digitali lavorano tutti in progressivo, quindi un deinterlacciatore da qualche parte ci deve essere.

Il problema che tu sollevi allora è un altro, cioè se sia meglio affidarsi al deintarlacciatore del front end del display o se usare quello della sorgente, quando disponibile, o di un apparecchio ad hoc.

Se è così credo che non ci sia risposta, ogni display fa storia a se.
Ci può essere un display 1080i con un eccellente deinterlacer come un display 1080p a cui arrivi un segnale malamente deinterlacciato.

Ma una cosa certa è che il display 1080p acceterà i segnali 1080i (si vedrà poi come li tratta) come segnali deinterlacciati da sorgenti esterne magari migliori del proprio deinterlacer.

Alla fine dei conti un 1080p è comunque molto più duttile e permette un upgrade qualitativo superiore ad un 1080i, a parità degli altri parametri.
Ovviamente tutto questo ha un costo.



Ciao.
 
nemo30 ha detto:
Una partita di calcio forse, bikini destination meno, per due motivi, il primo perché le immagini ti abbagliano in altri sensi :sborone: :D il secondo perché si tratta per lo più di immagini statiche.
.

Va bene, parliamo solo di immagini sportive allora: non sono forse giudicate all'unanimità la cosa migliore che si possa oggi vedere su un display HD?

Se fossero *deturpate* dalle brutture dei deinterlacciatori, come potrebbero mai essere definite tali?

A mio modesto parere vuol dire esplicitamente che il processo di deinterlaccio è assolutamente indolore.
 
viganet ha detto:
Loseless perchè il fotogramma viene prima scomposto in due semiquadri
Di solito Lossless lo si usa per indicare la perdità di qualità dovuta alla compressione, non al lavoro di intarlaccio.

che sono gli stessi utilizzati poi per ricrearlo, …
Se leggi il seguito vedrai che nelle riprese interlacciate questo non è vero.
I semiquadri non derivano dalla divisione di un quadro intero ma fanno storia a sé.

Solo partendo da materiale progressivo, ed a patto che si rispetti il frame rate originale, i due semiquadri ricomporranno il frame originale.

Perdonami ma non ti seguo: per dimostrare cosa?
Per confrontare un display 1080p ed un 1080i mandando loro due filmati uguali ma "nativamente" differenti nella progressione dei fotogrammi.

Usare un segnale 1080p, come quello di un BRD, interlacciato dalla sorgente e deinterlacciato dai display servirebbe a poco, per i motivi detti sopra e nel mio precente post.

Mentre mandare ad entrambi un segnale broadcast 1080i servirebbe a giudicare la qualità dei deinterlacer onboard.


Ciao.
 
Girmi ha detto:
Mentre mandare ad entrambi un segnale broadcast 1080i servirebbe a giudicare la qualità dei deinterlacer onboard.

Forse non è risultato chiaro lo scopo del mio post.

Io "ce l'ho" con quelli che stanno valutando l'acquisto di una tv fullhd, e ignorano quelle che non accettano in ingresso i segnali 1080p, convinti (dal forum) che siano dei bidoni, rinunciando magari ad ottimi oggetti.

Allora mi chiedo: che differenza ci può essere tra due tv fullhd identiche la cui unica differenza sia quella di accettare o meno un segnale 1080p?

Nessuna differenza, ovviamente, parlando di trasmissioni broadcast o 1080i in genere (su questo siamo d'accordo mi auguro...)

Parlando di supporti codificati invece 1080p quale sarà mai la differenza?
L'unico modo per scoprirlo è fare la prova di cui sopra, e se magari poi si scopre che non c'è alcuna differenza neppure in questo caso (o molto molto sottile) va da se che tutte ste pippe mentali avrebbero ben poco senso...

Perdonami se insisto ma:

Di solito Lossless lo si usa per indicare la perdità di qualità dovuta alla compressione, non al lavoro di intarlaccio.

lossless significa senza perdita: posso utilizzare questo termine anche in altri ambìti o è vietato? :)

Se leggi il seguito vedrai che nelle riprese interlacciate questo non è vero.
I semiquadri non derivano dalla divisione di un quadro intero ma fanno storia a sé..

Ho capito ma questo cosa c'entra col mio discorso?
Io sto solo cercando di far capire che due tv fullhd, una che accetti il 1080p e l'altra no, sono moooooolto simili alla prova di visione, e nel caso che citi sono assolutamente identiche visto che parli di segnali interlacciati ed entrambe faranno uso del deinterlacer interno.

Per confrontare un display 1080p ed un 1080i mandando loro due filmati uguali ma "nativamente" differenti. Mentre mandare ad entrambi un segnale broadcast 1080i servirebbe a giudicare la qualità dei deinterlacer onboard...

Scusa ma non mi leggi con attenzione: io ho parlato DELL'UNICO CASO in cui avrebbe senso confrontare una tv che accetti direttamente il 10180p e una che non lo accetti.

Ovvero un supporto BR o DVDHD 1080p nativo (mai parlato di broadcast) che esca dal lettore ora interlacciato ora porgressivo per vedere le reali differenze di visione.

Appurato che in entrambi i casi quello che si vede è sempre e comunque 1080p (il chè NON E' scontato per moltissimi utenti), quale dei due si vede meglio? Nel caso si veda davvero meglio uno dei due, quanto meglio si vede?
 
viganet ha detto:
lossless significa senza perdita: posso utilizzare questo termine anche in altri ambìti o è vietato? :)
Figurati.
Io a 45 anni ho una chioma lossless da far invidia e me ne vanto :D

Per il resto capisco che è solo la solita quesione fra plasmoniani.

Lascio.

Ciao.
 
Girmi ha detto:
Per il resto capisco che è solo la solita quesione fra plasmoniani.
.

Il discorso è anologo anche per i vpr, almeno se esistono proiettori fullhd che accettino in ingresso solo 1080i (non sono ancora così documentato sui fullhd, ma ci sto lavorando....;) )

Certo l'utente "televisivo" è magari meno smaliziato in materia ed è più facile che rimanga in confusione, ma perchè lasciarlo cuocere nel suo brodo ? :D

Io cmq sono un tritubista ex DLPista futuro magari LCDista e una bella Flat TV a supporto non la disdegno certamente :)
 
Io invece la trovo la "solita" discussione da forum ( espressa in modo assolutamente neutro, non negativa/positiva, ma come semplice dato di fatto ).
Negli ultimi quattro o cinque anni gli argomenti principe sono stati il deinterlacciamento del materiale pal 576i, la superiorità dei crt, la diatriba lcd/dlp.
Successivamente sono arrivati gli schermi piatti ed è diventato tutto PlasmaVsLcd. Per chi come me quasi trentottenne ha considerato Scia solo ed esclusivamente quale il principale antagonista di Peter Ray apprendere che c'era anche l'effetto scia è stato uno shock!
L'arrivo della panacea di tutti i mali, l'HD, si è dimostrata sino ad ora solo fonte di ulteriori problemi ( HDCP su tutti ).
Arrivate nuove tecnologie di proiezione ( Dila ), arrivate nuove discussioni pro/contro.
Non è forse lo spirito dei frequentatori di questo locale virtuale trovare nuovi modi per non godere appieno della visione domestica di materiale filmico e non?
;)
 
viganet ha detto:
Perdonami ma questo non c'entra nulla col mio thread.

Davvero ?
Hai cominciato tu a parlare di deinterlacciamento che e' una stupidita farlo soprattutto con materiale sportivo.
Era solo quella la perplessita' ... allora esco non mi interessa.
 
ciuchino ha detto:
Davvero ?
Hai cominciato tu a parlare di deinterlacciamento che e' una stupidita farlo soprattutto con materiale sportivo.

Cosa avrei scritto io?:eek:
Dove?
Devo rileggermi...:confused:

Io ho parlato di interlacciamento (e deinterlacciamento di conseguenza), solo per dire che in presenza di segnale 1080 interlacciato, la diatriba tv 1080p/1080i non ha ragione di esistere.

Il materiale sportivo l'ho portato come esempio di qualità per capire che se il materiale migliore ad oggi visibile è frutto proprio di un deinterlacciamento, ne consegue che anche una tv che non accetti segnali 1080p (la cui unica pecca quindi sarebbe il dover eseguire sempre un deinterlacciamento anche nei pochi casi in cui si disponga di materiale nativo 1080p) si dovrebbe vedere tanto bene quanto una che accetta il 1080p, che leggendo il forum sono invece considerate le uniche degne d'acquisto.
 
Top