Philips 32/37/42pf9831 in arrivo Marzo 2006 !!

Ok Alberto allora chiedo scusa.
E riassumo così, magari mi sono spiegato male io.

"Penso la 1080P sia migliore della 1080i ma vorrei avere la possibilità di poter visionare la differenza magari usando un futuro BLU_Ray su una TV/VPR in grado di poter accettare in ingresso la 1080P, per poi giudicare effettivamente."

Ecco e ci metto pure il faccio :)
 
robwin ha detto:
Dico la mia :
parlando in termini di risoluzione pura un segnale 1920x1080 interlacciato deve essere reso progressivo per poter essere visualizzato su un display digitale, quesa operazione comporta una perdita di risoluzione con un segnale in uscita al processo di 1920 x 800 pixel circa.

Scusami,

insisto su questo concetto, non è vero che un segnale interlacciato è meno definito di uno progressivo, semplicemente i dati relativi ad ogni singolo frame, anzicchè essere inviati in un'unica passata, sono inviati in due sottopassate dove nella prima vengono inviate le linee dispari e nella seconda le linee pari che compongono l'immagine.
La differenza che c'è tra un qualsiasi segnale progressivo e la controparte analogica risiede solo ed esclusivamente nel fatto che il segnale progressivo invia direttamente l'immagine così com'è, di conseguenza l'unica cosa che deve fare il televisore è visualizzarla. Nel caso invece di un segnale interlacciato possono accadere due cose :

- Se il televisore è un plasma ALIS oppure un CRT vengono visualizzati i semiframe così come arrivano, senza alcun interveno da parte del televisore (a parte un eventuale scaling se il segnale non è uguale alla risoluzione del pannello)
- Se il televisore è un plasma non ALIS o un LCD,prima di visualizzare l'immagine questi aspetta che arrivino i due semiquadri relativi a tale immagine (quello con le linee dispari e quello con le linee pari), li ricompone per generare l'immagine stessa e poi la visualizza.

Il problema è che in questa fase di "ricostruzione", a seconda della bontà dei circuiti di deinterlacing, posso essere introdotti artefatti o difetti di costruzione dell'immagine, dando luogo ai problemi che elencavo nel post precedente.

Spero d'essere stato chiaro, bye!
 
robwin ha detto:
Dico la mia :
parlando in termini di risoluzione pura un segnale 1920x1080 interlacciato deve essere reso progressivo per poter essere visualizzato su un display digitale, questa operazione comporta una perdita di risoluzione con un segnale in uscita al processo di 1920 x 800 pixel circa.


Penso che sia così.

ciao

Non ho capito Roberto .... giuro !

Alcuni display trattano il 1080i come un 540p e semplicemente lo riscalano, senza deinterlacciarlo.

Per quello dicevo :

se parliamo di deinterlacciare un 576i esistno vari modi, ma se trattiamo un 1080i (che è si interlacciato, ma appunto un tri-level sync) si apre un universo ... e dato che ogni costruttore si stà scannando per far emergere la propria soluzione sulle altre ... è tutto molto aleatorio.
Perchè fondamentalmente un segnale 1080p in ambito consumer .... non esiste ancora ....

mandi !

Alberto :cool:
 
55AMG ha detto:
Andrebbe aperta una discussione apposita, stiamo andando un tantino OT. Che ne dite Alberto, Robwin e damon?
Anche perchè credo sia molto interessante e utile per il futuro.

Scusa, ero intento a scrivere e non avevo visto il tuo appello!:)

Si,direi che siamo parecchio OT, meglio aprire un nuovo 3d....chi si candida per l'operazione?:D

Cmq mi piace questa discussione!

Grazie a tutti!
 
Gialex ha detto:
posso farla io una domanda? sii ...
ma parlando di qualità di una trasmissione digitale perchè nessuno cita i bit rate di registrazione ?

Vorresti vederti, eh , Bikini Destination : Fantasy che ha un bit rate di 65 Mbit al secondo :eek: :D

ma credimi che ho visto anche un "normalissimo" PAL a 50 Mbit/s ed era semplicemente s t u p e f a c e n t e !!

Purtroppo tutto quello che è in vendita è solo "l'idea" di quello che potrebbe essere .... ma anche questo è tutto un altro discorso !

Mandi!

Alberto :cool:
 
Gialex ha detto:
posso farla io una domanda? sii ...
ma parlando di qualità di una trasmissione digitale perchè nessuno cita i bit rate di registrazione ?

Gialex, tu mi fai sempre morire!:p
Si, c'è anche il bit rate, ma diciamo che in questo momento, se mi consenti un paragone con le funzioni matematiche, il bit rate è una costante mentre la variabile è il formato del flusso dati!!;)

Cmq parleremo anche di quello.....in una discussione apposita!

Bye!
 
AlbertoPN ha detto:
Vorresti vederti, eh , Bikini Destination : Fantasy che ha un bit rate di 65 Mbit al secondo :eek: :D
:eek:
eheheh vedo che sei un fine intenditore ... :O
per il, resto nn faccio alcuna fatica a crederti ;)
 
damon75 ha detto:
Scusami,
insisto su questo concetto, non è vero che un segnale interlacciato è meno definito di uno progressivo, semplicemente i dati relativi ad ogni singolo frame, anzicchè essere inviati in un'unica passata, sono inviati in due sottopassate dove nella prima vengono inviate le linee dispari e nella seconda le linee pari che compongono l'immagine.
La differenza che c'è tra un qualsiasi segnale progressivo e la controparte analogica risiede solo ed esclusivamente nel fatto che il segnale progressivo invia direttamente l'immagine così com'è, di conseguenza l'unica cosa che deve fare il televisore è visualizzarla. Nel caso invece di un segnale interlacciato possono accadere due cose :
Il problema è che in questa fase di "ricostruzione", a seconda della bontà dei circuiti di deinterlacing, posso essere introdotti artefatti o difetti di costruzione dell'immagine, dando luogo ai problemi che elencavo nel post precedente.
Spero d'essere stato chiaro, bye!


Sono d'accordo, sul fatto che l'operazione di deinterlacing è complessa e il risultato finale dipende dalla bontà dei circuiti dedicati a questo scopo.
(per niente mi sono preso il denon con il Realta).:D

Nel mio precedente post, e quì correggetemi se sbaglio, (intendo anche Alberto) volevo dire che la risoluzione effettiva di un segnale 1920X1080p è di circa 2,07 milioni di pixel mentre un segnale 1920x1080i (quindi diviso due) è di circa 1,04 milioni di pixel.


Resto in attesa di un vostro giudizio in merito.

un saluto
 
55AMG ha detto:
spiegami allora perchè già un 720P puo' essere considerato a volte migliore di un 1080i e senza tirare in ballo scaler o altro ;)

Intendi forse dire percui che la 1080i sarà come qualità uguale alla 1080P ?
Avevo gia' cercato un po' di post fa... di dissuaderti da convinzioni assolutiste ... dove alludevo alle elettroniche di controllo .. e tu invece hai sviato sulle sorgenti e catene ... che era ovvio che la mia domanda/affermazione era a parita' di sorgente e catena :D

Pensa che invece a me da proprio fastidio che non sia possibile avere un 720i .... In questo modo potrei utilizzare il T-Rex del Pio solo come scaler e provare a deinterlacciare con il Sil del DVDO o addirittura il DCDi del TW500....invece se setto il 720 mi becco sia lo scaler che il deinterlacer del T-Rex ... :rolleyes:
 
robwin ha detto:
Nel mio precedente post, e quì correggetemi se sbaglio, (intendo anche Alberto) volevo dire che la risoluzione effettiva di un segnale 1920X1080p è di circa 2,07 milioni di pixel mentre un segnale 1920x1080i (quindi diviso due) è di circa 1,04 milioni di pixel.

Non capisco da dove possa derivare questa convinzione, nè il motivo per cui il 1080i lo dividi per due (come se fosse possibile vedere solo un semiquadro alla volta).
La risoluzione è esattamente identica.
L'unica differenza è che se tu potessi vedere i due segnali su un display CRT, potresti notare sul 1080i il tipico sfarfallìo dei segnali interlacciati, e forse una minore luminosità.
Visto che in pratica mai lo potrai vedere su un display CRT (a parte rarissime eccezioni), non vedrai nè l'uno nè l'altra.
In teoria se il deiterlacer fosse talmente ben fatto da non introdurre perdite o artefatti, la visione di un segnale 1080p sarebbe identica a quella 1080i.
In pratica, vedremo...
 
Salve...
Seguo da molto tempo,e con interesse questo sito e soprattutto questo 3d visto che ero (ora non c'è più e quindi non posso :cry:) interessato all'acquisto di un 42pf9830,ed ora credo di poter dare un aiuto per chiarire un concetto che a quanto pare non riesce a risolversi...
L'enorme differenza tra il segnale video interlacciato e progressivo è l'istante del semiquadro.... in un segnale interlacciato l'istante dei due semiquadri che compongono l'immagine non è lo stesso,e l'elettronica che deve fare il deinterlacing ha il compito di "inventare" l'istante successivo del semiquadro che non è variato,come è ovvio immaginare ciò comporta delle aberrazioni +o- evidenti asseconda della qualità dell'elettronica.
In un segnale progressivo ciò non accade in quanto il quadro viene spedito per intero e non si deve inventare nulla.
Spero di essere stato sufficientemente chiaro ed esauriente...
 
viganet ha detto:
Non capisco da dove possa derivare questa convinzione, nè il motivo per cui il 1080i lo dividi per due ......


Premetto che non sono un tecnico nè tantomeno un esperto, ma solo un appassionato che cerca di tenersi informato attingendo notizie dalle riviste del settore, dalla rete e frequentando forum come questo.

Detto questo, al riguardo del mio primo post
"parlando in termini di risoluzione pura un segnale 1920x1080 interlacciato deve essere reso progressivo per poter essere visualizzato su un display digitale, questa operazione comporta una perdita di risoluzione con un segnale in uscita al processo di 1920 x 800 pixel circa."
la fonte è una rivista del settore, Vi prometto, appena ritrovo l'articolo, di indicarne nome e numero.

Per la mia seconda dichiarazione, forse ho interpretato male, comunque la fonte è questa
http://en.wikipedia.org/wiki/1080i

Resto in attesa di vostre considerazioni in merito

un saluto
 
robwin ha detto:
Detto questo, al riguardo del mio primo post
"parlando in termini di risoluzione pura un segnale 1920x1080 interlacciato deve essere reso progressivo per poter essere visualizzato su un display digitale
e fin qui non ci piove!!!

questa operazione comporta una perdita di risoluzione con un segnale in uscita al processo di 1920 x 800 pixel circa."
la fonte è una rivista del settore, Vi prometto, appena ritrovo l'articolo, di indicarne nome e numero.
e qui colui che ha scritto l'articolo pecca di ignoranza (nel senso che ignora, non in termini offensivi) , poichè sarebbe stato corretto dire che, in caso di segnale progressivo, viene inviato al televisore un flusso dati contenente delle immagini la cui risoluzione è appunto 1920x1080, nel caso di un segnale interlacciato invece ogni immagine viene divisa in due semiquadri, uno con le righe dispari ed uno con le righe pari. Ovviamente, per tal motivo, ogni semiquadro inviato avrà una risoluzione pari a 1920x540 MA PRIMA DI ESSERE VISUALIZZATO SU UN TELEVISORE LCD/PLASMA, ogni fotogramma viene ricostruito (vengono in pratica ricomposti i due semiquadri) e poi viene visualizzato. Pertanto l'immagine che tu vedi a video ha effettivamente una risoluzione di 1920x1080, non vi è alcuna perdita di risoluzione, e ciò ti è anche confermato dalla definizione che hai trovato su wikipedia e che hai linkato.

Per la mia seconda dichiarazione, forse ho interpretato male, comunque la fonte è questa
http://en.wikipedia.org/wiki/1080i
Ho letto la definizione e l'ho trovata perfetta! giustamente si dice che un segnale 1080p a 24fps occupa il 20% di banda in meno rispetto ad un segnale a 1080i a 60Hz.....è corretto, poichè un segnale 1080i a 60Hz equivale ad inviare a video 30 fps, di conseguenza passando da 30 a 24 fps c'è un risparmio di 6 frame per secondo, ovvero il 20%.
Questo, ancora una volta, non fa che confermare che, a livello di quantità di dati trasmessi, 1080i e 1080p non sono affatto diversi, l'unica cosa che potrebbe fare la differenza deriva dalla giusta osservazione fatta da viganet, tra un semiquadro e l'altro di un flusso interlacciato potrebbero esserci delle piccole differenze (tra i due semiquadri c'è infatti un intervallo di 1/60 sec. che sembra poco ma a volte poi così poco non è) che a loro volta potrebbero dar luogo ad artefatti, totalmente assenti in caso di segnale progressivo.
In ogni caso, questa considerazione vale solo se il materiale di partenza è interlacciato, in caso si debba riprodurre un flusso in origine progressivo (immaginiamo un blue-ray codificato NATIVAMENTE a 1080p) in questo caso inviarlo a 1080i dal lettore al televisore non dovrebbe comportare alcuna perdita di qualità (ovviamente quanto detto vale in teoria, appena sarà possibile vedere in pratica quanto detto ne riparleremo, ma sono abbastanza sicuro del buon risultato che si otterrà).

Bye!
 
Ultima modifica:
robwin ha detto:
la fonte è una rivista del settore, Vi prometto, appena ritrovo l'articolo, di indicarne nome e numero.
un saluto


Come promesso, la rivista in questione è la defunta "CINEMAX" numero 10
Pag.96


ciao
 
Lo credo che sia defunta, se scriveva simili inesattezze...:D

Come ha brillantemente illustrato damon, il de-interlacing di un segnale non porta affatto ad una perdita di definizione dello stesso.
Si possono eventualmente avere artefatti prevalentemente nelle scene in rapido movimento dovuti al motivo che ha altrettanto brillantemente spiegato xplayer.

Ti ricodo che ad oggi tutti i segnali deinterlacciati e upscalati che abbiamo visto e vediamo continuamente, derivano dal caro vecchio PAL 576i, e mi sembra che, a parte realizzazioni particolarmente economiche o malriuscite, grossi problemi a ricostruire segnali progressivi 576p o superiori non ce ne siano...
A rigor di logica lo stesso sarà quando avremo da deinterlacciare il nuovo formato 1080i.

Ps ti chiedo scusa se il mio intervento è sembrato offensivo.
 
viganet ha detto:
Ti ricodo che ad oggi tutti i segnali deinterlacciati e upscalati che abbiamo visto e vediamo continuamente, derivano dal caro vecchio PAL 576i, e mi sembra che, a parte realizzazioni particolarmente economiche o malriuscite, grossi problemi a ricostruire segnali progressivi 576p o superiori non ce ne siano...
A rigor di logica lo stesso sarà quando avremo da deinterlacciare il nuovo formato 1080i.

Il "problema" Viga è che mentre per deinterlacciare un PAL (ed eventualmente scalarlo) basta un "semplice" circuito inventato anni fa (e ne esistono varianti ed implementazioni più o meno riuscite) che bene o male fa il suo sporco lavoro, trattare un 1080i richiede una potenza di calcolo al chip e degli algoritmi che sono diversi da quelli "classici", ragion per cui non è proprio un passaggio così indolore fra le due cose.

Quando avremmo solo segnali 1080i e display 1080p, la "guerra" sarà proprio fra le varie case di elettronica su chi deinterlaccia meglio, inducendo minori artefatti all'immagine.

Mandi !

Alberto :cool:
 
Top