Visualizzazione Stampabile
-
Citazione:
Originariamente scritto da 55AMG
spiegami allora perchè già un 720P puo' essere considerato a volte migliore di un 1080i e senza tirare in ballo scaler o altro ;)
Intendi forse dire percui che la 1080i sarà come qualità uguale alla 1080P ?
Avevo gia' cercato un po' di post fa... di dissuaderti da convinzioni assolutiste ... dove alludevo alle elettroniche di controllo .. e tu invece hai sviato sulle sorgenti e catene ... che era ovvio che la mia domanda/affermazione era a parita' di sorgente e catena :D
Pensa che invece a me da proprio fastidio che non sia possibile avere un 720i .... In questo modo potrei utilizzare il T-Rex del Pio solo come scaler e provare a deinterlacciare con il Sil del DVDO o addirittura il DCDi del TW500....invece se setto il 720 mi becco sia lo scaler che il deinterlacer del T-Rex ... :rolleyes:
-
Citazione:
Originariamente scritto da damon75
......
Il problema fondamentalmente è questo, per tale motivo, nei post precedenti, ho sempre insistito sulla bontà dei chip di deinterlacing.
Bye!
;) :cool: ;)
-
Citazione:
Originariamente scritto da robwin
Nel mio precedente post, e quì correggetemi se sbaglio, (intendo anche Alberto) volevo dire che la risoluzione effettiva di un segnale 1920X1080p è di circa 2,07 milioni di pixel mentre un segnale 1920x1080i (quindi diviso due) è di circa 1,04 milioni di pixel.
Non capisco da dove possa derivare questa convinzione, nè il motivo per cui il 1080i lo dividi per due (come se fosse possibile vedere solo un semiquadro alla volta).
La risoluzione è esattamente identica.
L'unica differenza è che se tu potessi vedere i due segnali su un display CRT, potresti notare sul 1080i il tipico sfarfallìo dei segnali interlacciati, e forse una minore luminosità.
Visto che in pratica mai lo potrai vedere su un display CRT (a parte rarissime eccezioni), non vedrai nè l'uno nè l'altra.
In teoria se il deiterlacer fosse talmente ben fatto da non introdurre perdite o artefatti, la visione di un segnale 1080p sarebbe identica a quella 1080i.
In pratica, vedremo...
-
Salve...
Seguo da molto tempo,e con interesse questo sito e soprattutto questo 3d visto che ero (ora non c'è più e quindi non posso :cry:) interessato all'acquisto di un 42pf9830,ed ora credo di poter dare un aiuto per chiarire un concetto che a quanto pare non riesce a risolversi...
L'enorme differenza tra il segnale video interlacciato e progressivo è l'istante del semiquadro.... in un segnale interlacciato l'istante dei due semiquadri che compongono l'immagine non è lo stesso,e l'elettronica che deve fare il deinterlacing ha il compito di "inventare" l'istante successivo del semiquadro che non è variato,come è ovvio immaginare ciò comporta delle aberrazioni +o- evidenti asseconda della qualità dell'elettronica.
In un segnale progressivo ciò non accade in quanto il quadro viene spedito per intero e non si deve inventare nulla.
Spero di essere stato sufficientemente chiaro ed esauriente...
-
Citazione:
Originariamente scritto da viganet
Non capisco da dove possa derivare questa convinzione, nè il motivo per cui il 1080i lo dividi per due ......
Premetto che non sono un tecnico nè tantomeno un esperto, ma solo un appassionato che cerca di tenersi informato attingendo notizie dalle riviste del settore, dalla rete e frequentando forum come questo.
Detto questo, al riguardo del mio primo post
"parlando in termini di risoluzione pura un segnale 1920x1080 interlacciato deve essere reso progressivo per poter essere visualizzato su un display digitale, questa operazione comporta una perdita di risoluzione con un segnale in uscita al processo di 1920 x 800 pixel circa."
la fonte è una rivista del settore, Vi prometto, appena ritrovo l'articolo, di indicarne nome e numero.
Per la mia seconda dichiarazione, forse ho interpretato male, comunque la fonte è questa
http://en.wikipedia.org/wiki/1080i
Resto in attesa di vostre considerazioni in merito
un saluto
-
Citazione:
Originariamente scritto da robwin
Detto questo, al riguardo del mio primo post
"parlando in termini di risoluzione pura un segnale 1920x1080 interlacciato deve essere reso progressivo per poter essere visualizzato su un display digitale
e fin qui non ci piove!!!
Citazione:
questa operazione comporta una perdita di risoluzione con un segnale in uscita al processo di 1920 x 800 pixel circa."
la fonte è una rivista del settore, Vi prometto, appena ritrovo l'articolo, di indicarne nome e numero.
e qui colui che ha scritto l'articolo pecca di ignoranza (nel senso che ignora, non in termini offensivi) , poichè sarebbe stato corretto dire che, in caso di segnale progressivo, viene inviato al televisore un flusso dati contenente delle immagini la cui risoluzione è appunto 1920x1080, nel caso di un segnale interlacciato invece ogni immagine viene divisa in due semiquadri, uno con le righe dispari ed uno con le righe pari. Ovviamente, per tal motivo, ogni semiquadro inviato avrà una risoluzione pari a 1920x540 MA PRIMA DI ESSERE VISUALIZZATO SU UN TELEVISORE LCD/PLASMA, ogni fotogramma viene ricostruito (vengono in pratica ricomposti i due semiquadri) e poi viene visualizzato. Pertanto l'immagine che tu vedi a video ha effettivamente una risoluzione di 1920x1080, non vi è alcuna perdita di risoluzione, e ciò ti è anche confermato dalla definizione che hai trovato su wikipedia e che hai linkato.
Ho letto la definizione e l'ho trovata perfetta! giustamente si dice che un segnale 1080p a 24fps occupa il 20% di banda in meno rispetto ad un segnale a 1080i a 60Hz.....è corretto, poichè un segnale 1080i a 60Hz equivale ad inviare a video 30 fps, di conseguenza passando da 30 a 24 fps c'è un risparmio di 6 frame per secondo, ovvero il 20%.
Questo, ancora una volta, non fa che confermare che, a livello di quantità di dati trasmessi, 1080i e 1080p non sono affatto diversi, l'unica cosa che potrebbe fare la differenza deriva dalla giusta osservazione fatta da viganet, tra un semiquadro e l'altro di un flusso interlacciato potrebbero esserci delle piccole differenze (tra i due semiquadri c'è infatti un intervallo di 1/60 sec. che sembra poco ma a volte poi così poco non è) che a loro volta potrebbero dar luogo ad artefatti, totalmente assenti in caso di segnale progressivo.
In ogni caso, questa considerazione vale solo se il materiale di partenza è interlacciato, in caso si debba riprodurre un flusso in origine progressivo (immaginiamo un blue-ray codificato NATIVAMENTE a 1080p) in questo caso inviarlo a 1080i dal lettore al televisore non dovrebbe comportare alcuna perdita di qualità (ovviamente quanto detto vale in teoria, appena sarà possibile vedere in pratica quanto detto ne riparleremo, ma sono abbastanza sicuro del buon risultato che si otterrà).
Bye!
-
Citazione:
Originariamente scritto da robwin
la fonte è una rivista del settore, Vi prometto, appena ritrovo l'articolo, di indicarne nome e numero.
un saluto
Come promesso, la rivista in questione è la defunta "CINEMAX" numero 10
Pag.96
ciao
-
Lo credo che sia defunta, se scriveva simili inesattezze...:D
Come ha brillantemente illustrato damon, il de-interlacing di un segnale non porta affatto ad una perdita di definizione dello stesso.
Si possono eventualmente avere artefatti prevalentemente nelle scene in rapido movimento dovuti al motivo che ha altrettanto brillantemente spiegato xplayer.
Ti ricodo che ad oggi tutti i segnali deinterlacciati e upscalati che abbiamo visto e vediamo continuamente, derivano dal caro vecchio PAL 576i, e mi sembra che, a parte realizzazioni particolarmente economiche o malriuscite, grossi problemi a ricostruire segnali progressivi 576p o superiori non ce ne siano...
A rigor di logica lo stesso sarà quando avremo da deinterlacciare il nuovo formato 1080i.
Ps ti chiedo scusa se il mio intervento è sembrato offensivo.
-
Citazione:
Originariamente scritto da viganet
Ti ricodo che ad oggi tutti i segnali deinterlacciati e upscalati che abbiamo visto e vediamo continuamente, derivano dal caro vecchio PAL 576i, e mi sembra che, a parte realizzazioni particolarmente economiche o malriuscite, grossi problemi a ricostruire segnali progressivi 576p o superiori non ce ne siano...
A rigor di logica lo stesso sarà quando avremo da deinterlacciare il nuovo formato 1080i.
Il "problema" Viga è che mentre per deinterlacciare un PAL (ed eventualmente scalarlo) basta un "semplice" circuito inventato anni fa (e ne esistono varianti ed implementazioni più o meno riuscite) che bene o male fa il suo sporco lavoro, trattare un 1080i richiede una potenza di calcolo al chip e degli algoritmi che sono diversi da quelli "classici", ragion per cui non è proprio un passaggio così indolore fra le due cose.
Quando avremmo solo segnali 1080i e display 1080p, la "guerra" sarà proprio fra le varie case di elettronica su chi deinterlaccia meglio, inducendo minori artefatti all'immagine.
Mandi !
Alberto :cool:
-
Citazione:
Originariamente scritto da viganet
Ps ti chiedo scusa se il mio intervento è sembrato offensivo.
Scusarti !!!! Ringrazio te e gli altri per avermi chiarito le idee.;)
Un saluto
-
Citazione:
Originariamente scritto da AlbertoPN
Quando avremmo solo segnali 1080i e display 1080p, la "guerra" sarà proprio fra le varie case di elettronica su chi deinterlaccia meglio, inducendo minori artefatti all'immagine.
Sarà che io sono un inguaribile ottimista e il mio motto è mai fasciarsi la testa prima di essersela rotta :D
Fatto sta che per me quello 1080i Vs 1080p è un problema un pò sopravvalutato, e cmq aspetterei di vedere concretamente all'opera un segnale 1080i deinterlacciato da un display 1080p prima di preoccuparmi.
Come sempre tutto IMHO :)
-
Citazione:
Originariamente scritto da viganet
... e cmq aspetterei di vedere concretamente all'opera un segnale 1080i deinterlacciato da un display 1080p prima di preoccuparmi.
io lo vedo ... ogni tanto ... :D ... e posso dirti che non è così semplice come la dipingono .....
dipende tantissimo dal materiale nativo, molto più che con il PAL.
Però si, è un problema di domani.
Concentriamoci su quelli di oggi per il momento, sono d'accordo !
mandi !
Alberto :cool:
-
Citazione:
Originariamente scritto da viganet
Fatto sta che per me quello 1080i Vs 1080p è un problema un pò sopravvalutato,
come nn quotarti è una vita che vado ripetendo questa cosa :O sembrano tutti ossessionati dalla possibilità di ricevere segnali 1080p :eek: ... andiamo per gradi e per il momento speriamo di poter veramente godere dei 720p e 1080i ... :read:
-
Citazione:
Originariamente scritto da AlbertoPN
Il "problema" Viga è che mentre per deinterlacciare un PAL (ed eventualmente scalarlo) basta un "semplice" circuito inventato anni fa (e ne esistono varianti ed implementazioni più o meno riuscite) che bene o male fa il suo sporco lavoro, trattare un 1080i richiede una potenza di calcolo al chip e degli algoritmi che sono diversi da quelli "classici", ragion per cui non è proprio un passaggio così indolore fra le due cose.
Ieri sera mentre mi vedevo costretto davanti al grande fratello, ripensavo a questo tuo ultimo post, e pensavo! (visto che serve il grande fratello ? :D )
La conclusione a cui sono giunto è che non sono d'accordo :D :D :D
E' vero che per deinterlacciare il PAL basta un circuito vecchio di anni, e difatti si trovano ormai soluzioni supereconomiche (senza entrare nel dettaglio qualitativo)
Per il 1080i non vedo tutta questa maggior complicazione.
Si tratta sempre di fare il medesimo lavoro (deinterlacciare due semiquadri video), con una maggiore capacità di calcolo dovuta al maggior peso del segnale (più "zeri e uno", ma stesso tipo di segnale video)
La maggiore potenza di calcolo richiesta, sarebbe ammortizzata proprio dal progresso tecnologico legato alla distanza temoporale che ci separa dai primi esemplari di deinterlacciatori, vecchi di anni.
Gli algoritmi invece sono convinto (per logica, non certo per conoscenze tecniche che non ho) che siano gli stessi, continuamente ottimizzati com'è logico, ma gli stessi, visto che si tratta sempre di deinterlacciare due semiquadri video.
Anzi, nel caso che poi il display sia un full hd, sarebbero addirittura più semplici degli attuali upscaler che, loro si, fanno il lavoro sporco, dovendo più o meno "inventarsi" pixel che in realtà non esistono.
Aggiungo poi che ........ siamo sicuri che esisteranno formati 1080p nativi ?
Quelli dei broadcaster quasi sicuramente non lo saranno.
Quelli pre registrati ?
Perchè se non lo fossero manco loro, il problema sarebbe del tutto inesistente.
Visto che comunque il segnale andrebbe deinterlacciato in tutti i casi, e che lo faccia il Faroudja presente nel lettore DVD, oppure lo faccia lo stesso identico Faroudja presente nel display, non farebbe differenza alcuna (essendo oltretutto i due apparecchi collegati in digitale).
L'unica differenza potrebbe esserci per quegli inguaribili smanettoni che spendono cifre astronomiche per deinterlacer esterni sperando che siano migliori di quelli integrati negli apparecchi.
Certo, in questo unico caso la differena potrebbe esserci, ma di quanto sarebbe quantizzabile qualitativamente ?
Tale da giustificare ingenti investimenti futuri e intransigenze talebane attuali ?
Cmq lo scambio di opinini mi pare molto interessante ed attuale, e visto che siamo andati inesorabilmente Off Topic, ho pensato di aprire un altro apposito thread dove continuare a discorrerne amabilmente :)
http://www.avmagazine.it/forum/showthread.php?t=48362
-
Citazione:
Originariamente scritto da viganet
La conclusione a cui sono giunto è che non sono d'accordo :D
Che sia la prima e l'ultima volta, ehhh ??? :D:D
Citazione:
Originariamente scritto da viganet
OK ;)
Mandi !
Alberto :cool: