• Sabato 14 febbraio da Audio Quality partirà un roadshow che porterà il nuovo proiettore DLP 4K trilaser Valerion VisionMaster Max in giro per l'Italia e che toccherà Roma, Genova, Milano, Napoli, Padova e Udinee forse anche Bari e Torino. Maggiori info a questo indirizzo

Tv hd ready che va a 1080p?

Stato
Discussione chiusa ad ulteriori risposte.

lukazzo

New member
Ciao a tutti, ho un lcd samsung le32a436 che è hd ready, per caso provandolo con la ps3 vedo che va a 1080p anche se non dovrebbe, probabilmente accetta i 1080p ma li downscala a 720p o 1080i essendo hd ready però mi sembra migliore la qualità quando dice di essere a 1080p rispetto ai 720p, sono io che me lo immagino o in effetti anche se forse non è full hd puo comunque essere migliore di quando è settata in 720p?
 
La domanda che dovresti fare è quale è la risoluzione nativa del tuo pannello. Probabilmente il numero di pixel di cui è composto è diverso dal numero di pixel che compongono un immagine in ingresso sia a 720p che a 1080p. A questo punto, probabilmnete il processore a bordo si trova maggiormente a suo agio a trattare immagini native a 1080p piuttosto che 720p... :).
1080i è comunque fullHD dato che l'immagine che si ottiene dai due semiquadri è in ogni caso a 1080 linee.
 
Non credo che 1080i sia una risoluzione considerata FullHD; faccio l'esempio con il mio TV: essendo un CRT HD permette di visualizzare un immagine a 1080i nativa (ottenuta proprio dai 2 semiquadri). Nonostante ciò non è un TV FullHD ma solo HD.
 
1080i è FULL HD a tutti gli effetti....se il display del tv ha una risoluzione di 1920x1080. Anche perchè qualsiasi tv lcd o plasma che sia deinterlaccia il segnale rendendolo 1080p (non essendo in grado nessun tv lcd/plasma di visualizzare segnali interlacciati).
Il tv di lukazzo accetta il 1080p per essere compatibile con i 24p che passano solo con appunto il 1080p....poi ovviamente scala alla risoluzione nativa del pannello.
 
Ultima modifica:
è il mio stesso pannello, solo che il mio nel formato 40 pollici.
io come detto nel mio post sono arrivato ad avere risoluzione di 1920 x 1080 i, che dovrebbe essere sempre hd ready penso. non ho mai provato a mandargli in ingresso un segnale a 1080p. e non lo posso provare ora.
 
guantolento ha detto:
io come detto nel mio post sono arrivato ad avere risoluzione di 1920 x 1080 i,
No....non sei arrivato ad avere quella risoluzione....la risoluzione alla quale va è sempre e comunque 1366*768....se gli invii un 1920x1080 i/p il tv lo accetta ma riporta la risoluzione a 1366x768 usando il suo scaler....cosa che non avviene invece in un tv con pannello a 1920x1080....in questo caso il tv sfrutta tutta la risoluzione del segnale...interlacciato o progressivo che sia.
 
rossoner4ever ha detto:
1080i è FULL HD a tutti gli effetti....se il display del tv ha una risoluzione di 1920x1080. Anche perchè qualsiasi tv lcd o plasma che sia deinterlaccia il segnale rendendolo 1080p (non essendo in grado nessun tv lcd/plasma di visualizzare segnali interlacciati).
Ripeto che la risoluzione 1080i non è FullHD! Che poi un display FullHD la deinterlacci per adattarla alla sua risoluzione 1080p è un altro discorso! Giustamente gli LCD e plasma HD ready non permettono di vedere a 1080i e quindi riscalano e deintarlacciano a 720p, ma i pochi CRT HD usciti invece si; questi permettono di visualizzare un immagine con risoluzione a 1080 interlacciata ottenuta proprio dai famosi 2 semiquadri (pari e dispari) pur non essendo assolutamente FullHD.
Le immagini FullHD sono solo quelle con risoluzione a 1080p nativa.
 
robertocastorina ha detto:
Ripeto che la risoluzione 1080i non è FullHD!
E io ti ripeto che stai sbagliando...e di tanto. ;)

Se ne era già parlato tempo fa.

http://www.avmagazine.it/forum/showthread.php?t=114828
Giustamente gli LCD e plasma HD ready non permettono di vedere a 1080i e quindi riscalano e deintarlacciano a 720p
E quelli che hanno un pannello 1920x1080 invece cosa fanno secondo te? Scalano comunque a 720p? ;) O come è ovvio che sia usano tutte e 1080 le linee che un segnale 1080i offre dopo essere passato sotto il deinterlacer del tv? ;)
 
In quel 3D nessuno (compreso Emidio Frattaroli) ha mai affermato con certezza che 1080i è FullHD ma hanno giustamente scritto: "secondo me". Infatti sia nelle riviste ufficiali che in internet c'è spesso molta discordanza in merito, al punto tale che non esiste nessuna affermazione certa al 100%. Nonostante ciò una cosa è certa al 100% e cioè che una sorgente con risoluzione a 1080i invia al display la metà delle informazioni rispetto a quella con risoluzione 1080p.
So già che mi riponderai che un conto è la qualità finale dell'immagine ed un altro è l'etichettarla o meno FullHD; però dato che, come ho detto prima non esiste una posizione ufficiale su quest'ultima affermazione, io sono nel versante no e cioè che un immagine a 1080i secondo me non è FullHD, quindi non credo di sbagliarmi di tanto ma al contrario ho un'opinione diversa dalla tua giustificata da pareri contrari a quello che mi hai linkato.
 
Ultima modifica:
robertocastorina ha detto:
Non c'è bisogno che ti linki anch'io perchè in internet si trovano fior di discussioni in merito.
Scusa se ho voluto linkarti qualche pagina.... non mi permetterò più. :rolleyes:
e cioè che una sorgente con risoluzione a 1080i invia al display la metà delle informazioni rispetto a quella con risoluzione 1080p
E' qui che sbagli.... le invia in due momenti diversi e poi il tv le "rimette" insieme.
Io non ho mai detto che il 1080i sia migliore o uguale qualitivamente al 1080p....ho detto che in termini di risoluzione 1080i e 1080p visualizzati su un display FULL sono la stessa cosa.
Poi se ti offendi se uno cerca di spiegarti una cosa (anche magari sbagliando) non c'è nessun problema....non si ripeterà.
 
Mi spaice che tu reagisca in questo modo perchè non era assolutamente mia intenzione creare una polemica! Se l'ho fatto ti chiedo scusa!
Comunque non credo di sbagliare e non credo che sbagli neppure tu; alla fine se vogliamo è solo una questione di differente lettura e di etichette. Faccio un esempio che calza a pennello con il tuo penultimo post:
rossoner4ever ha detto:
Altro esempio per convincerti ulteriormente...
Il Philips 9731d vinse nel 2006 il premio EISA come miglior tv FULL HD HI END....e non accetta in entrata il 1080p. ;)
Nel 2005 la EISA decise di non attribuire al CRT HD Philips 32pw9551 l'etichetta di HD Ready e, putroppo per loro, si sbagliarono di grosso facendo oltretutto una bruttissima figura nei confronti di chi successivamente lo testò a fondo con il risultato che lo meritava più di moltissimi LCD HD Ready del tempo. Non dico che siano incompetenti, ci mancherebbe, ma che a volte con l'etichette si toppa di brutto perchè facilmente soggette ad interpretazione. In quel caso la EISA decise di non attribuire l'HD Ready perchè mancava qualche linea per arrivare a 720p, tralasciando il dato che la risoluzione a 1080i era (ed è) invece piena e nativa.
 
Ultima modifica:
robertocastorina ha detto:
Mi spaice che tu reagisca in questo modo perchè non era assolutamente mia intenzione creare una polemica! Se l'ho fatto ti chiedo scusa!
Scusa accettate.

Il citare il 9731d era solo un esempio.... delle etichette a me non interessa minimamente. ;)
Io stavo parlando di un dato tecnico.
Un 1080i e un 1080p visualizzati su un pannello 1920x1080 sono in termini di risoluzione la stessa cosa.
E quindi dire che 1080p è FULL e 1080i no non è, per me, corretto.
 
rossoner4ever ha detto:
E' qui che sbagli.... le invia in due momenti diversi e poi il tv le "rimette" insieme.
Io non ho mai detto che il 1080i sia migliore o uguale qualitivamente al 1080p....ho detto che in termini di risoluzione 1080i e 1080p visualizzati su un display FULL sono la stessa cosa.
Anch'io non ho mai detto che 1080i e 1080p non abbiano la stessa risoluzione. Ho detto che per me quella a 1080i non può essere considerata Full proprio perchè le informazioni vengono inviate metà per volta e non tutte insieme (anche se è vero che poi il display le fa visualizzre insieme). A tal proprosito sono molte le opinioni di chi afferma che non è piena perchè nel processo di deinterlacciamento si perde qualcosa quindi, se così fosse, l'immagine non potrebbe essere considerta FullHD. Non voglio farti cambiare idea e non voglio polemizzare (adesso edito le parti dei miei post precedenti in cui ti ho dato questa impressione), ma non credo di dire inesattezze.
 
robertocastorina ha detto:
Nonostante ciò una cosa è certa al 100% e cioè che una sorgente con risoluzione a 1080i invia al display la metà delle informazioni rispetto a quella con risoluzione 1080p.

La metà delle informazioni ? Dimentichi un piccolo particolare:

"In quanto tempo" ?

Quello che dici, cioè che la sorgente impostata a 1080i manda metà delle informazioni rispetto a quella a 1080p, non è valido per l'uso più comune, cioè trasmissioni TV HD o film in Blu-Ray.

Tra il mandare schermate 1920x1080 24 volte al secondo, oppure schermate 1920x940 50 o 60 volte al secondo (questo è il 1080i), non c'è NESSUNA differenza.

Se stai vedendo un film in Blu-ray, anche inviandolo ad uno schermo che accetta solo il 1080i, compresi i CRT, non butti via NESSUNA informazione, perchè con i semiquadri che invii si ottiene comunque la stessa immagine 1080p dell'originale. La TV HD tipo Sky, è già 1080i in ripresa, quindi sono proprio i dati originali a essere 1080x940, a 50 o 60 semiquadri.

L'unico caso in cui mandando il 1080i si perdono dati, sono i videogiochi, e solo quelli con il 1080p a 50 o 60 fps reali e non upscalati dalla console.

Sui CRT, semmai, più che per il discorso dell'interlacciato o del progressivo, la discriminante dovrebbe essere il DOT PITCH dei fosfori.

Cioè, se questo è sufficente o meno a risolvere almeno 1080 linee. Se lo è, allora il TV può essere sicuramente chiamato FullHD, altrimenti no.

Infatti, il CRT della Philips con l'HDMI che era uscito qualche hanno fa, era denominato "HD Prepared", NON perchè fosse un CRT, e quindi interlacciato, ma semplicemente perchè il Dot Pitch dello schermo non era sufficente a risolvere 720 linee, che è il minimo per potersi chiamare HD Ready.

Se tieni conto di questo, allora vedrai il denominare uno schermo 1080i come FullHD o meno è solo una questione di nome, sul cui possiamo essere d'accordo o meno, ma tecnicamente non cambia nulla.

Anche perchè, FullHD non è una denominazione ufficiale approvata come standard, è solo una denominazione commerciale.

Lo standard ufficiale con il logo si chiama "HD Ready 1080p" e infatti, questo prevede espressamente che lo schermo supporti il 1080p a 24, 50 e 60 fps per cui, un CRT 1080i non può usarlo. Da Wikipedia:

http://en.wikipedia.org/wiki/HD_ready

In order to be awarded the label "HD ready 1080p" (not equivalent to Full HD, as Full HD devices may not fulfill all HD Ready 1080p requirements), or the older "HD Ready" logo, a display device has to cover the following requirements:

Per cui, si può dire che il FullHD è un sottoinsieme dell'HD Ready 1080p quindi, un TV che accetta solo il 1080i, ma abbastanza definizione (pixel se è digitale, o dot pitch sufficente se è CRT) per poter risolvere 1080 linee, può essere benissimo chiamato FullHD per quanto riguarda le applicazioni tradizionali di TV HD e film in Blu-ray, ma non può mettere il logo "HD Ready 1080p", perchè questo richiede anche il supporto del 1080p a 50 e 60 fps.

Ovviamente, il TV di cui si parlava, con risoluzione 1366x768, non è certamente FullHD, indipendentemente da quali segnali accetti...
 
Ultima modifica:
gattapuffina ha detto:
La metà delle informazioni ? Dimentichi un piccolo particolare:

"in quanto tempo" ? E, soprattutto, sono informazioni *diverse*, cioè utili a riconoscere un'eventuale differenza tra mandare il doppio delle informazioni e mandarle tutte ?

Perchè, se stai vedendo un film in Blu-ray, anche inviandolo ad uno schermo che accetta solo il 1080i, compresi i CRT, stai sì inviando metà dei dati, non butti via NESSUNA informazione, perchè con i semiquadri che invii si ottiene comunque la stessa immagine 1080p dell'originale.
.
Forse mi sono espresso male o non sono stato capito: anch'io intendevo proprio dire che a 1080i vengono inviati al display metà dei dati per volta; ma ho aggiunto anche che la capacità di quest'ultimo di deinterlacciare correttamente (o nel caso dei CRT di scansionare i semiquadri correttamente) non è scontata. In considerazione di ciò non considero un immagine a 1080i in alta definizione piena. Comunque non voglio passare per quello che difende per forza una teoria strampalata perchè non è così! Come ho già scritto qualche post fa, la rete è piena di opinioni come la mia ben supportate.
Per evitare diatribe secondo me sarebbe stato meglio suddividere i loghi in questo modo:

- HD READY 720p,

- HD READY 1080i,

- HD READY 1080p

ed il problema sarebbe risolto.
Per quanto riguarda il logo non attribuito al CRT HD Philips ripeto quanto già scritto: è stato un errore della EISA in quanto si basò solo sul problema DOT PITCH dei fosfori che impedisce al display di visualizzare un immagine con risoluzione a 720p piena (manca qualche linea), ma non a 1080ì come dimostrato poi in successivi test effettuati da tecnici esperti e riviste; quest'ultimi affermarono che ciò doveva essere sufficiente per ricevere il logo HD Ready (è vero che ufficialmente l'HD ready viene attribuito ai dsplay con risoluzione minima di 720p, ma i CRT HD dovevano e devono essere valutati diversamente e cioè se raggiugono pienamente 1080i). Invece il logo HD Prepared non è stato attribuito dalla EISA, bensì da Philips per sopperire a questo clamoroso errore (leggere la discussione ufficiale su questo TV per credere).
 
Ultima modifica:
Stiamo andado OT con il rischio di confondere chi ha aperto il thread :rolleyes:.

Per chiudere l' OT un segnale 1080i50Hz può definirsi come analogo ad un segnale 1080p 50Hz in termini di risoluzione alle seguenti condizioni:

1) Che il segnale 1080i sia in modalità cine.
2) Che il deinterlacer del display riconosca tale modalità e reinpacchetti i semiquadri senza operare interpolazioni della risoluzione verticale.

La cosa vale anche per i segnali 1080p24 Hz e il relativo 1080i60Hz (con qualche differenza in caso o meno venga rimosso il pulldown 2:3)

Di sicuro le partitre di calcio a 1080i50Hz non hanno nulla a che vedere con un segnale 1080p25 Hz; i semiquadri in questo caso sono in video mode; il segnale interlacciato ha una risoluzione temporale doppia (maggiore fluidità) e una risoluzione verticale dimezzata, con la conseguenza che il deinterlacer opera delle interpolazioni della risoluzione verticale (in taluni casi deve raddoppiarla), queste sono chiaramente visibili come leggere sfocature degli oggetti in movimento o come "perdita di fuoco" nelle carrellate.

Non mi meraviglio del fatto che un display con risoluzione 1360x768 vada meglio con segnali full HD in ingresso... questa risoluzione è frutto di una singola operazione di ridimensionamento a differenza del 720p che è doppio.

Ciao
 
robertocastorina ha detto:
Forse mi sono espresso male o non sono stato capito: anch'io intendevo proprio dire che a 1080i vengono inviati al display metà dei dati per volta

NON vengono inviati metà dei dati per volta!!! I dati che vengono inviati sono gli stessi, vengon solo inviati in un formato diverso:

1080/24p - vengono mandate 24 schermate 1920x1080 al secondo

1080/50i - vengono mandate 50 schermate 1920x940 al secondo

Sono gli STESSI dati!

Ho editato il mio messaggio precedente, infatti, perchè NON vengono invitati metà dei dati, vengono invati gli stessi dati, solo in un diverso ordine. Questo, per quanto riguarda le due applicazioni principali, cioè film in Blu-ray e TV HD.

ma ho aggiunto anche che la capacità di quest'ultimo di deinterlacciare correttamente (o nel caso dei CRT di scansionare i semiquadri correttamente) non è scontata. In considerazione di ciò non considero un immagine a 1080i in alta definizione piena.

No. Stai confondendo la capacità del singolo apparecchio di trattare correttamente il segnale interlacciato o progressivo, con il fatto se è lecito o meno definire una trasmissione (un "immagine a 1080i" non è un concetto che ha molto senso) di dati a 1080i come alta definizione piena.

Piena rispetto a cosa ? Il segnale originale, ripeto, se è un BD è 1080p, ma a 24 fps. Se è una trasmissione TV, invece, è già 1080i originariamente.

L'UNICO caso, ripeto, in cui l'invio a 1080i rappresenta una perdita di dati, è quando l'originale ha risoluzione NATIVA 1920x1080, e 50 o 60 fps. Tipicamente, i videogiochi. O magari, qualche video multimediale realizzato ad hoc con una videocamera che riprende a 1080/50/60p


Come ho già scritto qualche post fa, la rete è piena di opinioni come la mia ben supportate.

Che a trasmettere a 1080i una trasmissione TV o un film BD NON si perda NULLA, non è un opionione, ma un fatto.

Che qualcuno sostiene che, se uno schermo non è in grado di arrivare anche a supportare il 1080/60p, non può essere definito FullHD, si può discutere invece.

Per quanto riguarda il logo non attribuito al CRT HD Philips ripeto quanto già scritto: è stato un errore della EISA in quanto si basò solo del problema DOT PITCH dei fosfori

Se anche fu fatto un errore nel caso del Philips, è comunque irrilevante, nell'ambito di questa discussione.

Anzi, dicendo che, in base a test effettuati, il TV in realtà ce la faceva, non fa altro che dimostrare che è giusto quello che ho detto, cioè che i CRT vanno giudicati in base al dot pitch, possibilmente con prove visive, visto che non è così semplice come nel caso di quelli digitali, che o hanno i pixel, o non li hanno, e che comunque il fatto che ci arriva almeno in interlacciato e quindi "meritava" almeno il logo HD Ready, conferma ulteriormente quello che ho detto: NON E' l'interlacciamento che è la discriminante per non considerare un TV HD Ready ( o Full HD, se arriva a 1080 linee)
 
gattapuffina ha detto:
Che qualcuno sostiene che, se uno schermo non è in grado di arrivare anche a supportare il 1080/60p, non può essere definito FullHD, si può discutere invece.
E' proprio questo che intendo quando scrivo:
robertocastorina ha detto:
Come ho già scritto qualche post fa, la rete è piena di opinioni come la mia ben supportate.
Comunque secondo me non ci stiamo capendo (o forse io mi sto spiegando male), perchè sono d'accordo su tutto quello che hai scritto tranne su una cosa: quando un display FullHD riceve una sorgente a 1080i ci può essere perdita di dati anche nel caso di una trasmissione televisiva (esempio SKY HD) e non solo nel caso dei giochi
L'intera discussione è partita dalla correttezza o meno di etichettare come FUllHD una sorgente con risoluzione a 1080i; bene, per me non è corretto! Le trasmissioni di SKY o Mediaset premium con risoluzione a 1080i nativa per me non possono essere considerate FullHD, cioè ad alta risoluzione piena! Piena rispetto a cosa? Rispetto alla massima risoluzione raggiungibile dai TV oggi in commercio, cioè 1080p.
 
Ultima modifica:
Stato
Discussione chiusa ad ulteriori risposte.
Top