HD Ready e pannelli 1366x768

Ippolito

New member
La mia domanda e' questa, come mai tutti i produttori vanno su pannelli da 1366x768 invece di produrre pannelli alla risoluzione "nativa" (Half)HD 1280x720? Non sarebbe meglio evitare di introdurre uno scaler interno alla TV per adattare le immagini (che in genere e' la cosa che piu' introduce problemi e artefatti) e aspettare i nuovi pannelli full HD? Soprattutto su schermi inferiori ai 32 pollici dove penso che sarebbe piu' importante evitare riadattamenti di risoluzione piuttosto che guadagnare qualche pixel di risoluzione.
Probabilmente sbaglio altrimenti non si capisco come mai nessuno faccia in questa maniera... :-)
 
Ippolito ha detto:
La mia domanda e' questa, come mai tutti i produttori vanno su pannelli da 1366x768 invece di produrre pannelli alla risoluzione "nativa" (Half)HD 1280x720? Non sarebbe meglio evitare di introdurre uno scaler interno alla TV per adattare le immagini (che in genere e' la cosa che piu' introduce problemi e artefatti) e aspettare i nuovi pannelli full HD? Soprattutto su schermi inferiori ai 32 pollici dove penso che sarebbe piu' importante evitare riadattamenti di risoluzione piuttosto che guadagnare qualche pixel di risoluzione.
Probabilmente sbaglio altrimenti non si capisco come mai nessuno faccia in questa maniera... :-)
Principalmente per motivi di costi poi ci saranno altri motivi tecnici ma sicuramente quello dei costi è principale.
Se fai un confronto con gli LCD Full-HD ti convincerai.
 
Ippolito ha detto:
La mia domanda e' questa, come mai tutti i produttori vanno su pannelli da 1366x768 invece di produrre pannelli alla risoluzione "nativa" (Half)HD 1280x720? Non sarebbe meglio evitare di introdurre uno scaler interno alla TV per adattare le immagini (che in genere e' la cosa che piu' introduce problemi e artefatti) e aspettare i nuovi pannelli full HD? Soprattutto su schermi inferiori ai 32 pollici dove penso che sarebbe piu' importante evitare riadattamenti di risoluzione piuttosto che guadagnare qualche pixel di risoluzione.
Probabilmente sbaglio altrimenti non si capisco come mai nessuno faccia in questa maniera... :-)


Hai ragione, questa cosa proprio non l'ho capita.......ma che senso ha 1366x768?

Avevano iniziato a fare i pannelli a 720 sui televisori da 26 pollici, ma ora sono spariti anche quelli. Tutto a 768.

Boh?
Poi noi ci dobbiamo sbattere per aggiustare il segnale e l'immagine e combattere con gli scaler. Non capisco perchè complicarsi tanto la vita.

Era facile, due sole risoluzioni 1280x720 e 1920x1080.
 
TomSon ha detto:
Hai ragione, questa cosa proprio non l'ho capita.......ma che senso ha 1366x768?

Avevano iniziato a fare i pannelli a 720 sui televisori da 26 pollici, ma ora sono spariti anche quelli. Tutto a 768.

Boh?
Poi noi ci dobbiamo sbattere per aggiustare il segnale e l'immagine e combattere con gli scaler. Non capisco perchè complicarsi tanto la vita.

Era facile, due sole risoluzioni 1280x720 e 1920x1080.

Questo mi sembra interessante
http://www.maneurope.com/hdtv.htm
 
Scusa Cesimaan, riguardo ai costi ti riferisci alla differenza tra 720p e 1080p? e sono d'accordo. ma io mi chiedevo come mai tra 720p e 1366x768 si sia preferita la seconda, non penso ci siano differenze di costo a favore di una o dell'altra. Per quanto riguarda il tuo link mi sembra molto ben fatto e che sostazialmente dia ragione al nostro dubbio.
Ma allora perche'??? Chissenefrega della risoluzione adatta al PC...!!!, meglio l'ottimizzazione per SkyHD e altre sorgenti HD.
 
Perché molti schermi HD ready hanno una risoluzione di 1.366x768 pixel?
Perché si adattano alle schede video dei pc e non si discostano molto dalla risoluzione del segnale HDTV di tipo 720p (1.280x720 pixel). Lo scaling sul video, che da 720 linee è portato a 768, è minimo, mantenendo alta la qualità visiva.
 
The Wall ha detto:
Perché molti schermi HD ready hanno una risoluzione di 1.366x768 pixel?
Perché si adattano alle schede video dei pc ....

Peccato poi che molti tv l'ingresso pc non lo hanno nemmeno e parecchi di quelli che lo hanno arrivano massimo a supportare tramite vga la risoluzione 1024*768. Praticamente mappare un pannello 1:1 è quasi impossibile: non lo si può fare con i segnali in half hd (720 contro 768) né con i segnali vga (1280 contro 1024) :mad: .
Forse ancora peggio con i plasma che con pannello 1024*768, quindi in formato 4:3, hanno dimensioni in 16:9 :mad: :mad:
Per me quindi rimane ancora un mistero la scelta delle risoluzioni (e stiamo parlando di pannelli che sono arrivati alla 9^ generazione per gli lcd ed alla 6^/7^ per i plasma) :confused: :confused:
 
Ippolito ha detto:
Scusa Cesimaan, riguardo ai costi ti riferisci alla differenza tra 720p e 1080p? e sono d'accordo. ma io mi chiedevo come mai tra 720p e 1366x768 si sia preferita la seconda, non penso ci siano differenze di costo a favore di una o dell'altra. Per quanto riguarda il tuo link mi sembra molto ben fatto e che sostazialmente dia ragione al nostro dubbio.
Ma allora perche'??? Chissenefrega della risoluzione adatta al PC...!!!, meglio l'ottimizzazione per SkyHD e altre sorgenti HD.
Sono d'accordo con te bisognerebbe sentire i produttori del perchè di questa scelta, che sarà senz'altro legittima, ma incomprensibile per NOI profani
 
Se non sbaglio ne avevamo parlato anche tempo fa...

credo che la motivazione principale sia stata di mantenere una risoluzione il + compatibile possibile con quelle PC..

in questo caso una 1366x768 è abbastanza facile da far digerire anche a un pc (1024x768...)

purtroppo come dice AB16 la maggior parte delle volte poi i Tv non accettano in DVI e in VGA una mappatura 1:1
 
offlines ha detto:
Se non sbaglio ne avevamo parlato anche tempo fa...

credo che la motivazione principale sia stata di mantenere una risoluzione il + compatibile possibile con quelle PC..

in questo caso una 1366x768 è abbastanza facile da far digerire anche a un pc (1024x768...)

purtroppo come dice AB16 la maggior parte delle volte poi i Tv non accettano in DVI e in VGA una mappatura 1:1


Vabbè, ma quanti sono quelli che collegano il PC ad un televisore LCD da 32" o superiore?

Questa storia della compatibilità mi sembra poco credibile, dal momento che invece compromette, seppur di poco, la qualità di tutte le altre sorgenti video.

Il PC poi si può adattare facilmente a tutte le risoluzioni, mentre un lettore dvd o una consolle no.
 
Sono perfettamente d'accordo! Hanno fatto il ragionamento "al contrario" come se considerassero ancora queste TV piu' per un uso professionale (vedi presentazioni alle fiere o cose del genere), che Home. Senza pero' considerare che e' molto piu' semplice adattare la scheda video di un PC piuttosto che una sorgente HD.
 
Anche io mi sono posto sempre questa domanda e non ho mai trovato una risposta esaustiva. :confused:

X di più, anche su un 32", una differenza di pixel tra 1280X720 e 1366X768 è ridicola e non ne vedo veramente l'utilità. M

L'unica cosa che hanno in comune è il rapporto di 1,77: cioè 16:9.

La "vecchia" risoluzione WXGA di 1280x768 (tutti i primi monitor LCD panoramici supportavano questa risoluzione) ha in realtà un rapporto di 1,66; cioè 16:10.

Certo, x gli standard video a 16:9 è meglio un rapporto vero di 1,77 , ma perchè andare sui 1366x768?!? :cry:

Poi, x le schede grafiche che lo supportano, non c'è differenza a mappare 1280x720 o 1366x768 e quindi.... anzi, al massimo è più facile trovare schede non proprio giovani che arrivano a 1280x768 e non oltre che arrivare fino a 1366x768. :rolleyes:
 
The Wall ha detto:
Perché molti schermi HD ready hanno una risoluzione di 1.366x768 pixel?
Perché si adattano alle schede video dei pc e non si discostano molto dalla risoluzione del segnale HDTV di tipo 720p (1.280x720 pixel). Lo scaling sul video, che da 720 linee è portato a 768, è minimo, mantenendo alta la qualità visiva.


non viene fatto alcuno scaling.... se usi la vga vengono usati tutti i 1.366x768 pixel, altrimenti dalle altre sorgenti vengono usati solo 1.280x720 pixel. la differenza di pixel viene suddivisa nei 4 bordi e lasciata spenta.

in questa maniera soddisfano sia chi usa il pc sia chi usa altre soergenti a 720.
 
Magic guarda che se su un lcd 1366x768 viene mandato in ingresso un segnale a 720P lo scaler dell'lcd in questione entra in funzione eccome.

Penso la risposta migliore e più semplice l'abbia data The Wall ;)
 
Scalare poco degrada molto

Scusate se rivango un thread vecchio di 2 anni, ma mi sono posto la stessa domanda, l'ho trovato con "cerca" e non sono d'accordo su quanto scritto, ovvero che per passare da 720 punti a 768 lo scaler debba lavorare poco e che la qualità risultante sia alta.
Ve lo dimostro:
prendete un'immagine a righe orizzontali come la seguente:

e scalatela di un fattore 768/720 (l'immagine qui sopra ha 90 pixel, che diventano 96) e otterrete il pasticcio seguente (lo scaler qui è lineare, probabilmente quello usato nei pannelli perché il più veloce, ma anche se fate uno scaling cubico o laczos3 non migliorate l'effetto):

ancora convinti che scalare poco si veda poco :eek::eek: ?

A confronto, lo scaling 1.5x e 2x danno risultati migliori (questi due esempi solo per mostrare che nello scaling "meno" non è "meglio", ad es l'1.5x si ha per passare da 720 a 1080 punti):
1.5x (ho ritagliato un area 90x90):

2.0 (idem):


Quindi penso che le ragioni dei 768 punti siano soprattutto commerciali e di compatibilità con il PC. Però il mappaggio 1:1 degli ingressi 720p sarebbe un'opzione desiderabile, che a loro costerebbe zero. A parte nei plasma, in cui la cosa causerebbe bande nere (sopra e sotto) e consumo irregolare dei pixel.
 
Anch'io ho fatto un test simile, ne parlavo in un altro thread.
Il discorso era che scalare un segnale 720p su un pannello hdready non è così immediato come sembra perchè
720p=1280x720
hdready=1024x768 (a meno che non si salga con i pollici)

una dimensione aumenta del 7%, l'altra diminuisce del 20%

guarda caso quella che scala di meno (7%) introduce più artefatti
Visualizza allegato 8532
 
Volevo aggiungere che nella vita reale la situazione non è poi probabilmente così drammatica, visto che gli esempi postati si applicherebbero solo al materiale 720p nativo contenente informazioni alla frequenza spaziale massima. Già nell'immagine di Picander coi pallini (quadratini?) si nota molto meno.
È un caso estremo, e non è comunque consigliabile mettersi così vicino al pannello per notare il singolo pixel, visto anche che difficilmente in un film il singolo pixel trasporta informazioni diverse dai vicini.
Se poi il materiale è già stato scalato per arrivare ai 720p dell'ingresso, quelle frequenze spaziali si sono già verosimilmente perse (devo rinfrescare l'analisi spettrale delle immagini per dimostrarlo, ma in un esempio grafico dovrebbe essere visibile).
 
il test è estremo, solo perchè immagini con contrasto+dettaglio massimo. Il che significa che la differenza tra full e hd-ready si vede solo in immagini con alto contrasto.

L'onda di luminosità che vedi anche nelle immagini da te scalate (dovrebbe chiamarsi battimento) si nota anche da lontano.
 
Picander ha detto:
L'onda di luminosità che vedi anche nelle immagini da te scalate (dovrebbe chiamarsi battimento) si nota anche da lontano.
Eh, sì, quella ha frequenza pari a 32 pixel: la striscia bianca (o nera) torna completamente bianca (o nera) dopo 32 pixel, anche se da lontano le due semionde sembrano identiche. Quello che nota l'occhio quindi è un battimento con frequenza 16 pixel, che in effetti si vede pure da lontano. Ma per fortuna è un caso estremo.
 
Top