benegi ha detto:
siamo ancora al punto di partenza perchè non ci dice come mai un segnale 1280x720 oppure 1920x1080 si veda molto meglio di un comune segnale 720x576
Se parliamo di segnali nativi 1280x720 o 1920x1080 è ovvio che siano meglio di un 720x576. è pura matematica.
Ma credo tu intendessi segnali upscalati a 1280x720 o 1920x1080.
In maniera un po' criptica, ma la risposta era sottintesa nel mio post succesivo.
Esistono degli algoritmi di elaborazione dell'immagine. Il più semplice è l'nterpolazione lineare, cioè vengono considerati i pixel contigui dell'immagine originale e vengono creati i pixel necessari all'ingrandimento o eliminati quelli superflui nella riduzione. Funziona discretamente solo con rapporti di ingrandimento o riduzione che siano multipli perfetti.
In pratica, se l'immagine originale contiene un pixel bianco ed uno nero affiancati, ingrandendo x2 l'immagine si avrà un pixel intermedio che sarà grigio.
Questo però toglierà definizione all'immagine perché non considera il contesto nel quale sono inseriti quei due pixel.
Se quel singolo pixel bianco fosse una stella in un cielo nero, la sua immagine ingrandita diventerebbe "alonata in grigio". Per la precisione avrebbe una cornice di 9 pixels grigi, toglionde quindi luminosità e leggibilità del "contesto" stella.
Ma esistono algoritmi molto più sofisticati (bicubica, spline ed altri che non conosco) che interpretano porzioni ± grandi dell'immagine, considerandone diverse componenti (luminosità, contrasto, colore, micro contrasto, ecc…) per ricrearne l'immagine ridimensionata.
Ad ogni modo, qualunque sia l'algoritmo usato può (direi deve), essere accompagnato da elaborazioni del mirocrontrasto che nel ridimensionamento si perde sempre un po'. Tornando all'esempio della stella, se i pixels di contorno fossero al 25% di grigio invece che al 50% la cosa sarebbe decisamente meglio.
Anche questo calcolo può essere effettuato su matrici di diversa grandezza e con diverse intensità. La matrice più semplice è quella che considera un solo pixel e lo confronta con quelli adiacenti per esaltarne ± la differenza. Più sofisticate, ma più complesse da elaborare, sono matrici da 2x2; 3x3; ecc….
Alcuni esempi di interpolazione li avevo fatti tempo fa relativamente all'ingrandimento di immagini fotografiche.
http://www.avmagazine.it/forum/showpost.php?p=322571&postcount=40
http://www.avmagazine.it/forum/showpost.php?p=323152&postcount=46
Una cosa mi preme sottilineare. Non è assolutamente vero che un'immagine downscalata sia meglio di una upscalata.
in entrambi i casi i dati originali si perdono ed il risultato è una rielaborazione, più o meno riuscita dell'immagine.
Soprattutto il microcontrasto si perde molto di più in downscaling che in upscaling (pensate sempre alla stella che potrebbe sparire se l'immagine venisse ridotta).
Però ripeto che questo discorso riguarda l'elaborazioni di immagini in generale.
Non ho idea di quali siano gli algoritmi utilizzati nei vari scaler, né come agiscano.
Secondo me sarebbe questa la cosa più interessante, ma ha ragione artyfra, non credo ce lo diranno.
Ciao.
p.s.: il segnale PAL digitale 720x576 non è un segnale a pixel quadrati ma, in base alle definizione dello standard CCIR 601, hanno un rapporto 1:1,066. Una specie di anamorfizzazione digitale.
Il formato PAL analogico (il normale TV CRT 4/3) a pixel quadrati è 768x576.