Visualizzazione Stampabile
-
Citazione:
Originariamente scritto da
thegladiator
Circa le considerazioni di Alberto: quantificare percentualmente la differenza di qualità video fra diversi tv la vedo un po’ dura, motivo per cui solitamente il riscontro sono le misure strumentali o la valutazione di alcuni pattern per certi aspetti. Ma non da ultimo ciò che poi conta è il risultato durante la visione, troppe volte mi sono trovato di fronte a un quadro prodotto da modelli diversi (anche a parità di tecnologia) che è visibilmente differente nonostante i grafici ti raccontino che tutto è a target e i dE siano al di sotto della cosiddetta soglia di visibilità.
Intendevo dire, se ad un test "x" un display ha 65 punti ed uno 63 .... o 61 .... quando differente (in peggio) si vede questo rispetto a quello col punteggio maggiore ? E questa differenza, quanto è appunto sotto la soglia di visibilità che citi ?
Perchè (almeno, parlo per me) vedere sti numeri mi dice qualcosa, ma niente di significativo.
Forse adesso mi sono spiegato meglio :)
-
Citazione:
Originariamente scritto da
Fedayn69
per lo stesso motivo secondo il quale il campo da calcio deve essere verde acido :D
Eh, ma sai, ormai c'è il gusto per la realtà aumentata… anche i campi da calcio ne subiscono le conseguenze! :D
-
Alberto, con me sfondi una porta aperta, ho capito benissimo il tuo discorso. Uno shoot out serio dovrebbe innanzitutto pubblicare i grafici, riportare metodo e strumenti di calibrazione, e in ultimo menzionare che diamine significano i numeri che rappresentano i voti assegnati. E non solo questo. Concordo infatti con te che letti così quei numeri dicono tutto e niente. :)
-
-
Citazione:
Originariamente scritto da
thegladiator
Alberto, con me sfondi una porta aperta, ho capito benissimo il tuo discorso. Uno shoot out serio dovrebbe innanzitutto pubblicare i grafici, riportare metodo e strumenti di calibrazione, e in ultimo menzionare che diamine significano i numeri che rappresentano i voti assegnati. E non solo questo. Concordo infatti con te che letti così quei numeri ..........[CUT]
Aggiungo qualche dettaglio che non ho specificato nell'articolo
I numeri rappresentano la somma dei voti espressi dal panel di nove esperti coinvolti nel test. In seguito riveleranno i voti del pubblico, non è detto che non aggiungano anche i dati tecnici
La calibrazione è stata eseguita probabilmente con CalMAN, dato che Tyler Pruitt di Portrait Display faceva parte della giuria
Il test si è svolto esattamente come lo shoot-out di HDTVTest: i TV sono stati confrontati direttamente con due monitor OLED Sony BVM-X300
Quindi la valutazione del Samsung sulle basse luci probabilmente non ha un valore assoluto ma relativo
-
Alcune considerazioni dal video:
1. Lo shout out aveva come obiettivo una sola verifica visiva
2. Le TV erano calibrate (addirittura i presenti si son sorbiti una presentazione di perchè le TV vanno calibrati .... sarà stata per gli entusiasti:rolleyes:). Tra l'altro almeno in due modalità (stanza buia e stanza luminosa).
3. Alle persone (la sala era piena) era richiesto di alzarsi in modo ordinato e passare davanti alle TV per farsi la propria opinione.
Tutto questo apprezzabile, come la presenza di un monitor di riferimento. Mi mancano invece i dati di dettaglio. Intendo descrizione del test (criteri richiesti per i voto delle prove singole, pattern utilizzati, risultati per ogni test). Ritengo che allora, con questi dati, ognuno di noi potrebbe farsi un'idea di cosa hanno percepito i signori che erano lì. Peccato, perchè comunque, pur considerando che il campione dei partecipanti non era definito, qualcosa di interessante poteva venire fuori.
PS: Non sarebbe poi male se riuscissero a rendere questi shot-out blind.
-
"Problema calibrazione" oltre che alle basse luci c'è anche il discorso del alternative White point per matchare visivamente il BVM-X300, com'è stato fatto sullo shootout di HDTVtest....
Dettaglio messo da parte.... Lo spegnere e riaccendere periodicamente fatto sul AF9 per evitare l'intervento del ABL non mi fa tanta allegria di notizia allettante...
Tuttavia sono comunque dei grandissimi TV e che sicuramente regaleranno emozioni a moltie persone, forse questo è quel che conta di più! :)
Dipende sempre dai punti di vista ;)
-
Citazione:
Originariamente scritto da
Riccardo Riondino
Aggiungo qualche dettaglio che non ho specificato nell'articolo
I numeri rappresentano la somma dei voti espressi dal panel di nove esperti coinvolti nel test. In seguito riveleranno i voti del pubblico, non è detto che non aggiungano anche i dati tecnici
La calibrazione è stata eseguita probabilmente con CalMAN, dato che Tyler Pruitt di Port..........[CUT]
Ma che senso ha comunicare i risultati in questo modo? Mi sembra tra l'altro una mancanza di rispetto per gli entusiasti (che poi sono quelli che trascinano le vendite), che erano lì.
-
Citazione:
Originariamente scritto da
ebr9999
PS: Non sarebbe poi male se riuscissero a rendere questi shot-out blind.
A parte la battuta scontata di fare un test in cieco sul video :D , ricordo che anni fa (forse AFDigitale o era già diventata DDay o non ricordo chi, ma non mi pare AVMagazine) aveva fatto qualcosa di simile con dei proiettori "mascherati" all'interno di una stanza, e le persone passavano davanti allo schermo, giudicavano ed avevano un parametro di riferimento neutro (tipo: schermo 1 o postazione A ... e via dicendo).
A parte le persone che hanno preso la cosa seriamente ed hanno espresso il loro parere soggettivo, ci sono state una pletora di altre persone che invece faceva "a gara" a chi riconosceva il prodotto in test .... così .... perché la guerra al celolunghismo non manca mai fra appassionati.
La "realtà" (o per lo meno, per come la vedo io) è che se prendi un panel eterogeneo di appassionati (e non noi che facciamo parte della categoria "impallinati perversi" :D ) di TV o di immagini, devi fornire loro un minimo minimo di base tecnica e scentifica di cosa osservare (niente di che, perché altrimenti si stufano ed annoiano subito) e fare il modo che il tutto sia si soggettivo al massimo, ma con un minimo di criterio; se 100 persone (invento) partono dal "a me mi piace .... " non hai concluso niente ......
Bisognerebbe avere un parametro, una scheda, un qualcosa di comprensibil a tutti ed immediatamente fruibile anche a chi analizza i risultati del test.
Questa attività costa, e chi potrebbe avere l'interesse a realizzare una cosa del genere ? Forse qualche Università o qualche Società di marketing o chi è curioso di ricevere informazioni da un pubblico eterogeneo rispetto ad un determinato argomento.
-
Quoto al 100%. Il semplice appassionato, in generale, non è detto che sia esperto tecnicamente o dotato di ''occhio fino''...
-
-
Citazione:
Originariamente scritto da
AlbertoPN
... devi fornire loro un minimo minimo di base tecnica e scentifica di cosa osservare (niente di che, perché altrimenti si stufano ed annoiano subito) e fare il modo che il tutto sia si soggettivo al massimo, ma con un minimo di criterio; se 100 persone (invento) partono dal "a me mi piace .... " non hai concluso niente .............[CUT]
D'accordo al 100%.
E non è un caso che agli shootout, ormai da anni, faccio proprio questo: faccio vedere l'immagine o la sequenza, spiego dove "guardare" e dove sono - secondo me - le differenze e poi ognuno giudica che valore dare a quelle differenze, soprattutto in relazione alle differenze di prezzo...
Emidio
-
Citazione:
Originariamente scritto da
Emidio Frattaroli
D'accordo al 100%.
E non è un caso che agli shootout, ormai da anni, faccio proprio questo: faccio vedere l'immagine o la sequenza, spiego dove "guardare" e dove sono - secondo me - le differenze e poi ognuno giudica che valore dare a quelle differenze, soprattutto in relazione alle differenze di prezzo...
Emidio
Apprezzo l'approccio, e penso che sarebbe bene fosse documentato, ma capisco che tu ritenga che la compilazione delle classifiche allo shot-out debba dipendere anche dal valore che i partecipanti danno alle differenze di prezzo.
Nel caso, non sono d'accordo. Penso che la classifica dello shout-out non debba essere inquinata dal fattore prezzo. Sarà poi chi utilizza le classifiche per operare una scelta, che deciderà sulla base del valore che dà al denaro.
-
Citazione:
Originariamente scritto da
thegladiator
Quoto al 100%. Il semplice appassionato, in generale, non è detto che sia esperto tecnicamente o dotato di ''occhio fino''...
Penso che il ruolo del conduttore dello shout-out sia anche quello di indirizzare la platea all'oggetto della valutazione. Anzi, io bandirei gli esperti dalla valutazione, o, almeno, terrei le relative valutazioni distinte. In fondo si tratta di prodotti consumer, mica di prodotti professionali.
-
Citazione:
Originariamente scritto da
ebr9999
Penso che il ruolo del conduttore dello shout-out sia anche quello di indirizzare la platea all'oggetto della valutazione. Anzi, io bandirei gli esperti dalla valutazione, o, almeno, terrei le relative valutazioni distinte. In fondo si tratta di prodotti consumer, mica di prodotti professionali.
Perché? E cosa c'entra che sono prodotti consumer e non "professionali"?
Inoltre il "presentatore", che sia in grado di indicare "cosa guardare" e soprattutto dove, non è mica un limite, anzi!!! Lui non deve "guidare" o viziare il giudizio ma serve soltanto a far sì che coloro che sono inesperti o non sanno cosa guardare, abbiano qualche elemento in più per giudicare.
Faccio un esempio: spesso il semplice appassionato - ma inesperto - rischia di preferire colori più saturi ma molto lontani dal riferimento oppure finisce per preferire una immagine ricca di dettaglio e scarsa in risoluzione invece che il contrario... Un esperto vero invece sa cosa guardare, ha esperienza e il giudizio è probabilmente più autorevole rispetto a quello di un semplice appassionato.
Magari sarebbe il caso che il giudizio degli esperti sia reso pubblico solo dopo quello degli appassionati e che sia ben chiaro cosa pensano singolarmente i veri esperti che hanno votato.
Emidio
P. S.
Dovresti venire ad uno dei miei shootout per capire di cosa sto parlando e per verificare che io non "indirizzo" proprio un bel niente.