TV Shoot-out 2018: vince l'OLED Sony AF9

Riccardo Riondino 25 Settembre 2018, alle 11:44 Display e Televisori

La nuova serie Sony Bravia Master prevale nel confronto annuale organizzato da Value Electronics, in cui un panel di esperti e appassionati ha eletto l'AF9 come migliore in assoluto, superando di stretta misura l'altro OLED LG E8, e lo ZF9 si è classificato al terzo posto davanti al Samsung Q9FN


- click per ingrandire -

Il nuovo TV Sony OLED AF9 Bravia Master è il vincitore dello Shootout 2018, organizzato dal punto vendita Value Electronics di Scarsdale, New York. Gli altri protagonisti sono stati l'OLED LG E8 e due modelli LCD: il Samsung QLED Q9FN e il Sony ZF9. Una giuria di esperti e un pubblico di appassionati hanno valutato le loro prestazioni in tre diverse categorie: "Miglior TV Living Room" (SDR Day Mode), ‘Miglior TV Home Theater’ (SDR dark room) e "Miglior TV HDR" (HDR dark room).


- click per ingrandire -

Il riferimento è stato il monitor OLED RGB professionale Sony BVM-X300, lo stesso impiegato nello shoot-out di HDTVTest. L'OLED AF9 ha superato di misura l'LG E8, mentre lo ZF9 si è classificato in terza posizione con il Samsung Q9FN a chiudere la classifica.


- click per ingrandire -

Sony AF9 (XBR-65A9F) 850
LG OLED 65E8P 845
Sony ZF9 (XBR-65Z9F) 832
Samsung QN65Q9FN 715

Sony ha prevalso quindi anche nel confronto tra LCD top di gamma, nonostante alcuni partecipanti abbiano notato a volte blooming e neri poco profondi. Durante la prova i modelli OLED sono stati periodicamente spenti e riaccesi per evitare l'intervento dell'ABL.


- click per ingrandire -

Questi sono i punteggi secondo la giuria di esperti:

Best Living Room TV

Modello Gest. movimenti Prest. fuori asse Upscaling Luminosità di picco Tot
Sony AF9 64 70 61 59 254
LG E8P 58 72 61 59 250
Sony ZF9 56 55 60 72 243
Samsung Q9F 51 40 63 72 226

 


- click per ingrandire -

 

Best Home Theater TV

Modello Nero/Contrasto percepito Dett. basse luci Skin tone Uniform. near black Tot
Sony AF9 71 66 70 56 263
LG E8P 76 68 66 52 262
Sony ZF9 57 70 64 67 258
Samsung Q9F 49 29 55 52 185


- click per ingrandire -

Best HDR TV

Modello Precis. colori Tone mapping 4000NIT WCG HDR alte luci Risol. percepita Tot
Sony AF9 70 59 65 66 73 333
LG E8 66 66 69 60 72 333
Sony ZF9 65 58 67 72 69 331
Samsung Q9F 56 64 59 62 63 304

Fonte: HD Guru; Flatpanels HD, Value Electronics

Commenti (32)

Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
  • Emidio Frattaroli

    25 Settembre 2018, 20:03

    Originariamente inviato da: Luca T;4890397
    Scusami Emidio, tu avrai per caso modo di mettere mano ad un AF9 per una review?
    Non ancora.

    Originariamente inviato da: Fedayn69;4890407
    Presumo fossero calibrati a dovere visto che il riferimento era il monitor OLED RGB professionale Sony BVM-X300.
    Non credo. Anche perché il Samsung ben tarato non ha problemi sulle basse luci, come invece si evince dai voti.

    Emidio
  • thegladiator

    26 Settembre 2018, 08:38

    Emidio, sul fatto che fossero calibrati non credo ci siano dubbi, persino nella foto da voi pubblicata si vede un PC con la schermata di Calman e quella che sembra essere una Klein o uno spettro professionale (la foto è un po’ sfuocata e non riesco a riconoscere esattamente lo strumento). Poi, su COME siano stati calibrati e quanto fosse competente il calibratore ovviamente non è dato a sapersi.

    Circa le considerazioni di Alberto: quantificare percentualmente la differenza di qualità video fra diversi tv la vedo un po’ dura, motivo per cui solitamente il riscontro sono le misure strumentali o la valutazione di alcuni pattern per certi aspetti. Ma non da ultimo ciò che poi conta è il risultato durante la visione, troppe volte mi sono trovato di fronte a un quadro prodotto da modelli diversi (anche a parità di tecnologia) che è visibilmente differente nonostante i grafici ti raccontino che tutto è a target e i dE siano al di sotto della cosiddetta soglia di visibilità.

    Il tutto ovviamente IMHO.
  • salamandre40

    26 Settembre 2018, 09:35

    Originariamente inviato da: alesaiyan;4890396
    ...A mq i qled piacciono parecchio, specialmente perché con i videogiochi quei colori accesi...[CUT]


    Ma perché tutti vogliono massacrare i videogiochi con delle impostazioni assurde e dei colori sparati, basta che il tv sia calibrato (che sia Samsung, Sony, LG o Panasonic) e renderanno come gli artisti che gli hanno concepiti volevano farceli vedere.
  • Fedayn69

    26 Settembre 2018, 09:45

    per lo stesso motivo secondo il quale il campo da calcio deve essere verde acido
  • AlbertoPN

    26 Settembre 2018, 10:24

    Originariamente inviato da: thegladiator;4890633
    Circa le considerazioni di Alberto: quantificare percentualmente la differenza di qualità video fra diversi tv la vedo un po’ dura, motivo per cui solitamente il riscontro sono le misure strumentali o la valutazione di alcuni pattern per certi aspetti. Ma non da ultimo ciò che poi conta è il risultato durante la visione, troppe volte mi sono trovato di fronte a un quadro prodotto da modelli diversi (anche a parità di tecnologia) che è visibilmente differente nonostante i grafici ti raccontino che tutto è a target e i dE siano al di sotto della cosiddetta soglia di visibilità.


    Intendevo dire, se ad un test x un display ha 65 punti ed uno 63 .... o 61 .... quando differente (in peggio) si vede questo rispetto a quello col punteggio maggiore ? E questa differenza, quanto è appunto sotto la soglia di visibilità che citi ?

    Perchè (almeno, parlo per me) vedere sti numeri mi dice qualcosa, ma niente di significativo.
    Forse adesso mi sono spiegato meglio
  • thegladiator

    26 Settembre 2018, 11:39

    Originariamente inviato da: Fedayn69;4890650
    per lo stesso motivo secondo il quale il campo da calcio deve essere verde acido


    Eh, ma sai, ormai c'è il gusto per la realtà aumentata… anche i campi da calcio ne subiscono le conseguenze!
  • thegladiator

    26 Settembre 2018, 12:38

    Alberto, con me sfondi una porta aperta, ho capito benissimo il tuo discorso. Uno shoot out serio dovrebbe innanzitutto pubblicare i grafici, riportare metodo e strumenti di calibrazione, e in ultimo menzionare che diamine significano i numeri che rappresentano i voti assegnati. E non solo questo. Concordo infatti con te che letti così quei numeri dicono tutto e niente.
  • AlbertoPN

    26 Settembre 2018, 16:30

  • Riccardo Riondino

    26 Settembre 2018, 16:53

    Originariamente inviato da: thegladiator;4890736
    Alberto, con me sfondi una porta aperta, ho capito benissimo il tuo discorso. Uno shoot out serio dovrebbe innanzitutto pubblicare i grafici, riportare metodo e strumenti di calibrazione, e in ultimo menzionare che diamine significano i numeri che rappresentano i voti assegnati. E non solo questo. Concordo infatti con te che letti così quei numeri ..........[CUT]


    Aggiungo qualche dettaglio che non ho specificato nell'articolo

    I numeri rappresentano la somma dei voti espressi dal panel di nove esperti coinvolti nel test. In seguito riveleranno i voti del pubblico, non è detto che non aggiungano anche i dati tecnici

    La calibrazione è stata eseguita probabilmente con CalMAN, dato che Tyler Pruitt di Portrait Display faceva parte della giuria

    Il test si è svolto esattamente come lo shoot-out di HDTVTest: i TV sono stati confrontati direttamente con due monitor OLED Sony BVM-X300

    Quindi la valutazione del Samsung sulle basse luci probabilmente non ha un valore assoluto ma relativo
  • ebr9999

    26 Settembre 2018, 18:04

    Alcune considerazioni dal video:
    1. Lo shout out aveva come obiettivo una sola verifica visiva
    2. Le TV erano calibrate (addirittura i presenti si son sorbiti una presentazione di perchè le TV vanno calibrati .... sarà stata per gli entusiasti:rolleyes. Tra l'altro almeno in due modalità (stanza buia e stanza luminosa).
    3. Alle persone (la sala era piena) era richiesto di alzarsi in modo ordinato e passare davanti alle TV per farsi la propria opinione.

    Tutto questo apprezzabile, come la presenza di un monitor di riferimento. Mi mancano invece i dati di dettaglio. Intendo descrizione del test (criteri richiesti per i voto delle prove singole, pattern utilizzati, risultati per ogni test). Ritengo che allora, con questi dati, ognuno di noi potrebbe farsi un'idea di cosa hanno percepito i signori che erano lì. Peccato, perchè comunque, pur considerando che il campione dei partecipanti non era definito, qualcosa di interessante poteva venire fuori.

    PS: Non sarebbe poi male se riuscissero a rendere questi shot-out blind.
« Precedente     Successiva »

Focus

News