C'è molta confusione, moltissima, in questo campo. Parte di questa confusione è figlia di disinformazione generale spinta da marketing aggressivo.
Tecnicamente non è intelligenza artificiale (si definisce intelligenza artificiale la creazione di un sistema che è in grado di prendere decisioni in base a quello che sta succedendo nell'ambiente in cui è posizionato, imitando quello che farebbe una persona umana), ma Machine Learning (ossia la capacità di una macchina di apprendere dei pattern andando a studiare una grossa mole di dati in cui quei pattern sono presenti). Così come non è intelligenza artificiale quanto proposto da Pace nell'esempio precedente.
E il fatto che l'algoritmo sbagli, anche se in maniera grossolana, è in realtà molto positivo: vuol dire che sono algoritmi veri e non delle cose fake fatte in power point

.
Esempio più recente era un sistema automatico di regia in gradi di seguire la palla in una partita di calcio che si è messa a seguire la crapa pelata di un guardalinee al posto del pallone.
Tecnicamente quanto afferma Samsung è possibile e verosimile, ma "artificiale": mostrando lo stesso video con risoluzioni diverse una rete può imparare a generare quei pixel di differenza che ci sono in maniera molto efficace.
Il punto non è tanto legato al pannello ma alla complessità HW per gestire questo genere di rete su un playback live senza generare rallentamenti o problemi.
Questo genere di task è relativamente semplice da un punto di vista algoritmico, anche perchè può essere semplicemente allenato: non è necessario creare grossi e costosi dataset.
Il problema del Machine Learning è proprio quello: la macchina impara quello che le viene insegnato. Per seguire un pallone in una partita, qualcuno a manella deve etichettare ore di video dichiarando esattamente la posizione del pallone.
In questo caso invece, il training viene fatto mostrando alla reta un video in full hd e allenandolo a trasformarlo nella sua contro parte in 4K, premiandolo più la sua trasformazione è vicina a quella 4k e punendolo altrimenti. (4k/8k, stessa roba ovviamente).
Avendo quindi centinaia di ore di film Full HD vs 4K, diventa semplicemente un problema di potenza computazionale per fare il training (si parla di migliaia di GPU su architetture custom per poter fare il training in tempi umani) e poi un grosso sforzo di razionalizzazione per disegnare l'HW dedicato bordo TV che si preoccupi di fare il playback della rete sulle immagini che stanno venendo trasmesse.
E' un po' come una correzione ambientale digitale su un segnale derivato da un giradischi: possibile, ma farebbe storcere il naso a molti (anche se da un punto di vista qualitativo sicuramente migliorerebbe la resa).
Ma quello che mi chiedo io è perchè non si danno tutti una svegliata: cose fighe che potrebbero essere fatte sono ad esempio il riconoscimento del punto esatto dello schermo dove è presente la bocca che sta parlando per correggere la traccia e dare l'impressione che l'audio venga da quel punto dello schermo (forse qualcuno diceva di farlo), la distribuzione virtualizzata degli strumenti su uno stage 3d, sistemi di surround fatti bene e cose così. Questa di Samsung è quasi una sfida "semplice" rispetto ad altre
