upscaling con reti neurali sui nuovi samsung 8k migliore dei top 4k

lorenzo82

New member
Samsung sostiene che i nuovi processori a reti neurali degli 8k a mini led offrano la miglior qualità possibile per vedere segnali di risoluzioni inferiori.
In pratica sostengono, a parità di livello qualitativo, di ottenere uno scaling migliore, ad esempio da un 1080p, su un qn900a 8k piuttosto che su un qn95a (4k).
E' marketing o con la potenza di un processore neurale e il machine learning integrato in una tv si potrebbe colmare un aumento di 4x di risoluzione ed ottenere immagini anche migliori?
 
Chiarisco che il mio non sarà un intervento tecnico ma "di costume". ;)

Chiunque abbia avuto a che fare con un operatore-robot di un call center ha ben chiaro che ca*ata pazzesca sia l' A.I. una volta uscita dai laboratori.

E' noto l'annedoto (falso?) per cui una A.I. usata in un riconoscitore facciale avrebbe scambiato un signore africano in transito in un aeroporto per un primate non umano (=scimmia) con conseguente (a dir poco) imbarazzo dei ricercatori. Il punto è che se l' A.I. tira ad indovinare (vedi link sotto) quale possa essere l'immagine che downscalata dia il fotogramma bassa risoluzione che sta elaborando, in caso di errore, a mio avviso, ne potrebbe uscire di tutto! Speriamo che non arrivi a farci vedere atleti con la testa di scimmia o cose del genere! :p

https://blogs.nvidia.com/blog/2020/02/03/what-is-ai-upscaling/
 
Ultima modifica:
C'è molta confusione, moltissima, in questo campo. Parte di questa confusione è figlia di disinformazione generale spinta da marketing aggressivo.

Tecnicamente non è intelligenza artificiale (si definisce intelligenza artificiale la creazione di un sistema che è in grado di prendere decisioni in base a quello che sta succedendo nell'ambiente in cui è posizionato, imitando quello che farebbe una persona umana), ma Machine Learning (ossia la capacità di una macchina di apprendere dei pattern andando a studiare una grossa mole di dati in cui quei pattern sono presenti). Così come non è intelligenza artificiale quanto proposto da Pace nell'esempio precedente.
E il fatto che l'algoritmo sbagli, anche se in maniera grossolana, è in realtà molto positivo: vuol dire che sono algoritmi veri e non delle cose fake fatte in power point :D.
Esempio più recente era un sistema automatico di regia in gradi di seguire la palla in una partita di calcio che si è messa a seguire la crapa pelata di un guardalinee al posto del pallone.

Tecnicamente quanto afferma Samsung è possibile e verosimile, ma "artificiale": mostrando lo stesso video con risoluzioni diverse una rete può imparare a generare quei pixel di differenza che ci sono in maniera molto efficace.
Il punto non è tanto legato al pannello ma alla complessità HW per gestire questo genere di rete su un playback live senza generare rallentamenti o problemi.
Questo genere di task è relativamente semplice da un punto di vista algoritmico, anche perchè può essere semplicemente allenato: non è necessario creare grossi e costosi dataset.
Il problema del Machine Learning è proprio quello: la macchina impara quello che le viene insegnato. Per seguire un pallone in una partita, qualcuno a manella deve etichettare ore di video dichiarando esattamente la posizione del pallone.
In questo caso invece, il training viene fatto mostrando alla reta un video in full hd e allenandolo a trasformarlo nella sua contro parte in 4K, premiandolo più la sua trasformazione è vicina a quella 4k e punendolo altrimenti. (4k/8k, stessa roba ovviamente).
Avendo quindi centinaia di ore di film Full HD vs 4K, diventa semplicemente un problema di potenza computazionale per fare il training (si parla di migliaia di GPU su architetture custom per poter fare il training in tempi umani) e poi un grosso sforzo di razionalizzazione per disegnare l'HW dedicato bordo TV che si preoccupi di fare il playback della rete sulle immagini che stanno venendo trasmesse.

E' un po' come una correzione ambientale digitale su un segnale derivato da un giradischi: possibile, ma farebbe storcere il naso a molti (anche se da un punto di vista qualitativo sicuramente migliorerebbe la resa).

Ma quello che mi chiedo io è perchè non si danno tutti una svegliata: cose fighe che potrebbero essere fatte sono ad esempio il riconoscimento del punto esatto dello schermo dove è presente la bocca che sta parlando per correggere la traccia e dare l'impressione che l'audio venga da quel punto dello schermo (forse qualcuno diceva di farlo), la distribuzione virtualizzata degli strumenti su uno stage 3d, sistemi di surround fatti bene e cose così. Questa di Samsung è quasi una sfida "semplice" rispetto ad altre :D
 
Ma di che parliamo, a me è bastato leggere Samsung e capire che si tratta di fuffa da marketing così come fanno da almeno 20 anni con i 100 nomi diversi che si sono inventati per rifilare ai piu disinformati tv lcd facendogli credere altro.
Nessun appassionato di video comprerebbe mai un loro tv visto che a livello di elettronica sono ben lontani da marchi come Sony e Panasonic.
 
Ultima modifica:
C'è molta confusione, moltissima, in questo campo. Parte di questa confusione è figlia di disinformazione generale spinta da marketing aggressivo.

Tecnicamente non è intelligenza artificiale (si definisce intelligenza artificiale la creazione di un sistema che è in grado di prendere decisioni in base a quello che sta succedendo nell'ambiente in c..........[CUT]

Come immaginavo, interessante e potenzialmente rivoluzionario ma solo se elaborato da una potenza computazionale paurosa...e resta da vedere se comunque in grado di rivaleggiare con uno scaling più semplice su di un 4k di gamma alta.
Per me già il fatto, con gli 8k, di non poter mappare 1:1 i segnali 4k, ormai ampiamente diffusi, e dover scalare praticamente tutto, è veramente allucinante.
 
Il down scaling di contenuti 4k secondo me è l’ultimo dei problemi... basta guardare la media dei programmi e dei contenuti fruiti nel ns bel paese... e vedrai che già l’HD è quello che delimita la qualità... Certo senza programmi e contenuti adeguati un 8K rischia di essere solo un esercizio di stile... comunque ben venga il progresso...
 
in questa intervista è spiegato in maniera abbastanza semplice AI e reti neurali, da cui puoi trarre un pò le tue conclisioni

 
L' articolo che ho postato parla di Nvidia non di Samsung.

Io ho risposto al primo post che dice questo:
Samsung sostiene che i nuovi processori a reti neurali degli 8k a mini led offrano la miglior qualità possibile per vedere segnali di risoluzioni inferiori.
In pratica sostengono, a parità di livello qualitativo, di ottenere uno scaling migliore, ad esempio da un 1080p, su un qn900a 8k piuttosto che su un qn95a (4k).
 
Top