dubito che HDMI 2.1 supporti 70/80/90hz, le TV non sono monitor .
Quello che cambia è la risoluzione del chroma 4k@60hz 4.2.2 (2.0) VS 4k@60 4.4.4/RGB (2.1)
In che senso non è un monitor? Se intendi settarlo manualmente lato utente, non intendevo quello. Forse mi sono espresso male
Il VRR non dovrebbe servire proprio ad adattare la frequenza al framerate?
Esatto.
Ora non vorrei ricordare male e dire una stupidaggine. Ma le varie funzioni, non ricordo se anche il vrr, i produttori possono aggiungerle a piacimento. Anche sulla 2.0
Fanno un pò un minestrone a piacimento a volte.
Diciamo che la cosa che indica sicuramente la differenza è la banda massima della porta.
Per il resto, bisogna vedere caso per caso, cosa ha predisposto il produttore sul singolo prodotto.
Come giustamente fa notare ovimax non serve hdmi 2.1 nemmeno per 4k@120fps. È la presenza contemporaneamente di risoluzione framerate numero di bit (8/10/12 ovvero hdr) e croma subsampling che dimensiona la banda che serve. Dubito che oldgen abbia giochi a 4k@60 fps in hdr e rgb ma magari sbaglio.
Sisi. In linea di massima però, per i contenuti soliti, con la 2.0 non riesci. Per questo senza entrare nello specifico, si fa prima a fare questa netta differenza.
Sul old gen, probabilmente hai ragione tu. Forse ricordo male io ed il gioco era un 1440p.
In generale però, sulla carta ci sarà già un gioco next-gen che andrà anche a 120.
(resta il discorso che facevo prima. Concordo che sarà probabilmente raro, ma va cmq messo in conto)