Visualizzazione Stampabile
-
Jakobdylan è il contrario, la tv si deve "impostare" automaticamente alla frequenza del filmato, quindi se un film è a 23,976 la tv si imposta automaticamente a quel valore, se non lo farebbe vedresti sicuramente delle irregolarità o imperfezioni nel movimento.
-
Citazione:
Originariamente scritto da
jakobdylan
Si l'ho notato ma non capisco quale sia il vantaggio di fare questo switch cioè di impostare i setting nel Display modes per far combaciare gli fps del video con il refresh del monitor , se non ci sono differenze come qualità visiva anache non mappando per cosi dire gli fs video con quelli della tv.Almeno a me sembra di non notare differenze come q..........[CUT]
Questa è la prima impostazione che va messa in madVR,
agganciare la giusta frequenza di ogni filmato è la cosa basilare.
Senza inserire manualmente i valori in madVR, il display aggancia soltanto la frequenza piu alta o il il suo multiplo.
Poi con una 1080ti, non dovresti avere alcun problema, almeno in potenza operazionale...
Io ho una AMD RX580 (la 1080ti ha piu potenza), e non ho problemi con settings medi per il 4K e mediamenti alti con il 2K.
Quindi se non utilizzi impostazioni oltre il superfluo otterrai ottimi risultati
P.s.
Con la RX580 stò fisso oltre l'80% di carico con il 4K HDR,
ma con la giusta regolazione delle ventole nessun problema
-
Citazione:
Originariamente scritto da
jakobdylan
non capisco quale sia il vantaggio di fare questo switch cioè di impostare i setting nel Display modes per far combaciare gli fps del video con il refresh del monitor
Le differenze non sono nella qualità del video, ma nella sua fluidità di scorrimento.
Perchè tutto sia perfetto la cadenza deve essere mantenuta uguale dal file/BD/DVD sino al display.
Se il film, come la stragrande maggioranza dei casi, è stato girato, magarai in pellicola, a 23,976 fps tutta quanto la catena deve mantenere intatta questa cadenza, specialmente il display.
Questa è una regola base di tutto quanto il settore Video.
-
Citazione:
Originariamente scritto da
Starlight
sicuro che serve anche CPU?
Ho letto che anche un po' interviene la CPU.
D'altra parte se si usa un PC con scheda grqfica di ultimo tipo è lecito pensare che anche il resto sia ggiornato e dello stesso livello qualitativo.
-
Citazione:
Originariamente scritto da
Nordata
Le differenze non sono nella qualità del video, ma nella sua fluidità di scorrimento.
Perchè tutto sia perfetto la cadenza deve essere mantenuta uguale dal file/BD/DVD sino al display.
Se il film, come la stragrande maggioranza dei casi, è stato girato, magarai in pellicola, a 23,976 fps tutta quanto la catena deve mantenere intatta questa cadenz..........[CUT]
Si infatti sapevo di questa regola fin dai tempi che ho comiciato a visualizzare filmati 1080p tramite il pc ed infatti ero solito andare a cambiare le frequenze del refresh del monitor per mappare gli fps del video,ma sinceramente ieri ho fatto vari test e non noto alcuna differenza non solo di qualità ma nemmeno di fluidità dei video ecco perchè ho chiesto se valesse la pena impostare nel display mode di madvr le varie risulozioni tipo 2160p30, 2160p60 etc etc .
-
Citazione:
Originariamente scritto da
jakobdylan
cioè di impostare i setting nel Display modes per far combaciare gli fps del video con il refresh del monitor , [CUT]
Prova a disabilitare il motionflow del tv.
-
Citazione:
Originariamente scritto da
jakobdylan
Si infatti sapevo di questa regola fin dai tempi che ho comiciato a visualizzare filmati 1080p tramite il pc ed infatti ero solito andare a cambiare le frequenze del refresh del monitor per mappare gli fps del video,ma sinceramente ieri ho fatto vari test e non noto alcuna differenza non solo di qualità ma nemmeno di fluidità dei video ecco perchè ..........[CUT]
Non lo noti perchè Madvr fa un ottimo lavoro di conversione, ma è in ogni caso preferibile mantenere sempre il rate originale del filmato.
-
Citazione:
Originariamente scritto da
Microfast
Non lo noti perchè Madvr fa un ottimo lavoro di conversione, ma è in ogni caso preferibile mantenere sempre il rate originale del filmato.
e già ...è solo che mi da fastidio vedere quello sfarfallio che fa ogni qual volta che cambia refresh per mappare gli fps quando apro e chiudo un video.
p.s.
Ma è un bug quello di non poter selezionare 10 bit nel pannello di controllo nvidia se il refresh è impostato a 60 ,stavo facendo alcune prove con un video in 4k hdr a 60fps purtroppo mi da OSD Hdr 8 Bit .Cercando in rete ho visto che va selezionato il profilo YCBCR strano però con RGB e refresh a 23hz mi dia possibile attivare i 12 bit .
quale delle due opzioni è migliore rgb 12 bit
oppure YCBCR 2.2.2 10 bit
https://i.ibb.co/5hs7XGp/20190408-182532.jpg https://i.ibb.co/ftjCGpV/20190408-182856.jpg
-
I delay e gli sfarfallii al cambio rate dipendono dal tv o dal vpr; ogni modello si comporta diversamente.
Con madvr va sempre usato l'RGB 444, e per l'HDR, 10 bit se a 23/24Hz di rate, mentre necessariamente 8 bit a 50 e 60Hz. per i limiti dei 18gbps dell'HDMI 2.0
-
10bit vanno selezionati soltanto se il pannello è un 10bit reale e non 8bit reali + 2 "finti", e se tutta la catena cavetteria HDMI compresa è adeguata alla banda passante,
altrimenti si fa piu danno che utile.
Il mio proiettore dovrebbe supportare i 10bit, ma per stare al riparo lo fisso a 8bit in madVR e GPU, dopo varie prove con pattern appositi, il lavoro di dithering applicato da madVR è superiore a che impostare 10bit
-
Ah si? Lazy quindi è meglio 8 bit? la tua gpu è invidia o amd? io in madvr ho messo automatico e nella gpu 10bit, stasera provo a cambiare impostazione e a fare delle verifiche con dei spezzoni di film .
-
A23 Hz. con molti display non si attiva l'HDR se non è a 10 bit.
In ogni caso con l'LG OLED funziona benissimo a 10 bit
-
Citazione:
Originariamente scritto da
Microfast
A23 Hz. con molti display non si attiva l'HDR se non è a 10 bit.
In ogni caso con l'LG OLED funziona benissimo a 10 bit
hai settato il profilo RGB o YCBCR?
Il panello è un sony oled af8 10 bit , hdmi della scheda video è un 2.0b che a quanto pare supporta fino a 48 bit almeno dalle specifiche trovate su wikipedia ,il cavo è addirittura un hdmi 2.1 .
-
Citazione:
Originariamente scritto da
giulianoprs
Ah si? Lazy quindi è meglio 8 bit? la tua gpu è invidia o amd? io in madvr ho messo automatico e nella gpu 10bit, stasera provo a cambiare impostazione e a fare delle verifiche con dei spezzoni di film .
Dipende da tutta la catena: protocolli delle porte hdmi, portata dei cavi hdmi, ed in primis dalla natura del pannello.
Io con il mio pannello, dopo dei test, ho scelto 8bit con dithering in madVR e VGA
Comunque quello che imposti sulla gpu, mettilo anche in madVR
Gpu sempre e solo AMD ;)
-
Citazione:
Originariamente scritto da
Microfast
A23 Hz. con molti display non si attiva l'HDR se non è a 10 bit.
Mai sentito,
qualche modello ?