E'proprio il lavoro che fa madVR: trasformare una immagine HDR in una SDR in modo da poterla visualizzare al meglio anche su display non HDR.
Visualizzazione Stampabile
Buona Pasqua,
avrei una domanda per voi. Come e' possibile che durante la visualizzazione di un mkv 4k HDR con l'algoritmo di conversione HDR---SDR andando in prestazioni mi risulta che la CPU e' al 100% (i3 8350k un quad-core con overclock a 5GHZ...) e la GPU al 85%. Madvr annessi e connessi non utilizzano solo la GPU?
ho una Nvidia GTX 970, si utilizzo il file MAX setting. Mi sono sempre trovato bene con 1080p e 4k in downscaling ma con l'implemento dell'HDR inizia ad arrancare, quello che non mi e' chiaro e' perche' c'e' uno sfruttamento della CPU del 100% almeno e' quello che mi compare facendo ctrl-alt-canc e poi monitoraggio prestazioni..
in lav video utilizzo D3D11 come consigliato anche altrove, comunque non riesco veramente a capire perche' il carico cpu e' al 100% con i 1080p non me lo fa..
Semplicemente la GTX970 al pari della GTX980 non decodifica in hardware l'HEVC e la cpu non ce la fa a farlo, per quello va al 100% ...
Curiosamente invece pare che la GTX960 lo faccia.
ho fatto delle prove, premesso che utilizzo un VPR con matrice FULLHD e con materiale 1080p e MAX setting in madvr nessun problema anzi la CPU e GPU sono praticamente parcheggiate/a riposo!
Diversamente con materiale 4K in Downscaling e HDR in PassThrough la GPU ha una media di carico del 40% e la CPU del 60% quindi sempre tutto abbastanza tranquillo!
Quando invece abilito il processamento HDR (sempre sullo stesso materiale), allora la CPU sale al 95-100% e la GPU sta sui 85-90%.
Pare evidente che ci sia un carico sulla CPU maggiore (forse per l'HEVC come menzionato da MICROFAST) ma che aumenta ancora di più con HDR..
Ho aggiornato la 2080ti al nuovo firmware Nvidia rilasciato oggi, purtroppo persistono gli scatti e lo stuttering, che rottura di scatole!
Ho fatto il downgrade alla 418.91, tutto funziona perfettamente, peccato che nel gaming manchino tutte le ultime migliorie.
Spero che trovino una soluzione stabile al più presto!
Come potrei ottimizzare la decodifica software fatta dal processore?
Puoi provare ad installare questa app https://www.microsoft.com/it-it/p/es...ot:overviewtab. Male che vada hai buttato via un euro.
Indubbiamente, ma era solo per capire se il processore poteva in qualche modo funzionare meglio per la decodifica. In particolare visto che la decodifica viene fatta dalla CPU dovrei modificare qualcosa nei lav video?
Qualcuno mi potrebbe spiegare nella sezione trade quality for perfomance di madVR che funzione hanno queste tre opzioni?
- don t rerender flames when fade in/out is detected( non emettere fiamme durante la rilevazione della dissolvenza in entrata/uscita)
-dont analyze gradient angles for debanding(non analizzare gli angoli del gradiente per l indebitamento)
-don t use linear light for dithering(non usare la luce lineare per il dithering)
avevo letto su qualche forum straniero che selezionarli avrebbe diminuito il carico della gpu senza alterare la qualità visiva ,vi risulta?