H.265 si prepara per 4K e 8K

L'H.265/HEVC è un gran bel algoritmo, molto pesante da gestire, ma non poi così molto rispetto all' H.264/AVC.
Serviranno nuovi chip di decodifica (e codifica) molto avanzati, credo bisogni utilizzare almeno il 40 nm, meglio il 28 nm, per non scaldare eccessivamente.
 
Ma perchè "ogni volta" che si nomina questo benedetto 4K c'è sempre qualcuno che si lamenta....
Ma dove stà il problema ?I dischetti Blu serviranno anche per il 4 K?Benissimo! chi vorrà comprare i lettori appositi avrà sempre la compatibilità con i BD normali i dvd e anche i cd audio,così da coprire una sorta di compatibilità di un trentennio,Vhs a parte.....
La gente non ha ancora capito la differenza tra SD e semplice FullHd ?Ma che importanza ha?I film una volta erano in bianco e nero ma nessuno ha impedito l'arrivo del colore,Tv comprese.La stereofonia è un concetto che non tutti compresero,ma allora dovevamo privarci del 5.1? Ragazzi vi chiedo uno sforzo di "positività",le novità tecnologiche ci saranno sempre,poi alcune si diffonderanno ed altre meno,la mia speranza è sarà sempre quella di avere una catena Audio/video sempre migliore,ma con il tempo ed i prezzi " giusti " ovviamente....Su con la vita !;)
 
Ultima modifica:
:rotfl:Con tutti i problemi di codifica dell'H264 per il semplice hd figuriamo per il 4K....Servirà sicuramente un computer N.A.S.A,oppure un semplice chip dedicato,come sui bluray stand alone....:p
 
Ultima modifica:
per quelli che dicono che gestire un file h.264 ci vuole un sacco di risorse...ma state scherzando? Verissimo che stressa un sacco il processore ma con i software messi appunto (la CS6 di Adobe ha fatto grandi passi avanti) e l'aiuto che ci viene dalle VGA (vedi Cuda) non è poi così da strapparsi i capelli. Parlo se hai necessita di montaggio ecc. Ovvio che con l'avvento del h.265 e 4K le CPU desktop si adegueranno. Non vedo il problema.
 
Sicuramente, per decodificare al volo un flusso H.265 in 4k, è necessario implementare, via silicio, una sezione ad hoc, sia nelle cpu che nelle gpu.

Probabilmente il nuovo processore Haswell di Intel, in uscita nel 2013, e le gpu presenti nelle schede grafiche nVidia 7xx e AMD 8xxx, avranno questa sezione in hardware.
 
Sicuramente, per decodificare al volo un flusso H.265 in 4k, è necessario implementare, via silicio, una sezione ad hoc, sia nelle cpu che nelle gpu.

Già ora le integrate Intel almeno di fascia "alta" sono in grado di decodificare i contenuti 4K, quindi credo anch'io non sarà un grande problema per le prossime generazioni gestire l'H.265 :)
 
@SydneyBlue120d

Solo quelle di classe Ivy Bridge, appena uscite, come da me segnalato tempo fa.

Il problema è che le specifiche finali del "H.265" arriveranno solo per gennaio 2013, dunque si dovrà attendere qualche mese dopo per vedere le prime soluzioni pratiche.
 
....la CS6 di Adobe ha fatto grandi passi avanti e l'aiuto che ci viene dalle VGA (vedi Cuda) non è poi così da strapparsi i capelli. Parlo ..........[CUT]
Si, Adobe Premiere dalla versione Cs4 implementa il codec h264,io uso la 5.5 e continuo a codificare in DVCPro hd,più
grande ma immensamente più veloce,solo Edius tratta questi codec senza bisogno di ingenti risorse hardware.La cs6 va meglio delle altre ,ma il computer deve essere sempre avere "i muscoli" GPU compresa.....
Nella prima realese di Cs4 la 4.0.0 il computer praticamente si impiantava
appena caricato un file h264,ma come ho scritto prima,non è un motivo per fermarsi,anzi tutta questa risoluzione in più è motivo per i programmatori di implementare algoritmi che rendano semplice il lavoro.....Quindi avanti con l'H265 :eek:
 
Nelle cpu, il silicio per decodificare sarà in 22 nm, dunque molto efficiente. Nelle gpu sarà certamente utilizzato il 28 nm, visto che il 20 nm non arriverà prima del 2014.

I chip "stand-alone", cioè quelli che servono all'interno dei lettori blu-ray, per motivi industriali, sono sempre un po' indietro rispetto alle cpu/gpu.

Probabilmente, i primi modelli saranno a 40 nm, per poi passare al 28 nm.
 
Ansioso di sapere se verranno utilizzati nuovi spazi colore piu ampi( tipo il DCI) e se decideranno di usare un qualcosa retrocompatibile con i vecchi lettor...[CUT]
Il DCI è e rimarrà probabilmente esclusivo del cinema digitale. Per il prossimo formato consumer 4K spero che si faccia largo uso dello spazio colore xvYCC, alias x.v.Color, che per ora è usato solo marginalmente in alcuni tipi di file, sorgenti e videocamere e non fa parte dello standard Blu-ray Disc: http://en.wikipedia.org/wiki/XvYCC

cosa ne pensi del limite di 50 Giga del bluray?
Che in teoria ci si potrebbe anche stare.

Il 4K del Digital Cinema è qualcosa di molto piu pesante e raffinato, il flusso massimo è di 250 mbps!!! Il solo video di 2 ore di film pesa 220 GB.....[CUT]
Il 4K è compresso in modo particolare. Ogni fotogramma è compresso singolarmente con lo standard JPEG2000. Hai detto bene: il flusso massimo è 250 Mbps ma sono possibili ampi margini se il tipo di contenuto lo consente. Il trailer dell'ultimo Batman infatti (2':08" e 4 fotogrammi, per un totale di 2984 fotogrammi). pesa 2,4 GB. In pratica, sono 1,2 GB al minuto., quindi poco più che 160 Mbps. E la qualità è davvero ottima. Il rapporto d'aspetto è di 2,387:1 (4096x1716 pixel) e alcuni fotogrammi del trailer sono neri o comunque con poco contenuto (568 fotogrammi pesano meno di 200kbyte e, tra questi, 170 pesano meno di 10kbyte). Si tratta però di una codifica 4:4:4 a 12 bit per componente.

Per questo motivo, una codifica 4:2:0 ad 8 bit, molto più efficiente rispetto all'attuale H.264, potrebbe entrare anche in un Blu-ray da 50GB. Senza dimenticare che esistono già supporti "Blu" da ben 100 GB, regolarmente venduti in Giappone... Quindi, almeno in teoria, i presupposti per un formato ottico, retrocompatibile con gli attuali Blu-ray Disc, secondo me ci sono tutti. Ma credo che dovremo attendere almeno il 2014.

Vi basti pensare che al momento sono davvero poche le sale italiane con proiettori 4K. Per non parlare dei contenuti, davvero pochissimi. Per quanto riguarda il cinema, tenetevi pronti poiché il 21 Agosto, in occasione dell'uscita di Batman, farò un annuncio che riguarda AV Magazine e questa community e che - ne sono certo - farà felice molti appassionati.

Emidio
 
Il FullHD basta e avanza per tv fino 50 pollici ...
Beh si....ma dai 50 pollici in su si goderà alla grande....:D
La risoluzione SD basta e avanza anche su uno schermo da 100".... Se questo viene guardato da 10 metri di distanza...

E per lo stesso motivo, la risoluzione HD basta e avanza su uno schermo da 100" se questo viene guardato da 5 metri di distanza...

Non è una questione di dimensioni, ma di rapporto tra dimensioni del display e distanza di visione.

Altrimenti che senso hanno i 3 megapixel dei nuovi iPad?

In conclusione, 8,3 megapixel del 3,8k e gli 8,8 megapixel del 4k sono utili anche su un 32" se quest'ultimo viene usato come un monitor e osservato a distanza ridotta, in modo da sfruttarne la enorme densità di pixel.
... senza considerare che con il 4k le fonti sd sicuramente avranno un netto peggioramento...
Non sono d'accordo. Visto che i pixel della risoluzione SD sono rettangolari e la proporzione è diversa dai pixel quadrati dell'HD, più ce n'è meglio è. Quindi, secondo me, meglio uno scaling su 8 megapixel che uno su 2 megapixel. E comunque non capisco perché dovrebbe esserci un peggioramento a parità di dimensioni dello schermo e distanza di visione.

In altre parole, se siamo seduti a 3 metri davanti ad uno schermo da 90", perché uno scaling SD->3,8K dovrebbe essere peggio di uno SD->HD?

Emidio
 
Ultima modifica:
Si, ma c'è il 4K ed il QuadHD che sono simili, ma non uguali .......
D'accordo: 3,8K per il Quad Full HD... Ma per 3,8K e 4K sono sempre pixel quadrati, quindi se parliamo dello scaling da SD, il rusultato non cambia perché le proporzioni dei pixel di arrivo sono esattamente le stesse e la risoluzione verticale è identica.

Emidio
 
:rotfl:Con tutti i problemi di codifica dell'H264 per il semplice hd figuriamo per il 4K....Servirà sicuramente un computer N.A.S.A...
per codificare un bluray in H.265 servirà tenere acceso il PC per una settimana?
Innanzitutto, distinguiamo le due cose.

Per la CODIFICA in H.265, non servirà una potenza di calcolo da urlo. Certo: più potenza ci sarà e prima sarà portata a termine la codifica. Con il mio "vecchio" Core i7 980X e 24 GB di RAM, la codifica in H.264 è ancora lentina, rispetto invece a quella in 4K in JPEG2000 per i DCP con cui ci trastulliamo qui in AV Magazine :D

Per la decodifica? La mia CPU è sovrabbondante per la decodifica H.264 in 4K e probabilmente sarà sufficiente anche per quella in H.265. Molto però dipenderà dalle implementazioni software. In altre parole, è un po' troppo presto per fare ipotesi. Non resta altro che aspettare ancora un anno. O forse meno ;)

Emidio
 
Sbaglio o si parlava anche di un nuovo algoritmo per la correzione del jitter, che portava il limite da 100G a 125G ca per i BR? E' comnque un buon aumento. Insomma se raddoppia la risoluzione da 2 a 4k e la capacità del suporto raddoppia anche quella dov'è il problema?
Se poi c'è ancora un po' più di spazio ben venga. Se l'algoritmo di codifica anch'esso migliora allora un BR (di nuova generazione, quidni cambieremo l'attuale ... che nel mio caso ha "ormai" 2 anni) non mi strapperò le vesti.
Auspico invece un miglioramento degli algoritmi di upscaling, perchè da qui a 2 anni il 28nm sarà alla portata anche di chip per TV e lettori.
Poi non è il problema di lamentrsi dei 4k ... Ma a livello amatoriale (casalingo) non lo vedo per le masse. Ancora non abbiamo (in Italia, è vero) trasmissioni soddifacenti in HD. Quanti tra 5 anni sentiranno il bisogno di 4k "al posto" del "vecchio" full HD (magari di 55'', magari pagato un 2k euro). Sapendo che già in aria c'è l'8k, da guardare a max 2 metri per 80'' perchè sennò non vedi la ricrescita sulla testa del tuo attore preferito?
Lunga vita alle innovazioni, ma IMHO un po' di scetticismo non basta. Spesso molti prodotto sono troppo avanti per essere compresi. Anzi: assorbiti
Edit: Azz Emilio! ho dimenticato che è al quadrato!
 
Ultima modifica:
Insomma se raddoppia la risoluzione da 2 a 4k e la capacità del suporto raddoppia anche quella dov'è il problema?
.......[CUT]
La risoluzione quadruplica (da 2 megapixel a più di 8 megapixel).

1920 x 1080 = 2.073.600

2048 x 1080 = 2.211.840

3840 x 2160 = 8.294.400

4096 x 2160 = 8.847.360

Emidio
 
Ultima modifica:
Poi non è il problema di lamentarsi dei 4k ... Ma a livello amatoriale (casalingo) non lo vedo per le masse...........[CUT]

Credo che coesisteranno tutti quanti i formati,sd hd full hd quad hd 4k 8k ,poi ognuno di noi li guarderà a seconda dei propri impianti ,dei propri gusti , sensibilità e...Possibilità economiche......;)
 
Top