... in genere la qualità video e colore di una pellicola si attesta fra un minimo, equivalente, di 6K....[CUT]
Non sono d'accordo. La risoluzione della pellicola (35mm) massima teorica dipende da molti fattori, primo fra tutti il tipo e la sensibilità del negativo utilizzato, l'esposizione scelta, obiettivo, diaframma, et cetera. E comunque, quello che va al cinema non è il negativo usato per le singole riprese ma il risultato di operazioni di post produzione e montaggio. Per questo motivo, per esperienza personale, direi che la risoluzione
minima è più vicina a
1K (ovvero 1280x720, circa 1 megapixel). A molti film moderni bastano e avanzano edizioni 2K, come i primi due film della trilogia dell'anello. Sono veramente pochi i film che possono sfruttare edizioni a risoluzione 4K.
Invece, per quanto riguarda la scansione, sempre meglio scansionare a 6K e ridurre poi a 4K. Ma questa è un'altra storia...
... Per trasmettere in 4k servono, dunque, almeno 16 Mbit/s, cioè quasi un canale UHF del digitale terrestre.
Non sono d'accordo. I 4 Mbps per il full HD sono assolutamente insufficienti, anche per compressioni in "doppia passata". Figuriamoci per le compressioni real-time necessarie per riprese televisive "live" in 4K. E comunque dipende dal materiale, dalla frequenza di quadro e dalla scansione (2160i oppure 2160p). Ci sono contenuti in 4K con basso dettaglio (praticamente sono più vicini al 2K che al 4K), con inquadrature a ridotta profondità di campo (è quasi tutto fuori fuoco), allora potrebbe bastare anche un bitrate di 35 Mbps. Per contenuti 4K reali (quindi con elevato dettaglio), il bitrate necessario salirebbe oltre i 50Mbps, fino ad arrivare al di là degli 80 Mbps.
Emidio