A parte che la CGI, i film scanner > 4K e il 70mm li hanno inventati da un po', quindi il materiale di test c'era eccome, la cosa è del tutto irrilevante.
Se parliamo di cinema, le specifiche DCI 2K e 4K sono *assolutamente* identiche: stesso spazio colore, stessa luminosità, stesso rapporto di contrasto. Il materiale sorgente (DCP) ha lo stesso bitrate ed è sempre JPEG2000 4:4:4 a 12bit. Cambia solo la risoluzione, quindi tutto quello che c'era da fare era creare delle matrici adeguate e la relativa elettronica di controllo rispettando le specifiche classiche, ormai più che consolidate. Poi ci sono altre modifiche di dettaglio nell'interfaccia tra media block e proiettore, ma quelle riguardano solo noi addetti ai lavori. Paradossalmente, per "effettuare prove serie" sulle matrici 4K sarebbe stato più che sufficiente dividere il fotogramma in 4 e proiettare un qualunque DCP 2K di riferimento quadruplicato su tutti i quadranti.
Poi possiamo stare qui a parlare quanto ti pare di maggiori livelli di luminosità in 2D e 3D, HFR, gamut estesi per proiettori laser e/o LED, eccetera. Sono tutte prospettive di sviluppo sia per il mercato cinema che per il mercato home, a prescindere dalla risoluzione, ma sta di fatto che oggi nero su bianco c'è poco o nulla. Forse prima o poi si diffonderanno, e forse prima o poi ci saranno nuove specifiche che ne terranno considerazione, nuovi standard, nuovi formati di distribuzione: la storia la conosciamo, è sempre quella.
Ma da qui a dire che gli attuali 4K "non sono ottimizzati" per il 4K ce ne corre. Oggi fanno esattamente quello che gli viene richiesto: soddisfano le specifiche DCI (in base alle quali *tutti* i film vengono postprodotti) proiettando al quadruplo della risoluzione 2K. Fine.