Il 4k normalmente (parlo della red one) è preso pari pari (1:1)dal sensore. Nel sensore (unico, non parliamo di 3 sensori come le comuni telecamere professionali) ogni fotodiodo ha un minuscolo filtro rosso, verde o blu. Quindi ogni fotodiodo campiona solo una delle tre componenti rgb, esattamente come nelle macchine fotografiche. L'immagine rgb completa (4:4:4) è ricavata da un'elaborazione dei dati raw (che quindi contengono solo un terzo delle informazioni!). Non ha quindi senso, in questo caso, che nella cinepresa (red o altro) 4k venga fatta questa elaborazione raw>rgb (4:4:4) perché ci sarebbe una triplicazione del peso dei dati.
La red prende il raw (che fino alla red one era di 10 bit), lo comprime (più o meno ratio 10:1) e ti restituisce un redcode da circa 200 megabit/secondo.
Diverso è il discorso di 4:2:0 o 4:2:2. In questo caso metti di partire da un rgb completo (4:4:4). Attraverso un algoritmo, separi il valore di luminanza (la somma delle luminanze rgb) e esprimi ogni pixel come luminanza+crominanza. La risoluzione della luminanza la lasci intatta (ogni pixel avrà il valore reale di luminanza), mentre per i valori di crominanza, trattieni solo la metà (4:2:2) o un quarto (4:2:0). Il risultato è un'immagine detta a componenti (non direttamente rgb) che pesa il 66% (4:2:2) o il 50% (4:2:0) dell'originale 4:4:4. Poi, anche qui, avviene la compressione vera e propria.
Il raw, quindi, che pesa un 33% rispetto al corrispettivo 4:4:4, è il più leggero di tutti. Quindi, perché convertirlo in component 4:2:0? sarebbero passaggi in più che aumenterebbero il peso, a prescindere dalla compressione!.