Mah io possiedo dal lancio la vecchia versione e tutte queste cose non le vedo... Su uno schermo da 140” ...non è che è la TV che ha i problemi?
Visualizzazione Stampabile
Mah io possiedo dal lancio la vecchia versione e tutte queste cose non le vedo... Su uno schermo da 140” ...non è che è la TV che ha i problemi?
Posso anche postare il confronto è con OPPO 205... si la differenza si vede in termini di nitidezza ma ripeto la colorimetria a me risulta corretta...
Il sensore AMS utilizzato negli ultimi iPhone non è molto diverso da quello usato - per fare un esempio - nello Spyder X. Nel caso del colorimetro di Datacolor, il sensore è più grande e sensibile ed è dotato di un'ottica che gli permette di 'osservare' soltanto un angolo di campo ben limitato. Nel caso degli iPhone, sembra che l'angolo di campo sia decisamente più ampio: avvicinando il sensore alla superficie del display LCD, aumenta sì l'energia catturata dal sensore ma arriva anche la luce dei pixel adiacenti ad angoli di ampiezza proporzionale alla distanza dal punto di 'osservazione'. Confermo il mio scetticismo. Ma allo stesso tempo sono certo che questa nuova funzione sia una opportunità per far conoscere al grande pubblico l'importanza della calibrazione.
Emidio
Per quanto concerne la calibrazione con iPhone, da quello che ho letto parrebbe utilizzabile con qualsiasi modello dotato di face ID quindi da X in poi suppongo.
Immagino che dovendolo posizionare a distanze ravvicinate renda difficoltoso l'utilizzo con videoproiettore a causa dell'ombra del telefono stesso. Lieto di essere smentito.
La funzione è pensata solo per display e non proiettori...dovendo appoggiare il telefono... ma appena possibile proverò anche a telefono capovolto per vedere se legge comunque i valori .
Sì, da iPhone X in poi. Il telefono deve essere posizionato entro la sagoma proposta a video e distante non oltre un pollice (2,54 cm). Quindi, impossibile calibrare l'Apple TV tramite un videoproiettore.
lo fai con una banalissimo flac su DLNA che è supportato da qualsiasi dispositivo, ma apple piace rinominare le cose ;) fà più marketing.
appunto 18.75B€ divisi tutti i disponivi apple quanto fà?
lasciamo le sparate da fanboy su Disqus.
Sì è quello che dicevo. Mi vengono da pensare anche altre cose:
Come fa a capire la sagoma di che dimensioni dev'essere vista la varietà di dimensioni del display da calibrare e dell'iPhone stesso? Deduce i pollici da HDMI (è possiible?) e il modello di iPhone usato e ridimensiona la sagoma? Quasi fantascientifico! :)
E cosa accadrebbe in presenza di un VPR? O più semplicemente ci si accontenta di una sagoma approssimativa?
Anche i colorimetri si appoggiano sul display ma poi si pongono a distanze maggiori dallo schermo nel caso di videoproiettori, sarebbe proprio da escludere la possibilità di usare una distanza maggiore?
Un colorimetro, solitamente, ha un'angolo di campo di 5/6° (quindi 10/12° se consideri entrambi i lati). Se lo allontani dal pannello, avrai un aumento del FOV (Field Of View) pari al doppio della distanza dal pannello moltiplicato per la tangente dell'angolo di campo. Come ha spiegato Emidio poco fa, il sensore di luminosità ha un angolo di campo molto ampio e se il telefono venisse allontanato più della distanza massima consigliata leggerebbe oltre il limite del test pattern mostrato a schermo.
Apple investe in R&D 3200 volte il fatturato di Calman... Calman spenderà in R&D se è virtuosa un 10%, quindi l'investimento di R&D di apple è 32.000 volte quello di calman :D.
Il problema del nostro mondo è questo, se aziende serie iniziano a competere, non ce n'è più per nessuno.
Avevo letto miracoli delle Airpod Max, prima o poi le prendo :D.
Grazie della domanda. Restando nell'ambito cinematografico/home video, ogni immagine è composta da pixel, ogni pixel rappresenta un colore che è codificato da una tripletta R, G, B (o Y, Cb, Cr nel caso si esca in component, ma limiterei la disamina a valori RGB) il cui valore è espresso in numeri. L'intervallo di questi numeri dipende dalla profondità di colore che è espressa in bit; in SDR si usano valori in 8 bit (da 16 a 235), mentre in HDR si usano valori in 10 (da 64 a 940) o 12 bit (da 256 a 3760). Con un analizzatore di segnale (di cui il DVDO AvLab TPG è dotato) è possibile osservare il valore di ogni singolo pixel di un'immagine. Per comodità si usano dei test pattern a singolo colore, ma nulla vieta di analizzare anche interi film. Effettuando questa operazione su una Apple TV 4K (2017), si nota che i pixel che compongono il test pattern del bianco (per esempio) non hanno mai il valore corretto (235, 235, 235) e mai uguale tra loro. Succede quindi che un pixel abbia un valore 234,235,233 e l'altro abbia 235,233,234. Tornando col cursore sul precedente, anche questo valore sarà cambiato (si può osservare lo stesso fenomeno nel cosiddetto dithering). Per una comprensione più immediata del fenomeno, GUARDA QUI. Quando il valore dei pixel "a video" corrisponde con quello di origine dei pattern o delle immagini trasmesse, si dice che l'uscita è bit perfect ossia è accurata al bit. Diversamente, avremo dei colori che non corrispondono a quelli originali. Questo è quello che succede con la prima generazione della Apple TV 4K. Pertanto, se si va a verificare la bontà della calibrazione di un TV o la sua accuratezza usando come sorgente la Apple TV 4K, avremo dei valori di errore più alti (quindi accuratezza inferiore) rispetto a quelli ottenibili con una sorgente bit perfect. Spero di essermi spiegato in maniera sufficientemente chiara.
Il campo R&D di Apple è decisamente vasto. Quello di 'Calman' è probabilmente concentrato sulla fotometria. Ergo, è probabile che gli investimenti di Calman (l'azienda si chiama Portrait), di Light Illusion e compagnia, siano addirittura superiori rispetto a quelli di Apple su quello specifico campo. Calman però fa quasi solo il software. Lo strumento di misura lo fanno altre aziende come xrite, datacolor, Minolta (solo per citarne alcune). Bisognerebbe considerare anche quanto spendono in R&D quelle aziende.
Emidio