Non ci siamo ragazzi. Sicuramente andrò a spulciare il resto della discussione, ma qui il discorso non torna.
In informatica, col digitale, quando si lavora con uni e zeri, non ci sono problemi di degradazione del segnale. Una cosa, o funziona o non funziona.
Se esiste un algoritmo noto che consente di comprimere la sequenza di uni e di zeri in modo che occupino meno spazio, con la possibilità di revertire il processo riottenendo l'esatta sequenza originale, immutata, non ci possono essere problemi.
E' un lavoro che volendo posso fare anche a mano, in modo esatto (mettendoci milioni di anni probabilmente) ma senza sporcare un singolo bit dalla registrazione originale!
Detto questo, su cui siamo certamente tutti d'accordo, passiamo alla questione PS3.
Da quello che ho letto su questo stesso forum, i formati lossless usati con i blue-ray sono divisi in due parti: un nocciolo (legacy), ed un ulteriore parte per l'HD. Nello specifico, se dalla PS3 si invia su HDMI il segnale in bitstream (ancora compresso), purtroppo, la play, misteriosamente, invia solo il nocciolo! Per inviare tutte le informazioni bisogna necessariamente lasciare svolgere la decodifica internamente alla PS3 che invia poi il risultato PCM all'ampli (possibile solo su HDMI perché sono davvero tanti bit!). Ora, se mi dite che questo è falso, e che la PS3 invia sempre e solo il nocciolo, allora siamo d'accordo. Ma se è come ho spiegato io, e come ho letto su questo forum, il segnale PCM è completo, quindi essendo ancora in digitale, non possono esserci problemi di degradazione.
L'unica spiegazione logica alla questione è:
-La ps3 invia sempre e solo il nocciolo (ma non credo sia così!)
-Scandinavian Explorer ha eseguito dei test impostando la ps3 in modo non ottimale (con tutto il rispetto).
Altre strade non ne vedo. Voi?
PS: Parlo con molta umiltà, non voglio per forza portare avanti la mia idea. Voglio solo che tutto sia chiarito in modo logico. Ok?