Sono d'accordo che l'HDMI è stata progettata piuttosto male, anche fisicamente, e che il problema del jitter può effettivamente esserci, dato che nell'hdmi il clock dell'audio è derivato da quello video, e il jitter è fondamentalmente un problema di tempi. Senza tralasciare che i chip hdmi attuali hanno anche delle modalità di correzione di jitter.
PERO', tutto questo si applica sicuramente all'audio PCM, quindi principalmente CD e la ormai minoranza dei film che usano il PCM ma, nel caso di un segnale audio compresso in Bitstream, dal Dolby Digital al TrueHD al DTS:MA, il jitter non è più un problema, visto che qui si parla di pacchetti di dati compressi e inviati come fossero dati in rete, non è come il jitter del PCM, che può fare interpretare degli 0 come fossero 1 (e quindi il suono peggiora) a causa del timing, qui se arriva un 1 al posto dello 0, il pacchetto non si scompatta più!
Ovviamente, grazie ai bit di parità inclusi nella trasmissione, se anche dovesse succedere, il decoder è comunque in grado di ricostruire il pacchetto originale, ma qui siamo GIA' all'interno dell'apparecchio ricevente, l'interfaccia non c'entra più ormai, se ci può essere del jitter, potrebbe venire introdotto nel sintoampli, ma è di vari ordini di grandezza inferiore a quello che può capitare a causa dell'interfaccia.
Per cui, nel caso del PCM, posso essere d'accordo che l'interfaccia hdmi può dare potenzialmente dei problemi, ma per i segnali compressi, se c'è differenza di qualità a favore di effettuare la decodifica nel lettore oppure nel sintoampli, è solo dovuta alla qualità dei DAC e dei circuiti analogici di contorno. Non vedo come, a parità di questi, possano esserci delle differenze dovute solo al fatto che i dati passano attraverso l'hdmi.