Gli adattatori HDMI-DVI possono portare perdita di qualità..

Luzni

Active member
Ciao a tutti,

volevo sapere se utilizzando un adattatore HDMI-DVI potesse portare ad un decadimento (se pur minimo) della qualità del segnale, in quanto è un ulteriore giunzione, soprattutto per lunghezze che vanno dai 10 metri in su...

Io ho un cavo hdmi-hdmi...e volendo collegare una sorgente con DVI ad un PLASMA o PJ con ingresso DVI dovrei comprare due adattatori e non so se è il massimo! :rolleyes:

Sapete darmi qualche consiglio o esperienza diretta!

Grazie
Ciao
Francesco
 
neanch'io ti so dare una risposta, ma su alcuni siti americani si discute del fatto che HDMI accetta una banda passante superiore al DVI, per cui può transitare informazioni a 12bit contro gli 8bit del DVI ...
 
Io non ho notato differenze e lo uso tutti i giorni. Tra l'altro avendo un cavo dvi-dvi per collegarlo in hdmi dal denon 2910 e hdmi sul panny ho messo 2 adattatori e funzionava benissimo!!! :D
 
Comunque chi usa un htpc come me potrebbe fare a meno dell'adattatore ma per il futuro ho preferito passare un hdmi-hdmi ed mettere l'adattatore sulla scheda video

Stefano
 
mammabella ha detto:
Comunque chi usa un htpc come me potrebbe fare a meno dell'adattatore ma per il futuro ho preferito passare un hdmi-hdmi ed mettere l'adattatore sulla scheda video

Stefano
Sono anch'io di questa idea. Proprio ieri parlando con un amico forumiano che mi chiedeva cosa comprerei come cav digitale, gli ho risposto che certo oggi propenderei per un cavo hdmi-hdmi (in vista del futuro) con eventualmente l'aggiunta del giusto adattatore. ;)
 
OK ragazzi, però se uno deve comprare un OPPO e un PD model TWO non comviene comprare direttamente un DVI-DVI?

Cmq mi avete un pò rincuorato
 
Se parliamo di segnali digitali, di connettori "decenti" e che fanno bene contatto non hai perdita di qualità (IMHO).
Se prima vedevi in un modo, dopo vedi nello stesso modo (parlo di qualità).

Superare la lunghezza limite per un adattatore sarebbe veramente... sfortuna :D
 
Ho 15m di cavo HDMI-HDMI Athlona e adattatore DVI/HDMI sulla SK video dell'HTPC e non ho nessun problema o perdita di qualità ad alimentare il Ruby con segnali 1080p. Provato sia con 6600 liscia che con la mia attuale 1800Xl.

Ciao

Stefano
 
MauMau ha detto:
neanch'io ti so dare una risposta, ma su alcuni siti americani si discute del fatto che HDMI accetta una banda passante superiore al DVI, per cui può transitare informazioni a 12bit contro gli 8bit del DVI ...

Io so che anche l'hdmi ha il limite degli 8bit, se fosse 12 come dici tu non sarebbe compatibile con il dvi. Un cambiamento dell'hdmi 2.0 è proprio questo.
 
Mark75 ha detto:
Io so che anche l'hdmi ha il limite degli 8bit, se fosse 12 come dici tu non sarebbe compatibile con il dvi. Un cambiamento dell'hdmi 2.0 è proprio questo.

Concordo, ma al momento è superflua (IMHO)
 
nemo30 ha detto:
La hdmi può trasportare informazioni fino a 12bit, mi pare. Poi che se ne sfruttino al massimo 8 è un'altra cosa.

L'hdmi attuale (Type A 19pin) ha un color space di 24 bit ossia 16 milioni di colori, il minimo dell'rgb. La versione che uscirà in un prossimo futuro (Type B 29 pin) può gestire un color space fino 48 bit, il massimo ottenibile dall'rgb.

Dopo un mio ragionamento sono arrivato alla conclusione che non è un grosso limite. Averlo sulla sorgente non è limitante allo stesso modo del pannello, perchè nel primo caso è dinamico mentre il pannello sicuramente non lo è, nasce con il suo color space e rimane tale, se è carente sul verde (ad esempio) e si usa una sorgente a 24 bit con prevalenza verde verrà senza dubbio penalizzato. I nuovi pannelli PDP alis montati ad esempio dall'hitachi 7200 dovrebbero poter gestire 12 bit per componente infatti come numero di colori spacciano 68miliardi, uno spazio colore notevolmente più ampio in grado di visualizzare molte se non tutte le sfumature delle sorgenti attuali (films)

(mi scuso per gli esempi banali, li ho usati per far capire anche ai meno informati)
 
Mark75 ha detto:
L'hdmi attuale (Type A 19pin) ha un color space di 24 bit ossia 16 milioni di colori, il minimo dell'rgb. La versione che uscirà in un prossimo futuro (Type B 29 pin) può gestire un color space fino 48 bit, il massimo ottenibile dall'rgb.

Ma si trattera di cambiare anche il cavo:what:

Stefano
 
mammabella ha detto:
Ma si trattera di cambiare anche il cavo:what:

Stefano

Questo senza dubbio, l'hdmi attuale ha 10 pin in meno, non vedo come potrebbe essere altrimenti. Quello che non è certo è quando tutto ciò avverrà in fin dei conti che motivo c'è di sostituire già uno standard che si sta affermando ora? Riesce a gestire la 1920x1080p a 60Hz...
La domanda di riserva è: perchè hanno immesso sul mercato uno standard obsoleto?

edit: Comunque ero entrato per dire un altra cosa :D Secondo me l'adattatore non andrebbe usato o almeno non se si intende avere il massimo dal cavo, per intenderci non ha senso secondo me prendere un monster cable e poi usare un'adattatore o due cavi collegati, magari anche di qualità diverse? Il decadimento della qualità come fate a dire che non c'è, che paragoni avete fatto?
 
Ultima modifica:
Mark75 ha detto:
edit: Comunque ero entrato per dire un altra cosa :D Secondo me l'adattatore non andrebbe usato o almeno non se si intende avere il massimo dal cavo, per intenderci non ha senso secondo me prendere un monster cable e poi usare un'adattatore o due cavi collegati, magari anche di qualità diverse? Il decadimento della qualità come fate a dire che non c'è, che paragoni avete fatto?

Perchè se parliamo di segnali digitali il concetto di perdita di qualità è un po' particolare... Nel campo analogico una connessione in piu' può aggiungere, ad esempio, rumore ad un segnale. In campo digitale no.
O il segnale arriva come è o viene ritrasmesso o il sistema va in anomalia (superato tot ritrasmissioni).

Non che non ci possano essere problemi ma mentre nell'analogico si manifestano con rumore (o cose simili) nel digitale significa che succedano cose tipo la perdita (ogni tanto) dell'immagine (come se staccassi il connettore) oppure il sistema che va in freez...

P.S.: Ovviamente se comprassi un monster cable sarebbe un delitto metterci un adattatore :D

;)
 
Ultima modifica:
Mark75 ha detto:
Io so che anche l'hdmi ha il limite degli 8bit, se fosse 12 come dici tu non sarebbe compatibile con il dvi. Un cambiamento dell'hdmi 2.0 è proprio questo.

Non è così. L'HDMI ha il limite degli 8 bit in modalità RGB o in 4:4:4 e la RGB è quella compatibile anche con le prese DVI (cioè permette di collegare periferiche DVI con periferiche HDMI con un semplice adattatore ).

Ma l'HDMI, anche quello attuale, può funzionare anche in YCbCr 4:2:2, e in questa modalità può trasportare fino a 12 bit per canale:

http://www.audioholics.com/techtips/specsformats/HDMIinterfaceguide.php
 
Mark75 ha detto:
L'hdmi attuale (Type A 19pin) ha un color space di 24 bit ossia 16 milioni di colori, il minimo dell'rgb. La versione che uscirà in un prossimo futuro (Type B 29 pin) può gestire un color space fino 48 bit, il massimo ottenibile dall'rgb.
24 bit RGB sono 8 bit per colore. ;)
 
Riker ha detto:

Il digitale che dici mi sa che esiste solo nella teoria, nella pratica lo 0 e l'1 sono comunque impulsi con una carica e un tempo di scarica, oltre un certo limite e' un 1 altrimenti è uno zero, se ci sono delle imperfezioni nel segnale arriva a destinazione errato, esempio banale anzichè 00000000 00000000 00000000 (nero) arriva 10000010 00001000 00000001 quindi non è più un nero perfetto ma con un pò di rumore (il rumore esiste anche nel campo digitale). D'altronde se fosse così perfetto e un cavo digitale fosse esente da disturbi non si avrebbe motivo di spendere centinaia di euro per un monster cable, non pensi?
 
virtuali ha detto:

In effetti l'hdmi può codificare i pixel anche in 4:2:2, occupando la metà della banda per la seconda e terza componente, questo spiegherebbe la possibilità di avere 12 bit per colore. Perderebbe la compatibilità col dvi ma tecnicamente può farlo... ora spunta la domanda: usano o useranno mai l'hdmi con la codifica in component? :confused:
Comunque pensavo che quella codifica fosse solo per le connessioni analogiche, però è anche vero che come si lavora in rgb si può lavorare in qualsiasi altra codifica, anzi ora che si è scoperto il 4:2:2 l'rgb è uno spreco di banda (che mal di testa :D )
 
Top