|
|
Risultati da 61 a 75 di 296
Discussione: Audio digitale e teoria sul campionamento
-
12-05-2009, 21:04 #61
Originariamente scritto da gianka
Originariamente scritto da gianka
vedi la funzione nell'immagine, (in pratica un seno compresso elevandolo al cubo ifrequenza 11024). L'hertz in meno rispetto a 11025 (un quarto della cadenza di campionamento) crea un notevole battimento.DVD Pulizia Plasma e LCD Omogeneizzatore: Chicco Cuocipappa + Pappa Calda Paperotto - Scarpe: Geox - Lampadine: Osram - Dentifricio: Elmex
-
13-05-2009, 09:44 #62
Premesso che la discussione si chiama " Audio digitale e teoria sul campionamento" ma alla fine stiamo parlando degli effetti pratici della stessa, penso bisogni fare un distinguo: se parliamo a livello teorico, allora anche la fase ha la sua importanza, la frequenza di campionamento etc e sono pienamente daccordo che , visto la tecnologia odierna, siamo più tranquilli con un campionamento a 96Khz( non mi voglio dilungare in nuove precisazioni teoriche perchè odio farlo se non strettamente necessario e comunque le avete fatte già voi ), ma, ha ragione Gianka quando dice "rimane il fatto che il poco "spazio" in frequenza per il filtro passa basso possa rendere più difficile fare bene un filtro per 16/44 che non per il 24/192. ovvero che sia più facile (meno costoso) aumentare gli standard di campionamento che l'accuratezza della circuitazione.
ed in effetti è proprio così, spesso la circuitazione che viene usata negli ultimi anni è veramente scadente .
a tale proposito ricordo di un test fatto sul behringer DEQ 2496 ( che oltretutto possiedo)che intrinsecamente è un'ottimo equalizzatore digitale ,ma anche un'ottimo dac se opportunamente modificato e costa praticamente niente per quello che offre. Il problema è la circuiteria di contorno che è scadente, se volete leggere ho trovato qualcosa qui, non è il post originale che avevo letto in passato, ma meglio di niente. http://www.tnt-audio.com/sorgenti/deqmod.html.
Il problema è il costo della modifica e se non ricordo male , (ai tempi feci una botta di conti) era prossimo a quello di un DEQ nuovo..... senza parlare della vera modifica hi-end per la quale la cifra mi senbra arrivasse a tre volte tanto il costo del DEQ.
e in secondo luogo ha pienamente ragione Antani quando parla della risposta ad impulso: è palese cosa ne rimane dell'onda originale quando viene riprodotta in ambiente ( a tale proposito si potrebbe aprire una bella nuova discussione sul DRC ovvero digital room correction e la risposta ad impulso) e l'errore di quantizzazione passa in secondo ( o forse terzo...o quarto)piano.
Inoltre, i casi limite in una registrazione musicale sicuramente ci sono :picander scrive "(in pratica un seno compresso elevandolo al cubo ifrequenza 11024). L'hertz in meno rispetto a 11025 (un quarto della cadenza di campionamento) crea un notevole battimento.
ma personalmente non mi metto ad ascoltare per ore un seno compresso elevandolo al cubo di frequenza 11024, quindi nella realtà quanti battimenti sentiremo? e per quanto tempo? a livello pratico lo ritengo trascurabile, anche se a livello teorico il ragionamento non fa una piega( solo dei gran battimenti).
Cordialmente
-
13-05-2009, 09:58 #63
ma il problema non è il battimento in sé, è sapere che gli errori di quantizzazione ci sono. So bene che mai ci capiterà di ascoltare un cd che alza e abbassa il volume tre volte al secondo per via di un battimento, ma so che i piacevoli effetti dovuti dalla corretta fasatura dei miei speakers verranno persi per colpa della imprecisa ricostruzione.
Tra l'altro pongo una domanda stimolante, se per il principio di nyquist è sufficiente una frequenza doppia, perchè 25 anni fa non hanno inventato un cd a 38khz e durata maggiore (visto che ogni frequenza sopra i 19khz è inudibile)?DVD Pulizia Plasma e LCD Omogeneizzatore: Chicco Cuocipappa + Pappa Calda Paperotto - Scarpe: Geox - Lampadine: Osram - Dentifricio: Elmex
-
13-05-2009, 10:24 #64
Originariamente scritto da Picander
Io ho solo detto che la fase "assoluta" del segnale è ininfluente. ovvero se ritardi entrambi i canali stereo di una fase arbitraria il tuo segnale rimane sostanzialmente invariato. altrimenti sarebbe come dire che ascoltare un disco all 17:00 è diverso che ascoltarlo alle 17:01.
La fase relativa è un altro discorso, ma non entro nel merito.
Inoltre a voler essere pignoli il ritardo di fase dipende dal filtro che hai usato per la ricostruzione. non ci dai ulteriori dettagli in merito, ma con un filtro fatto "bene" anche questo ritardo sparisce o quantomeno si minimizza. Quello che casomai bisogna rimarcare è che un filtro fatto male induce un ritardo di fase non costante sullo spettro udibile e questo si che è dannoso per il segnale, ma se si va al risparmio (estremo) non si può pretendere più di tanto.
Originariamente scritto da Picander
Semplicemente hai violato la teoria, pertanto la ricostruzione non è esatta. facendo il campionamento di un sin(w*t)^3 con w pulsazione pari ad una frequenza di 11024Hz in realtà non stai analizzando una sinusoide, ma un segnale dotato sostanzialmente di 2 armoniche fondamentali: la prima e la terza. ovvero lo ottieni componendo una sinusoide a 11024 Hz e la sua terza armonica, cioè una sinusoide a 11024*3 = 33072 Hz. è evidente che tale armonica viola il teroema di Nyquist e che non potrà mai essere campionata a 44Khz.
Il battimento che vedi è un chiaro fenomeno di Aliasing (per cui negli ADC si usa un filtro apposito).
In buona sostanza questo test non ha alcuna rilevanza per verificare o meno la bontà di un campionamento a 44Khz.Fare facilmente ciò che gli altri trovano difficile è talento; fare ciò che è impossibile al talento è genio
Henri Amiel
-
13-05-2009, 10:27 #65
Originariamente scritto da Picander
un filtro perfetto, ovvero con pendenza verticale di taglio e sfasamento nullo non esiste, per cui è bene che la zona dove il filtro lavora "peggio" sia fuori dalla banda udibile, ovvero ti serve un ragionevole margina di banda da "buttare via".
Descrizione rozza ma, spero, comprensibile.Fare facilmente ciò che gli altri trovano difficile è talento; fare ciò che è impossibile al talento è genio
Henri Amiel
-
13-05-2009, 10:29 #66
ahi ahi, 1-0 per te
avevo fatto male i calcoli con l'armonica. Avevo elevato per rendere il problema più visibile.
in ogni caso il problema se no nricordo male si verifica anche senza elevare, solo che è molto meno visibile. Da casa farò altre prove.
Visto che conosci bene l'argomento, mi puoi dire come può un campionamento a 44.1 riprodurre un onda a 22.05 quando questa è in fase con la cadenza del campionatore? (in pratica quando viene campionato sempre un 0). C'è qualocsa che mi sfugge con questo teorema.Ultima modifica di Picander; 13-05-2009 alle 10:35
DVD Pulizia Plasma e LCD Omogeneizzatore: Chicco Cuocipappa + Pappa Calda Paperotto - Scarpe: Geox - Lampadine: Osram - Dentifricio: Elmex
-
13-05-2009, 10:30 #67
Pare che la frequenza di 44.100 Hz sia stata scelta perché nei primi anni 80 per la registrazione digitale si utilizzavano dei registratori video, che utilizzavano nastri PAL o NTSC. 44.100 è un multiplo esatto della risoluzione video in linee con un frame rate di 3 campioni per linea (PAL 588x25x3, NTSC 490x30x3).
-
13-05-2009, 10:32 #68
Azz... questa non la sapevo. Comprensibile comunque che si parta da quello che si ha già per sviluppare qualcosa di nuovo. d'altronde PAL e NTSC hanno frequenze differenti proprio in virtù della frequenza di rete che all'epoca era l'oscillatore più preciso a disposizione...
Fare facilmente ciò che gli altri trovano difficile è talento; fare ciò che è impossibile al talento è genio
Henri Amiel
-
13-05-2009, 10:49 #69
Originariamente scritto da Picander
) il teorema enuncia che la frequenza di campionamento deve essere strettamente maggiore della frequenza massima del segnale (e non maggiore o uguale).
Il caso da te riportato è appunto il limite teorico di ricostruzione, dato che la stessa è casuale in base alla fase iniziale.Fare facilmente ciò che gli altri trovano difficile è talento; fare ciò che è impossibile al talento è genio
Henri Amiel
-
13-05-2009, 15:52 #70
Si è accennato al fatto che un campionamento superiore allo standard red book possa portare dei benefici in termini di semplicità del filtro anti aliasing.
Questo è sicuramente vero. Avendo a disposizione un ristretto range di frequenze per la filtratura (diciamo da 20 a 22 kHz) è necessario introdurre dei filtri molto ripidi, oppure avere una risposta calante in alta frequenza. I primissimi cd player utilizzavano in effetti filtri analogici che, se molto ripidi, danno orgine a distorsioni di fase in alta frequenza.
Fortunatamente anche in questo caso la tecnologia ci è venuta in aiuto, sia sul lato HW che SW. Ad oggi, praticamente tutti i filtri impiegati in fase di sottocampionamento sono digitali FIR a fase lineare. Un FIR a fase lineare non introduce distorsioni di fase, ma richiede una notevole capacità di calcolo, fantascienza negli anni 80, alla portata di chiunque ad oggi.
Per toccare con mano l'elevatissima qualità che i sample rate converter hanno raggiunto basta dare un'occhiata a questo sito. Potrete notare che un programmino gratuito come SOX offre performance praticamente perfette anche nella fase di filtratura, a dimostrazione che oggigiorno produrre un filtro digitale decente è alla portata praticamente di tutti. Per contro nello stesso sito potrete vedere come ci siano anche molti esempi di algoritmi assolutamente scadenti, a dimostrazione che la maturità su queste tematiche si è raggiunta solo recentemente.
I software testati sul sito che ho linkato sono sw spesso non concepiti per girare in tempo reale, però gli algoritmi sono gli stessi utilizzati anche nei DAC in fase di ricostruzione.
C'è anche un secondo elemento da considerare. Praticamente tutti i DAC moderni durante la conversione DA effettuano un oversampling molto spinto, cioè aumentano la frequenza di campionamento prima della conversione, aggiungendo campioni vuoti, proprio con lo scopo di rendere più agevole la fase di filtratura.
Per cui ancora una volta, i problemi di filtratura sono un'argomentazione corretta ed importante, eppure probabilmente "superata" dall'evoluzione tecnologica.
-
13-05-2009, 16:16 #71
Verissimo... ma... stai prendendo in considerazione oggetti che hanno la capacità di applicare filtri digitali in real-time sul segnale.
Assodato che oggi una cosa del genere è fattibilissima, i cd player di fascia medio bassa se la sognano.
Richiede infatti un dsp a bordo con tanto di SW o almeno un FPGA decentemente programmato. il costo di sviluppo ed implementazione va molto al di sopra delle economie di scala necessarie per un cdplayer da 100 euro (e sono generoso!!). ecco perchè bisogna stare attenti a cosa si compra. non sempre chi più spende ottiene il meglio, ma sicuramente a 29.90 un cd/dvd player non avrà dei dac al top, ma nemmeno decenti.
comunque anche senza scomodare tecnologie al top come i filtri FIR, anche la semplice miniaturizzazione dei componenti, unita alla maggior precisione di fabbricazione degli stessi (10 anni fa un condensatore con tolleranza 2% non lo aveva neanche la nasa...), rende più facile fare dei filtri anche analogici di ordine elevato e di buona fattura con effetti minimi sul segnale. il tutto integrato direttamente nel chip del convertitore con tanto di risparmio di componenti esterni, saldature, costo ecc. non è raro trovare ottimi convertitori completi a 2 canali al costo di 10-20 euro a chip dalle prestazioni rispettabilissime.
Certo che 15 euro di convertitore su un player che ne costa 30 non sono accettabili, ma che pretendete? la luna?Fare facilmente ciò che gli altri trovano difficile è talento; fare ciò che è impossibile al talento è genio
Henri Amiel
-
13-05-2009, 17:21 #72
sono convinto anch'io che prima di un passa basso i dac facciano oversampling. Il metodo utilizzato può avere effetti devastanti sulla qualità.
Io ho un amplificatore entry-level per esempio, l'audio migliora molto se faccio fare l'upsampling al pc (secret rabbit code, viene citato nell'ultimo sito indicato da Antani)
p.s. tale sito mostra quanto differenza faccia la scelta di un buon resampler quando si passa da 96 a 44.1DVD Pulizia Plasma e LCD Omogeneizzatore: Chicco Cuocipappa + Pappa Calda Paperotto - Scarpe: Geox - Lampadine: Osram - Dentifricio: Elmex
-
14-05-2009, 13:20 #73
Tutti i DAC basato su tecnologia delta-sigma (cioè la stragrande maggioranza di quelli in commercio) fanno un oversampling nell'ordine dei 64x, per arrivare a frequenze di qualche MHz (milione di Hertz) . Non c'è nessun risultato devastante, è il modo in cui funzionano.
Questo oversampling non ha molto a che fare con un upsampling 44.1->192 (che a mio parere non serve a nulla).
A onor del vero, alcuni DAC prima del convertitore inseriscono un SRC (sample rate converter) per fare un upsampling tipo 44.1->96. Credo che il motivo sia principalmente di marketing, anche se in alcuni casi l'SRC ha il beneficio di ridurre il jitter.Ultima modifica di antani; 14-05-2009 alle 13:25
-
14-05-2009, 14:34 #74
Possiamo in sostanza dire che, a patto di utilizzare componenti che non rientrino nella categoria "ridicoli", il campionamento a 44.1 Khz può ancora dire la sua per molto tempo...
Fare facilmente ciò che gli altri trovano difficile è talento; fare ciò che è impossibile al talento è genio
Henri Amiel
-
14-05-2009, 17:44 #75
Guest
- Data registrazione
- Oct 2008
- Messaggi
- 355
A mio parere no, non in modo assoluto, e' una questione relativa. Dipende dalla musica (sinfonica, camera, opera, jazz, pop, etc) e dal contesto. Una sinfonia di Mahler ben registrata e riprodotta in DSD suona sensibilemente piu' realistica rispetto a RBCD. Per un pezzo dei King Crimson (che pur apprezzo) va benissimo il RBCD e ancora meglio il vinile.
E per dimostrare questo non occorre scomodare la teoria, bastano le orecchie di qualunque buon ascoltatore con un impianto adeguato.
SC