Visualizzazione Stampabile
-
@ Gattapuffina, a giudicare da quello che scrivi, dopo il test ti sei reso conto del fatto che le macroscopiche differenze fra l'ascolto dei CD vS LP, non sono dovute alle caratteristiche deficitarie del redbook.
Sono proprio per questo genere di considerazioni che ritengo i test in cieco interessanti.
Per quanto riguarda l'udibilità, come hai notato già in cuffia questa è assai problematica, e sbagliarsi è un'attimo (mi sembra tu abbia fatto 15/20). In ambiente diventa praticamente indistinguibile.
Un'altra cosa interessante che consiglio di provare è questa: prima ascoltare sapendo cosa si sta ascoltando, e poi in cieco (anche in cuffia). Serve a rendersi conto di quanto il nostro sistema percettivo sia ingannevole.
-
I principi del campionamento digitale si basano in buona parte sul Teorema di Nyquist Shannon, enunciato per la prima volta nel 1949.
E' quindi molto importante che se ne capisca il senso. Altrimenti non ci potrà essere nessuna discussione seria sull'argomento.
Tale teorema afferma che è possibile ricostruire un segnale acustico senza perdita di informazioni utilizzando una frequenza di campionamento che sia almeno il doppio di quella del segnale campionato. Cioè ad esempio è possibile ricostruire una frequenza di 20.000 Hz utilizzando un campionamento di almeno 40.000 Hz. Tale frequenza è anche conosciuta come frequenza di Nyquist.
Su Wikipedia potete trovare la dimostrazione matematica, comunque intuitivamente questa ricostruzione è possibile in quanto le onde acustiche sono descrivibili in termini trigonometrici. E' come cercare di ricostruire una retta. Noi tutti sappiamo che bastano 2 punti per riuscire a identificarne l'equazione. Analogamente bastano 2 punti per ricostruire un'onda acustica. Se invece di 2 punti ne avrò 4 oppure 100, non fa nessuna differenza, non aumenterò in alcun modo l'accuratezza della ricostruzione.
Consegue dal Teorema di Nyquist che fino alla frequenza di 22.050 Hz, il campionamento dello standard CD (44.100 Hz) è completamente equivalente a campionamenti superiori.
Molte persone immaginano che maggiore è la frequenza di campionamento, più precisa sarà la ricostruzione del segnale, come ad esempio avviene con le fotografie digitali. Non è così! Con un campionamento di almeno 2 volte la frequenza del segnale, la ricostruzione sarà perfetta, anche in termini di ampiezza e di fase.
Ritengo molto importante assimilare questo punto, per cui se qualcuno ha dubbi o non è d'accordo su questo principio, parli ora o taccia per sempre :D .
-
Citazione:
Originariamente scritto da antani
Se questo campionamento attraversasse una ricostruzione digitale/analogica
la ricostruzione non fa mica miracoli! Nel cd le informazioni sono scritte come l'immagine di sopra, come può indovinare il dacil picco dell'onda da ricostruire? può solo tirare a indovinare
A porposito di Nyquist, come mi può un dac ricostruire un onda a 22050 hz che entrata in fase con la cadenza del campionatore viene registrata come segnale silenzioso? La definizione data da wikipedia e imprecisa.
-
Antani, eccellente spiegazione, anche per chi ha solo vaghi (ma MOLTO vaghi!) ricordi degli esami di analisi e teoria dei segnali, fatti illo tempore all'università!
Specie l'esempio della ricostruzione di una retta! :)
-
nuovo test: i battimenti
frequenza 11024 (sì un hz in meno), sopra 44.1 sotto 192
http://picander.dyndns.org/schermata3.jpeg
come potete notare il leggero sfasamento della sinusoide con la cadenza del campionamento comporta gravi problemi di ricostruzione dell'ampiezza (chiaramente udibili ad orecciho). Nessun problema con alta risoluzione
edit:
ovvamente sono segnali limite, che mirano a verificare i punti deboli della quantizzazione. Lo stesso errore si verifica dividendo per 4 la frequenza dei 192000, solo che poco ce ne frega che i 44100 si sentano bene o male.
-
Citazione:
Originariamente scritto da antani
Per quanto riguarda l'udibilità, come hai notato già in cuffia questa è assai problematica, e sbagliarsi è un'attimo (mi sembra tu abbia fatto 15/20). In ambiente diventa praticamente indistinguibile.
Non leggere i miei messaggi come ti conviene: ho citato il 15/20, perchè ho fatto due prove. Nella prima ho fatto 6 su 7, con i primi 6 tutti giusti e l'errore alla fine. Per cui ho rifatto la prova pensando che potrebbe essere la fatica d'ascolto, e infatti il secondo test è andato peggio.
Il che non fa altro che dimostrare quello che ho sempre sostenuto: le differenze, grandi o piccole, comunque CI SONO, ma la loro percettibilità è data da parecchi fattori soggettivi, che vanno dalla diversa capacità uditiva di ciascuno, all'ambiente d'ascolto e anche dalla concentrazione che si può avere in un certo momento, la fatica d'ascolto all'interno della stessa sessione, etc...
-
Citazione:
Originariamente scritto da antani
Ritengo molto importante assimilare questo punto, per cui se qualcuno ha dubbi o non è d'accordo su questo principio
Il principio può essere giusto, l'errore che fai è pensare che, per il fatto che il principio sia giusto, ne sia anche la sua applicazione.
A questo proposito, è ESEMPLARE la spiegazione che è stata data in uno studio pubblicato recentemente dall'IEEE
http://www2.computer.org/portal/web/...9/ICDT.2008.11
Citazione:
Is the Nyquist Rate Enough?
The Nyquist rate was derived using infinite time interval. But all our applications are based on finite time intervals. In digital communications we repeat our processes usually over the symbol time interval. The Nyquist rate will provide very few samples on this small interval. It will be very difficult to recover the symbol function from so few samples. In this paper we provide a mathematical proof that faster sample rate is meaningful, necessary, and it provides additional information about the function
Detto in altre parole, è esattamente quello che sostiene Picander...
-
In realta' avete ragione entrambi.
Dal punto di vista teorico, basterebbe e avanzerebbe 48khz.
Ma nella pratica, il Teorema di Nyquist-Shannon non e' applicabile nella pratica perche' non ci troviamo di fronte ad un modello e ad una implementazione ideale, impossibile da realizzare in un vero DAC.
Quindi i 96 khz danno un reale benefico tangibile e audibile, in condizioni non perfette e ideali (cioe' *SEMPRE*).
Fra parentesi lo dice anche la pagina di wikipedia stessa, spiegando bene e in maniera estremamente chjiara che nel caso reale il teorema di NS *NON VALE* e quindi NON BASTA il doppio della frequenza, dando anche le motivazioni di cio:
"In practice, neither of the two statements of the sampling theorem described above can be completely satisfied, and neither can the reconstruction formula be precisely implemented. The reconstruction process that involves scaled and delayed sinc functions can be described as ideal. It cannot be realized in practice since it implies that each sample contributes to the reconstructed signal at almost all time points, requiring summing an infinite number of terms. Instead, some type of approximation of the sinc functions, finite in length, has to be used. The error that corresponds to the sinc-function approximation is referred to as interpolation error. Practical digital-to-analog converters produce neither scaled and delayed sinc functions nor ideal impulses (that if ideally low-pass filtered would yield the original signal), but a sequence of scaled and delayed rectangular pulses. This practical piecewise-constant output can be modeled as a zero-order hold filter driven by the sequence of scaled and delayed dirac impulses referred to in the mathematical basis section below. A shaping filter is sometimes used after the DAC with zero-order hold to make a better overall approximation."
Inoltre ci sono da considerare i fenomeni di intermodulazione supersonica, che vengono tagliati fuori quando si 'registra' e si quantizza separatamente i vari strumenti a 48khz.
Perdiamo quei fenomeni di 'colorazione' sonora della componente ultrasonica ai danni della componente udibile, che fa suonare la musica come noi la sentiamo dal vivo, da una corretta distanza.
Ora sono di fretta ma stasera posto qualcosa di 'definitivo' sull'argomento:, spiegando per bene.
C'e' poco da aver dubbi: i sampling rate superiori ai 48khz (come 96) sono molti utili e udibili.
Che poi i 192khz siano fuffa commerciale siamo d'accordo tutti invece :)
-
Citazione:
Originariamente scritto da Picander
...sono scritte come l'immagine di sopra, come può indovinare il dacil picco dell'onda da ricostruire? può solo tirare a indovinare....
Non c'è nulla da indovinare. Si tratta di risolvere un'equazione.
Per dare un esempio, questa è più o meno la stessa onda che hai disegnato tu sopra, una sinusoide a 10.000 Hz, campionata (dall'alto verso il basso), a 192 kHz, a 44.1 kHz, a 22.05 kHz. Il grafico, a differenza del tuo, che invece "unisce i puntini", rappresenta l'onda ricostruita.
Nonostante il numero di campioni sia molto diverso, l'onda ricostruita è esattamente la stessa.
http://img6.imageshack.us/img6/270/campionamento.th.jpg
-
Citazione:
Originariamente scritto da gattapuffina
Non leggere i miei messaggi come ti conviene:...
Se avessi voluto leggere i tuoi messaggi come mi conviene, ti avrei detto che 6/7, dato il basso numero di prove, potrebbe tranquillamente essere casuale, mentre il 9/13 del secondo tentativo testimonia che non sei stato in grado di distinguere i file. La "stanchezza di ascolto" non mi sembra una scusante, sta comunque a testimoniare una differenza ai limiti dell'udibile (in linea con la teoria), non certo le "macroscopiche differenze che anche un sordo sentirebbe" che affermi esistano. Il tutto per di più in cuffia.
-
Citazione:
Originariamente scritto da antani
Non c'è nulla da indovinare. Si tratta di risolvere un'equazione.
Per dare un esempio, questa è più o meno la stessa onda che hai disegnato tu sopra, una sinusoide a 10.000 Hz
Basta un' equazione magica che automaticamente da tre campioni ti ricostruisce un onda esattamente come l'originale, nonostante ci siano milioni di possibilità sicuramente ricostruisce l'originale! Intendi questo?
Un'equazione (un algoritmo più precisamente) non fa miracoli. Se no con lo stesso raginamento estremizzato basterebbe campionare l'inizio e la fine di una sinfonia per poterla ricostruire per intero. E' ovvio che un resampler lavora bene su una frequenza singola, altro paio di maniche è quando se ne aggiungono delle altre (come avviene in una normale traccia audio)
Rileggi con attenzione le funzioni dei miei grafici, questa tua risposta dimostra che non hai capito bene di cosa ho parlato. Se ti do la traccia che ho prodotto nel secondo esempio mi puoi dire come il tuo software la ricostruisce?
-
Citazione:
Originariamente scritto da antani
Se avessi voluto leggere i tuoi messaggi come mi conviene, ti avrei detto che 6/7, dato il basso numero di prove, potrebbe tranquillamente essere casuale
E no, è troppo semplice prima invitarmi ad usare uno specifico programma, poi quando questo da il 93.7% di affidabilità, fare finta che sia casuale. Quella percentuale, e quel modo di fare le prove, serve APPOSTA per evitare la casualità, e casualità sarebbe stato un risultato del 50%, e se sai come funziona l'ABX comparator, se fai 2 su 2 NON DA' il 100%, ha bisogno di un certo numero di prove prima di esprimere un risultato che considera affidabile.
Citazione:
La "stanchezza di ascolto" non mi sembra una scusante
Tenendo conto che mi pare significativo il fatto che il primo 6 su 7 l'ho fatto con i primi 6 giusti, e tenendo conto che erano le 4 di mattina, per me la stanchezza d'ascolto può influire abbastanza.
Citazione:
non certo le "macroscopiche differenze che anche un sordo sentirebbe" che affermi esistano.
Non certo quello che tu affermavi prima, cioè che da qualsiasi prova in doppio cieco, non si è mai riuscito a provare che si possa sentire una benchè minima differenza.
Ora, mi pare di aver dimostrato sufficente onestà intellettuale per ammettere che mi aspettavo fosse più facile scoprire le differenze, che comunque CI SONO.
Tu, invece, mi sembra che non vuoi ammettere in nessun modo di esserti sbagliato nell'affermare che qualsiasi prova in doppio cieco, dimostra sempre che le differenze non sono udibili.
E comunque, in questo test stiamo parlando SOLO della decimazione da 24 a 16 bit alla stessa frequenza di campionamento, usando un buon algoritmo di dithering, per cui mi pare anche normale che il risultato non sia così palesemente percepibile come lo sarebbe potuto essere, se oltre alla decimazione avessimo anche introdotto una conversione della frequenza di campionamento.
-
Picander stiamo parlando di geometria elementare, non certo di magia. Per 2 punti passa una e una sola retta, per 3 punti passa uno ed un solo cerchio, ecc.
Mandami pure il file che hai creato, ma sono sicuro che anche il tuo software consente la visualizzazione dell'onda ricostruita, come quella che ho postato, prova a guardare sulle opzioni.
Prima di passare a forme d'onda complesse, sarebbe opportuno comprendere come leggere almeno i grafici delle sinusoidi semplici (il primo che hai postato), sennò perdiamo solo del tempo.
ps. sia chiaro, io non conosco mica la rappresentazione grafica di tutte le forme d'onda possibili ed immaginabili, e può anche essere interessante verificare i casi limite. Però dobbiamo essere sicuri di non commettere errori banali di interpretazione del grafico.
-
Gattapuffina, in realtà 15/20 è una probabilità superiore a 6/7 e a 9/13 ;) .
Non mi sembra di aver mai affermato che non possano esistere differenze. Al contrario è risaputo che i 96 dB dei 16 bit sono al limite della percezione umana, e di conseguenza potenzialmente udibili (in ascolto con rumore di fondo molto basso, per cui hai fatto bene a farlo di notte :D ). Sicuramente sono scettico sulla grande importanza che viene data ad alcuni elementi soprattutto nell'eterna diatriba CD vs vinile.
La questione della frequenza di campionamento è più complessa, perché matematicamente non c'è evidenza di reali differenze (sempre si accetti il Teorema di Campionamento). Tuttavia il mondo reale è variegato, ed è vero che non si può dare nulla di scontato, molti sono i fattori da prendere in considerazione. Per questo sono anche poco convinto degli sforzi di Picander: la soluzione non si troverà plottando un grafico, perché gli elementi importanti stanno nell'implementazione della conversione DA, non nei suoi principi, che sono direi ben conosciuti, anche se questa conoscenza è in realtà assai poco diffusa fra gli appassionati.
D'altro canto mi sembrava che fosse proprio questa l'idea del thread, cioè cercare di analizzare i vari elementi e la loro reale importanza.
-
Ho l'impressione che stiate parlando di cose diverse, nel senso che alcuni danno per scontate certe ipotesi sul tipo di funzione che per altri non valgono.
Perche' non lavorate sull'onda quadra che avrebbe il vantaggio di avere dentro tutte le frequenze di interesse?
Geometria: per 2 punti possono passare infinite curve differenti, così pure per 3 o piu' punti. Se pero' ci si auto-limita al caso delle funzioni periodiche, magari semplicemente trigonometriche, allora la faccenda cambia, come nel caso citato da Antani del cerchio e della retta.
In teoria per riprodurre un semplice segnale periodico di lunghezza infinita il campionamento a 44.1kHz sarebbe sufficiente (grazie a Nyquist) in banda audio. Cio' non e' piu' tanto vero sui segnali complessi, ma per coglierlo ci vuole un certo "orecchio" che non e' detto che tutti abbiamo. Per esempio purtroppo i 16KHz dopo una certa età non si distinguono piu'... :rolleyes:
Ciao,
SC