• Sabato 14 febbraio da Audio Quality partirà un roadshow che porterà il nuovo proiettore DLP 4K trilaser Valerion VisionMaster Max in giro per l'Italia e che toccherà Roma, Genova, Milano, Napoli, Padova e Udinee forse anche Bari e Torino. Maggiori info a questo indirizzo

Audio digitale e teoria sul campionamento

antani ha detto:
Per quanto riguarda l'udibilità, come hai notato già in cuffia questa è assai problematica, e sbagliarsi è un'attimo (mi sembra tu abbia fatto 15/20). In ambiente diventa praticamente indistinguibile.

Non leggere i miei messaggi come ti conviene: ho citato il 15/20, perchè ho fatto due prove. Nella prima ho fatto 6 su 7, con i primi 6 tutti giusti e l'errore alla fine. Per cui ho rifatto la prova pensando che potrebbe essere la fatica d'ascolto, e infatti il secondo test è andato peggio.

Il che non fa altro che dimostrare quello che ho sempre sostenuto: le differenze, grandi o piccole, comunque CI SONO, ma la loro percettibilità è data da parecchi fattori soggettivi, che vanno dalla diversa capacità uditiva di ciascuno, all'ambiente d'ascolto e anche dalla concentrazione che si può avere in un certo momento, la fatica d'ascolto all'interno della stessa sessione, etc...
 
antani ha detto:
Ritengo molto importante assimilare questo punto, per cui se qualcuno ha dubbi o non è d'accordo su questo principio

Il principio può essere giusto, l'errore che fai è pensare che, per il fatto che il principio sia giusto, ne sia anche la sua applicazione.

A questo proposito, è ESEMPLARE la spiegazione che è stata data in uno studio pubblicato recentemente dall'IEEE

http://www2.computer.org/portal/web/csdl/doi/10.1109/ICDT.2008.11


Is the Nyquist Rate Enough?

The Nyquist rate was derived using infinite time interval. But all our applications are based on finite time intervals. In digital communications we repeat our processes usually over the symbol time interval. The Nyquist rate will provide very few samples on this small interval. It will be very difficult to recover the symbol function from so few samples. In this paper we provide a mathematical proof that faster sample rate is meaningful, necessary, and it provides additional information about the function

Detto in altre parole, è esattamente quello che sostiene Picander...
 
In realta' avete ragione entrambi.

Dal punto di vista teorico, basterebbe e avanzerebbe 48khz.

Ma nella pratica, il Teorema di Nyquist-Shannon non e' applicabile nella pratica perche' non ci troviamo di fronte ad un modello e ad una implementazione ideale, impossibile da realizzare in un vero DAC.

Quindi i 96 khz danno un reale benefico tangibile e audibile, in condizioni non perfette e ideali (cioe' *SEMPRE*).

Fra parentesi lo dice anche la pagina di wikipedia stessa, spiegando bene e in maniera estremamente chjiara che nel caso reale il teorema di NS *NON VALE* e quindi NON BASTA il doppio della frequenza, dando anche le motivazioni di cio:

"In practice, neither of the two statements of the sampling theorem described above can be completely satisfied, and neither can the reconstruction formula be precisely implemented. The reconstruction process that involves scaled and delayed sinc functions can be described as ideal. It cannot be realized in practice since it implies that each sample contributes to the reconstructed signal at almost all time points, requiring summing an infinite number of terms. Instead, some type of approximation of the sinc functions, finite in length, has to be used. The error that corresponds to the sinc-function approximation is referred to as interpolation error. Practical digital-to-analog converters produce neither scaled and delayed sinc functions nor ideal impulses (that if ideally low-pass filtered would yield the original signal), but a sequence of scaled and delayed rectangular pulses. This practical piecewise-constant output can be modeled as a zero-order hold filter driven by the sequence of scaled and delayed dirac impulses referred to in the mathematical basis section below. A shaping filter is sometimes used after the DAC with zero-order hold to make a better overall approximation."

Inoltre ci sono da considerare i fenomeni di intermodulazione supersonica, che vengono tagliati fuori quando si 'registra' e si quantizza separatamente i vari strumenti a 48khz.

Perdiamo quei fenomeni di 'colorazione' sonora della componente ultrasonica ai danni della componente udibile, che fa suonare la musica come noi la sentiamo dal vivo, da una corretta distanza.

Ora sono di fretta ma stasera posto qualcosa di 'definitivo' sull'argomento:, spiegando per bene.

C'e' poco da aver dubbi: i sampling rate superiori ai 48khz (come 96) sono molti utili e udibili.

Che poi i 192khz siano fuffa commerciale siamo d'accordo tutti invece :)
 
Picander ha detto:
...sono scritte come l'immagine di sopra, come può indovinare il dacil picco dell'onda da ricostruire? può solo tirare a indovinare....
Non c'è nulla da indovinare. Si tratta di risolvere un'equazione.

Per dare un esempio, questa è più o meno la stessa onda che hai disegnato tu sopra, una sinusoide a 10.000 Hz, campionata (dall'alto verso il basso), a 192 kHz, a 44.1 kHz, a 22.05 kHz. Il grafico, a differenza del tuo, che invece "unisce i puntini", rappresenta l'onda ricostruita.

Nonostante il numero di campioni sia molto diverso, l'onda ricostruita è esattamente la stessa.

 
gattapuffina ha detto:
Non leggere i miei messaggi come ti conviene:...
Se avessi voluto leggere i tuoi messaggi come mi conviene, ti avrei detto che 6/7, dato il basso numero di prove, potrebbe tranquillamente essere casuale, mentre il 9/13 del secondo tentativo testimonia che non sei stato in grado di distinguere i file. La "stanchezza di ascolto" non mi sembra una scusante, sta comunque a testimoniare una differenza ai limiti dell'udibile (in linea con la teoria), non certo le "macroscopiche differenze che anche un sordo sentirebbe" che affermi esistano. Il tutto per di più in cuffia.
 
antani ha detto:
Non c'è nulla da indovinare. Si tratta di risolvere un'equazione.

Per dare un esempio, questa è più o meno la stessa onda che hai disegnato tu sopra, una sinusoide a 10.000 Hz

Basta un' equazione magica che automaticamente da tre campioni ti ricostruisce un onda esattamente come l'originale, nonostante ci siano milioni di possibilità sicuramente ricostruisce l'originale! Intendi questo?
Un'equazione (un algoritmo più precisamente) non fa miracoli. Se no con lo stesso raginamento estremizzato basterebbe campionare l'inizio e la fine di una sinfonia per poterla ricostruire per intero. E' ovvio che un resampler lavora bene su una frequenza singola, altro paio di maniche è quando se ne aggiungono delle altre (come avviene in una normale traccia audio)

Rileggi con attenzione le funzioni dei miei grafici, questa tua risposta dimostra che non hai capito bene di cosa ho parlato. Se ti do la traccia che ho prodotto nel secondo esempio mi puoi dire come il tuo software la ricostruisce?
 
Ultima modifica:
antani ha detto:
Se avessi voluto leggere i tuoi messaggi come mi conviene, ti avrei detto che 6/7, dato il basso numero di prove, potrebbe tranquillamente essere casuale

E no, è troppo semplice prima invitarmi ad usare uno specifico programma, poi quando questo da il 93.7% di affidabilità, fare finta che sia casuale. Quella percentuale, e quel modo di fare le prove, serve APPOSTA per evitare la casualità, e casualità sarebbe stato un risultato del 50%, e se sai come funziona l'ABX comparator, se fai 2 su 2 NON DA' il 100%, ha bisogno di un certo numero di prove prima di esprimere un risultato che considera affidabile.

La "stanchezza di ascolto" non mi sembra una scusante

Tenendo conto che mi pare significativo il fatto che il primo 6 su 7 l'ho fatto con i primi 6 giusti, e tenendo conto che erano le 4 di mattina, per me la stanchezza d'ascolto può influire abbastanza.


non certo le "macroscopiche differenze che anche un sordo sentirebbe" che affermi esistano.

Non certo quello che tu affermavi prima, cioè che da qualsiasi prova in doppio cieco, non si è mai riuscito a provare che si possa sentire una benchè minima differenza.

Ora, mi pare di aver dimostrato sufficente onestà intellettuale per ammettere che mi aspettavo fosse più facile scoprire le differenze, che comunque CI SONO.

Tu, invece, mi sembra che non vuoi ammettere in nessun modo di esserti sbagliato nell'affermare che qualsiasi prova in doppio cieco, dimostra sempre che le differenze non sono udibili.

E comunque, in questo test stiamo parlando SOLO della decimazione da 24 a 16 bit alla stessa frequenza di campionamento, usando un buon algoritmo di dithering, per cui mi pare anche normale che il risultato non sia così palesemente percepibile come lo sarebbe potuto essere, se oltre alla decimazione avessimo anche introdotto una conversione della frequenza di campionamento.
 
Ultima modifica:
Picander stiamo parlando di geometria elementare, non certo di magia. Per 2 punti passa una e una sola retta, per 3 punti passa uno ed un solo cerchio, ecc.

Mandami pure il file che hai creato, ma sono sicuro che anche il tuo software consente la visualizzazione dell'onda ricostruita, come quella che ho postato, prova a guardare sulle opzioni.

Prima di passare a forme d'onda complesse, sarebbe opportuno comprendere come leggere almeno i grafici delle sinusoidi semplici (il primo che hai postato), sennò perdiamo solo del tempo.

ps. sia chiaro, io non conosco mica la rappresentazione grafica di tutte le forme d'onda possibili ed immaginabili, e può anche essere interessante verificare i casi limite. Però dobbiamo essere sicuri di non commettere errori banali di interpretazione del grafico.
 
Ultima modifica:
Gattapuffina, in realtà 15/20 è una probabilità superiore a 6/7 e a 9/13 ;) .

Non mi sembra di aver mai affermato che non possano esistere differenze. Al contrario è risaputo che i 96 dB dei 16 bit sono al limite della percezione umana, e di conseguenza potenzialmente udibili (in ascolto con rumore di fondo molto basso, per cui hai fatto bene a farlo di notte :D ). Sicuramente sono scettico sulla grande importanza che viene data ad alcuni elementi soprattutto nell'eterna diatriba CD vs vinile.

La questione della frequenza di campionamento è più complessa, perché matematicamente non c'è evidenza di reali differenze (sempre si accetti il Teorema di Campionamento). Tuttavia il mondo reale è variegato, ed è vero che non si può dare nulla di scontato, molti sono i fattori da prendere in considerazione. Per questo sono anche poco convinto degli sforzi di Picander: la soluzione non si troverà plottando un grafico, perché gli elementi importanti stanno nell'implementazione della conversione DA, non nei suoi principi, che sono direi ben conosciuti, anche se questa conoscenza è in realtà assai poco diffusa fra gli appassionati.

D'altro canto mi sembrava che fosse proprio questa l'idea del thread, cioè cercare di analizzare i vari elementi e la loro reale importanza.
 
Ultima modifica:
Ho l'impressione che stiate parlando di cose diverse, nel senso che alcuni danno per scontate certe ipotesi sul tipo di funzione che per altri non valgono.
Perche' non lavorate sull'onda quadra che avrebbe il vantaggio di avere dentro tutte le frequenze di interesse?

Geometria: per 2 punti possono passare infinite curve differenti, così pure per 3 o piu' punti. Se pero' ci si auto-limita al caso delle funzioni periodiche, magari semplicemente trigonometriche, allora la faccenda cambia, come nel caso citato da Antani del cerchio e della retta.

In teoria per riprodurre un semplice segnale periodico di lunghezza infinita il campionamento a 44.1kHz sarebbe sufficiente (grazie a Nyquist) in banda audio. Cio' non e' piu' tanto vero sui segnali complessi, ma per coglierlo ci vuole un certo "orecchio" che non e' detto che tutti abbiamo. Per esempio purtroppo i 16KHz dopo una certa età non si distinguono piu'... :rolleyes:
Ciao,
SC
 
antani ha detto:
Gattapuffina, in realtà 15/20 è una probabilità superiore a 6/7 e a 9/13 ;)

Potrei aver sbagliato a ricordare, e forse era 14/20, ricordo sicuramente che la percentuale di affidabilità di ABX comparator era più alta nel primo test.


La questione della frequenza di campionamento è più complessa, perché matematicamente non c'è evidenza di reali differenze (sempre si accetti il Teorema di Campionamento).

Nessuno qui ha mai negato il significato puramente matematico del teorema del campionamento ma, il problema è che quello che ascoltiamo su CD non è il risultato di una formula matematica: è prodotto da circuiti finiti, che hanno le loro limitazioni.
 
Fare prove con onde quadre è semplicemente sbagliato.

E' noto che lo spettro di fourier di un onda quadra si estende fino all'infinto:
ovvero una onda quadra a una data frequenza è la somma di infinite onde sinusoidali a frequenze arbitrariamente grandi.
(Questo perché a Fourier non piacevano gli angoli di 90 gradi ;) ).

Per campionare corretamente un'onda quadra se scomodate Nyquist capirete che serve una frequenza maggiore di 2 * frequenza massima presente nel segnale ovvero infinito.

Poi è evidente che i 44 KHz sono stati scelti perché 22 e abbastanza più grande di 15-16 KHz che è la frequenza oltre la quale i più non sentono proprio nulla.
 
"Semplicemente sbagliato" casomai e' fare affermazioni non adeguatamente motivate. Al contrario, l'onda quadra la proponevo esattamente perche' la sua trasformata di Fourier contiene tutte le armoniche, come sa bene chiunque abbia studiato Analisi II (... e come avevo gia' comunque ricordato nel precedente intervento).
Dunque per quanto possa apparire paradossale questa e' piu' rappresentativa della effettiva complessita di un segnale reale che in effetti contiene esattamente tutte le frequenze della gamma audio (sia pur con intensita' e fasi diverse e variabili, a differenza della quadra che e' periodica).
Riprodurre una sinusoidale di durata infinita e' troppo facile e quindi non prova adeguatamente l'efficacia dei 44.1KHz che probabilmente non sono affatto "abbastanza piu' grandi dei 15-16kHz" visto che la differenza con il SACD registrato in DSD si sente (almeno io la sento...).
Saluti,
SC
 
Ultima modifica:
sc_ita ha detto:
"Semplicemente sbagliato" casomai e' fare affermazioni non adeguatamente motivate...
Riprodurre una sinusoidale di durata infinita e' troppo facile

no scusa ricomincio da campo:

la domanda che i tecnici si sono posti è stata: quale può essere una frequenza di taglio ottimale per sentire bene un audio in digitale?

La risposta è stata data come segue:
  • l'uomo sente a fatica 16 KHz
  • mettiamo 22 per sicurezza
  • facciamo 2x per il teorema succittato

Si possono infine fare tutte le considerazioni che si volgiono sul fatto che un onda quadra viene male se campionata in un certo modo, ma questo ha poco a che fare con l'ascolto del suono, perchè le armoniche che compongono il segnale che danno l'onda quadra che il CD taglia comunque non si sentono.

Poi che ci sia chi dice di sentire anche oltre quella soglia o di sentire melgio dal vinile buon per lui. Vorrei solo vedere un blind test fatto da questi...
 
Picander ha detto:
... altro discorso sono le curve...
Prendo spunto dal tuo post per riferirmi alla Trasformata di Fourier, che costituisce il punto di partenza di qualunque considerazione in campo acustico, compreso il teorema di Nyquist Shannon.

Fourier ha dimostrato che qualunque segnale complesso può essere scomposto in sinusoidi di frequenza, fase e ampiezza diverse.

Questo concetto è molto importante per capire che un segnale acustico, qualunque esso sia, ha sempre al suo interno un proprio "ordine intrinseco" che può essere ricondotto a sinusoidi. Da questo deriva che se il nostro campionamento è in grado di riprodurre le sinusoidi, riuscirà anche a ricostruire il segnale complesso.

Per cui alla fine in acustica non si parla di "curve generiche" ma sempre di sinusoidi, che possono essere descritte mediante funzioni trigonometriche (seno e coseno).
 
Sul web si trova molto materiale a proposito delle onde quadre. Spesso è utilizzata l'onda quadra per cercare di dimostrare che il campionamento DSD dei SACD sia superiore al tradizionale PCM.

Io non saprei dire se sia meglio il DSD o il PCM, credo che ambedue siano adeguati alle nostre necessità.

Rimane il fatto che un'onda quadra perfetta è teoricamente costituita da infinite armoniche dispari di ampiezza decrescente. Essendo la composizione armonica infinita, può essere rappresentata in modo completo unicamente utilizzando una frequenza di campionamento infinito.

Ma questo è davvero importante? Qual è il beneficio di riprodurre armoniche che si trovano oltre la soglia di udibilità?
 
antani ha detto:
Da questo deriva che se il nostro campionamento è in grado di riprodurre le sinusoidi, riuscirà anche a ricostruire il segnale complesso.

Appunto, è qui il problema: quello che continui a sostenere è la possibilità matematica di ricostruire un segnale complesso, ma non è così che funziona un DAC. Per poter ricostruire l'onda originale in qualsiasi situazione, comprese quelle limite citate da Picander che sono sulle frequenze critiche, ci vorrebbe un processo che prende tempo infinito.

Ti consiglio di leggere la versione Inglese dell'articolo di Wikipedia , che è molto più completa di quella in Italiano che hai postato, e soprattutto manca della parte che riguarda l'implementazione pratica:

http://en.wikipedia.org/wiki/Nyquist–Shannon_sampling_theorem#Practical_considerations

Ed è sulle limitazioni pratiche che ha senso discutere, se si parla di suono del CD mentre tu continui ad insistere sulla correttezza teorico/matematica del teorema, che nessuno qui mette in discussione.

Ci sono almeno due punti che vorrei che smentissi portando prove oggettive:

Visto che il teorema di Shannon pone come prerequisito che il segnale originale da campionare sia limitato in banda, cioè che non si tenti di campionare NESSUNA frequenza al di fuori di quella di F/2, e dato che:

"ideal "brick-wall" filters cannot be realized. All practical filters can only attenuate frequencies outside a certain range, not remove them entirely. In addition to this, a "time-limited" signal can never be bandlimited. This means that even if an ideal reconstruction could be made, the reconstructed signal would not be exactly the original signal"

E questo è il primo punto: nota che tra 22.050 khz e la soglia dell'udibile, di "spazio" per realizzare un filtro passa basso ce n'è ben poco.

Questo, per quanto riguarda la fase di campionamento. Per quanto riguarda la ricostruzione, invece:

The reconstruction process that involves scaled and delayed sinc functions can be described as ideal. It cannot be realized in practice since it implies that each sample contributes to the reconstructed signal at almost all time points, requiring summing an infinite number of terms. Instead, some type of approximation of the sinc functions, finite in length, has to be used. The error that corresponds to the sinc-function approximation is referred to as interpolation error. Practical digital-to-analog converters produce neither scaled and delayed sinc functions nor ideal impulses (that if ideally low-pass filtered would yield the original signal), but a sequence of scaled and delayed rectangular pulses. his practical piecewise-constant output can be modeled as a zero-order hold filter driven by the sequence of scaled and delayed dirac impulses referred to in the mathematical basis section below. A shaping filter is sometimes used after the DAC with zero-order hold to make a better overall approximation.

Sei ancora sicuro che dal DAC esca la perfetta onda originale ?
 
antani ha detto:
Ma questo è davvero importante? Qual è il beneficio di riprodurre armoniche che si trovano oltre la soglia di udibilità?

Un primo motivo degno di nota mi pare questo, scritto da Luigi Lauro poco sopra:

luigi.lauro ha detto:
Inoltre ci sono da considerare i fenomeni di intermodulazione supersonica, che vengono tagliati fuori quando si 'registra' e si quantizza separatamente i vari strumenti a 48khz.

Perdiamo quei fenomeni di 'colorazione' sonora della componente ultrasonica ai danni della componente udibile, che fa suonare la musica come noi la sentiamo dal vivo, da una corretta distanza.

L'altro motivo è, appunto, invece di essere costretti ad usare filtri molto ripidi, perchè lo spazio per tagliare qualsiasi frequenza tra la fine della banda udibile e la frequenza limite del teorema, con la frequenza a 44.1 è molto poco (dobbiamo tagliare tutto tra 20 e 22 khz ), mentre il problema diventa molto meno critico, semplicemente alzando la frequenza di campionamento.
 
A questo punto darei per scontato che qualche nozione di Analisi II piu' o meno remota ce l'abbiamo tutti...
Dico anche che alcune prove di riconoscimento alla cieca DSD vs RBCD ne ho fatte, e che sui miei SACD completamente processati in DSD la differenza io la sento, nonostante che a livello di sinusuoide pura il mio limite ormai e' dato dai 16kHz (43 anni, ahime', da giovane arrivavo anch'io ai 20kHz).
Ne deduco che il punto della questione non e' nella riproduzione delle sinusoidi pure ma piuttosto di segnali piu' complessi, anche se e' vero che sono analiticamente sempre scomponibili in armoniche di seni e coseni con ampiezza e fasi diverse.
Inoltre c'e' un altro dubbio: non e' che per caso il nostro appartato uditivo (orecchio+cervello) non distingue consciamente una sinusoide a 20kHz ma piuttosto si accorge di un attacco piu' o meno ripido (un tic secco, un rumore, mai capitato a voi di voltarvi improvvisamente perche' sentiamo una "presenza" in una stanza senza aver consciamente riconosciuto un rumore vero e proprio?). In altri termini, non e' che in qualche modo percepiamo la ripidezza del primo tratto di risalita dell'onda quadra? Questo fattore immagino che potrebbe giocare un ruolo chiave anche nel riconoscimento della posizione della sorgente sonora (e infatti la differenza che io percepisco nel confronto DSD vs RBCD e' nell'immagine e spazialita' dell'orchestra).
Rimango della mia idea che la prova dell'onda quadra e' piu' indicativa. Se non si vuole avere la frequenza infinita (che comunque avrebbe ampiezza infinitesima) si potrebbe un po' smussare, no?
Siro.
 
Top