scheda audio, cavi microfoni
Non è che uno sia un seguace delle mode se spende un capitale in una scheda audio, cerca solo di ottenere il massimo dalle sue registrazioni.
Ogni scheda audio ha caratteristiche differenti e più o meno avanzate, la scelta varia dalle necessità di chi la usa. Cambia la precisione nel campionamento, la capacità dinamica, l'espandibilità
dei canali.
Non è che puoi prendere un microfono e collegarlo con un jack per avere magicamente grazie ad un plugin il suono tondo che cercavi, nemmeno sulla scheda più costosa al mondo. I cavi
sbilanciati - Jack mono - portano poco segnale e molto rumore. I cavi bilanciati - tipicamente Canon/XLR - portano il doppio del segnale, lo mettono in contro fase e poi, nel passaggio da un
microfono alla scheda audio i ronzii raccolti nel tragitto invece saranno in fase alla fine del cavo ma qui la scheda audio inverte la fase che cancella i rumori riportando il segnale del
microfono in fase e raddoppiando il segnale. Cambiando la fase sulla scheda non è che ritrovi i rumori perché il pulsante della fase agisce dopo la connessione del cavo e il suo scopo è sì di
invertire la fase ma per ragioni di ripresa.
Il concetto di fase e contro fase è da studiare per chi crede ingannandosi che il suono sia davvero più caldo in cuffia premendo il pulsante della fase.
Si usano microfoni a condensatore per varie ragioni di dettaglio e pulizia del suono, sono più facili da gestire dai rumori e per il dettaglio del parlato.
Chi invece sa dove mettere le mani può ottenere moltissimo anche da un microfono dinamico.
Non è che uno che spende cifre esorbitanti per i cavi sia un maniaco, sta solo cercando di migliorare ulteriormente il suo suono: è risaputo che anche un cavo può fare la differenza, ecco il perché di cavi all'apparenza estremamente costosi. C'è da dire che per registrare la voce dello speaker in home studio molte di queste cose vanno oltre il necessario ma conoscerle aiuta a raggiungere un risultato.
fase e controfase
Senza perdersi in formule troppo difficili: 10 - 10 = 0
Se un cavo porta un segnale in fase positiva l'altro ne porta uno identico in fase negativa, i due segnali si annulleranno e alla fine del cavo non avrai segnale.
Questo si verifica anche parzialmente su alcune frequenze che si incontrano in una zona in controfase anche non completa, ma quanto basta per annullare una parte del segnale opposto.
Alcune persone sono convinte che cambiando la fase premendo il pulsante sulla scheda il suono migliori. Lo sentono, perché in cuffia avvertono una variazione di tono.
In cuffia un segnale mono ti arriva su tutti e due i padiglioni delle orecchie quando le schede audio o i mixer mettono il segnale che sarebbe solo su un canale suddiviso su tutti e due,
dando l'impressione che sia al centro. La fase del microfono è positiva o negativa, non ha importanza.
Se attivi o disattivi la fase - sarebbe più corretto dire inverti la fase - potresti avere l'impressione di sentire più forte, più caldo o il contrario. Ma se stai ascoltando il solo canale
del microfono è una falsa percezione che non entrerà in registrazione con un suono migliore, più positivo o negativo. Sarà solo l'effetto in cuffia e avviene spesso in schede audio economiche per
la loro gestione del pan al centro.
Diverso se accendi due microfoni nello stesso ambiente e registri. Un microfono la cui fase è identica a quello dell'altro potrebbe innescare un processo di controfase cancellando buona parte di
frequenze.
Per questo la registrazione stereofonica e ancora di più con molti microfoni, prevede tecniche di posizionamento dei microfoni e di ripresa ben precise che considerino la posizione dei microfoni,
il tipo di microfono, così da controllare ed evitare controfasi rispetto ad altri microfoni il cui suono finirà sullo stesso master da un multitraccia. Parte del suono di uno strumento
in una orchestra per esempio potrebbe venire raccolta da un microfono nei pressi per altri strumenti.
Fisicamente lo scambio della polarità del microfono si ottiene scambiando i pin 2 o 3 del connettore. Spostando il cavo si cambia la fase, è quello che fa il pulsante della fase. Nel pin 1 c'è la massa. La fase si cambia anche spostando il microfono e orientandolo diversamente dagli altri.
Se usi un microfono per volta in home studio, non avrai mai problemi di controfase. La polarità o fase si gestisce anche in editing e può essere invertita. Su un singolo file non cambia il suono, ne cambia solo la polarità.
44,1KHz, 48KHz, 16 bit e 24 bit in pratica
Frequenza di campionamento e bit di quantizzazione.
Il grande mistero.
Il Teorema del campionamento, si deve di Nyquist/Shannon.
Ho cercato il modo di spiegarmela facile: la frequenza di campione, per esempio 44.100 campioni al secondo sul computer, determina le frequenze riproducibili per l'orecchio umano fino a 22.050 Hz di audio, ovvero la metà esatta del campione. Oltre la capacità umana da 20Hz a 20.000Hz.
Secondo la logica di un ignorante come me avrebbero dovuto fare 40.000Hz al secondo, così avrebbero evitato l'alias, mi son detto, ma per ragioni tecniche all'epoca del CD si andò in quella
direzione. E sapevano meglio di me quel che facevano. Forse ha a che fare con le tecniche di sotto campionamento. Non l'ho capita del tutto.
Quindi a conti fatti già 44.1 è oltre la soglia di un orecchio sanissimo.
Per evitare la presenza di frequenze oltre la nostra soglia che poi diventano rumori, si usa una tecnica chiamata anti-alias che taglia gli eccessi prima di campionarli.
48.000 campioni al secondo arriva a coprire fino a 24 KHz sulla banda del suono (audio). 96.000 Hz (campioni) arriva a 48KHz sulla banda del suono (audio). Le frequenze sonore in ingresso vengono
comunque filtrate per rientrare nei 20Hz - 20KHz di audio.
In breve: prendi il campione informatico e dividendolo a metà otterrai la sua banda di frequenza massima riproducibile nel suono.
hertz, kilohertz... che confusione!
La frequenza dei suoni, misurata in Hertz non va confusa con la frequenza di campionamento, misurata in Hertz (Khz=migliaia di Hertz).
Nei file audio 44.100 o 48.000 per esempio, gli Hz sono riferiti al campionamento. Come ho detto prima, la frequenza di campionamento definisce la precisione del dettaglio delle
frequenze sonore archiviabili e quindi in seguito rappresentabili. L'orecchio lo inganni con 44.100 Hz, un campionamento abbastanza dettagliato da catturare e riprodurre da 20Hz a 20KHz e un
pochino oltre, quindi copre l'udibile. E queste invece sono frequenze di suono.
Con il campionamento a 44.100 Hz con 16 bit puoi goderti il suono pulito e privo di qualsiasi fruscio di fondo udibile: qualità CD.
48.000 campionamenti al secondo va ancora oltre e si può pensare che la voce non sfrutti tutta quella banda, tant'è che i microfoni specifici per il voice over lavorano da 40 Hz a 16.000 Hz.
Ma non è del tutto corretto dato che in post produzione si lavora sempre a livelli maggiori rispetto al prodotto finito perché la definizione del suono è migliore (ma non si useranno mai 24 Khz di suono - non campionamento ma suono - perché tutto ciò che va oltre i 20Khz è sempre filtrato dalle frequenze non volute oltre la capacità umana.
*Alias, il ripresentarsi di un suono derivato da atre frequenze che si ripresenta nello spettro udibile sotto
forma di rumore.
Ma i file devono essere poi salvati.
In produzione si lavora con file non compressi, detti PCM.
Anche se ricevi un mp3 la DAW lo converte in PCM per elaborarlo.
In produzione serve usare frequenze maggiori perché il suono non resta mai come lo hai registrato ma viene compresso, allungato, modificato e una maggiore risoluzione che si traducono in
maggiore peso dei file. Peso sopportabile da una DAW in produzione ma non adatti alla diffusione dei contenuti sulle piattaforme.
Quindi per fare in modo di avere materiale extra per lavorarci, si campiona oltre il livello d'ascolto finale.
48.000 a 24 bit colma pienamente le necessita medie professionali e aiuta ad avere file della voce parlata più puliti per la post produzione ma non è raro che qualcuno ti chieda file a 96KHz o anche a a192KHz.
Sempre che la scheda regga quella frequenza e che sia molto precisa nel catturarla.
Anche i bit possono fare la differenza e ne faccio un capitolo a parte.
Adesso ti parlo di precisione.
Clock e Word Sync: la precisione conta
In un sistema informatico esiste un master e uno slave. Non è una democrazia, è una dittatura ferrea.
Il master decide a che velocità lavora tutto il sistema sottostante che a sua volta è slave.
Il master nel sistema audio di solito è la tua scheda audio che dice a tutti i sistemi collegati a che velocità lavorare. Esistono sistemi avanzati che usano un generatore di clock cui si collegano tutte le periferiche che lavorano in sincronia. Si usavano per DAT, Betacam, altri componenti analogici
esterni ma anche per mantenere allineati altri computer.
Oggi si usano per avere la certezza di un clock perfetto e privo di jitter.
Sono macchine anche dal costo elevato per fare un lavoro apparentemente di poco conto ma invece hanno un senso assolutamente rilevante in ambito professionale. Anzi, anche in home studio
possono fare la differenza perché la precisione del campione si rivela nella migliore qualità complessiva dei suoni.
In un home studio di solito il clock è interno al driver della scheda audio e gli ADAT quando si usano sono in slave.
Se colleghi un CD con il cavo digitale, il tuo CD uscirà a 44.1.
Se la tua scheda audio è a 48K ed è Master i casi sono due: o il sistema si pianta o il CD si sentirà strano.
Per ragioni matematiche della scheda audio, passando per esempio da 48KHz a 96KHz perderesti alcuni canali o capacità della scheda ma di sicuro perdi SPDIF e ADAT che in genere lavorano a 48K. Oppure avrai un ADAT funzionante a 96K ma con metà dei canali disponibili, 4 invece che 8.
Gli ADAT e gli SPDIF sono usati anche nell'ambito della sincronia.
Alcuni ADAT infatti oltre che come canali aggiuntivi per la catena audio possono essere usati come Word Sync facendo di mestiere da direttore d'orchestra.
Spesso l'aggiunta del "direttore" Word Sync rende molto più definito il suono delle registrazioni. Va detto che una scheda audio di ottima qualità ha un livello di jitter basso che si riconosce dalla qualità della registrazione, ma più è preciso il Sync dei Clock, minore è lo sfasamento tra campione e suono. Che è meglio.
Sembra di poco conto ma è maledettamente importante.
Ti serve? Solo se usi diversi apparati digitali che dialogano insieme. Se fai Mastering e mix con diverse periferiche che dialogano.
Se invece vai di cavo analogico allora è meno essenziale perché se la tua scheda audio è di buona qualità sarà anche molto accurata nel campionamento.
Il che significa che una scheda audio USB da 90€ farà il possibile mentre una scheda professionale farà molto meglio perché un Clock davvero preciso costa.
Non tutte le schede audio possono collegarsi ad un Clock esterno.
196KHZ: di più è meglio?
Fino a un certo punto e se davvero necessario.
Considerando che potrebbe essere la velocità massima della scheda audio, potrebbe avere un livello di jitter più elevato. Vedi quello appena detto sul clock.
Il vantaggio starebbe nel dettaglio racchiuso in ogni singolo campione che però deve essere davvero accurato, dato che ce ne sono molti di più di campioni in ogni secondo. Lo svantaggio sono file grossi e pesanti da elaborare e magari stai usando un carro armato per vangare l'orto. Se non c'è una ragione specifica e un apparato di ripresa del suono che giustifichi quello sforzo, allora no.
Se non hai necessità specifiche come l'elaborazione dei file in modo pesante su un progetto tutto pensato a 192KHz in cui sfrutti il dettaglio estremo per effetti speciali sui file, allora non ha
senso registrare a 192KHz.
Cioè, non avrai alcun beneficio nel registrare un file della tua voce a 192KHZ per poi esportarla direttamente a 48KHz. Molto meglio registrare alla frequenza a cui invierai il file a chi te
lo chiede evitando conversioni.
Considera che il downsampling comporta sempre un degrado digitale e la possibile introduzione di armoniche.
Questo articolo lo spiega dettagliatamente:
Cosa succede se il tuo speaker registra a 44,1...
... e tu hai un progetto a 48K? Per la pubblicità, per i filmati sul tubo e altre cose così, nulla, sarà un po' meno definito (per l'oscilloscopio) ma alla fine potresti non accorgertene neppure, anche se l'ha compresso in mp3. A meno che tu non lo carichi senza convertirlo correttamente. Allora, un file a 44.1 suonato con clock a 48 suona come un topolino perché i campioni vengono semplicemente letti più velocemente. Come se tu registrassi a velocità 5 e mettessi in play a velocità 10. Chiaro il concetto?
Un 44.1K messo in play a 48K suona come passare da Barry White a Jennifer Lopez. Senza il suo bottom. Il file va sempre convertito al clock del progetto. Se lo ricevi a 44.1 e il progetto è a 48, convertilo ricampionandolo al tuo progetto altrimenti suona strano. A volte il software lo fa da solo, altre volte non lo fa e lo devi fare a manina.
Calore e colore: se pensi che la maggior parte dei prodotti fruiti sul web passano attraverso cuffiette o altoparlanti contenuti in uno smartphone incapaci di percepire certe
differenze, compressi e ascoltati in streaming sulle casse di Alexa. non certo Hi Fi.
Non è più tempo di audiofili la fuori. Restano solo qui in studio.
Perché le cose che ho appena detto sono una rottura di scatole da fonici.
Che però hanno ragione ma pochi li ascoltano e poi si chiedono perché non suona così caldo e morbido.
Già, anche nelle cuffiette che dovrebbero essere insensibili o sulle casse interattive che non sono portartici di altissima qualità.
Eppur si sente. Che abbia ragione il fonico?
i precedenti
-
Grazie ad Anna Maria Renda che passa ore ad ascoltare le mie storie tecniche e mi
consente di confrontarmi e sbagliare, quindi di crescere.
- Grazie a Mario Loreti perché mi ha aiutato nella verifica di quanto ho scritto.
Scrivi commento