lunedì 27 aprile 2009

RIFLESSIONE, DIFFRAZIONE, RIFRAZIONE, ASSORBIMENTO.

Come si comporta il suono quando interagisce con degli ostacoli? Generalmente il materiale di cui è composto l'ostacolo e le sue dimensioni condizionano la natura dell'interazione al pari del contenuto di frequenze del suono che si sta considerando. Si possono verificare (spesso contemporaneamente) 4 situazioni:


° Riflessione
E' il fenomeno acustico che si verifica quando l'onda sonora incontra un ostacolo e torna indietro (cambia quindi direzione).
Un'onda che incide su una superficie piana con un angolo di incidenza α (tra la normale alla superficie e la direzione di propagazione dell'onda) viene riflessa con un angolo di riflessione pari ad α (quindi gli angoli di incidenza e riflessione sono uguali). Le superfici concave vengono evitate in acustica in quanto tendono a concentrare il suono in un preciso punto (focalizzazione) creando distribuzioni sonore disomogenee. Vengono invece utilizzate per la costruzione di microfoni direzionali in quanto consentono di amplificare segnali anche molto deboli.
Viceversa le superfici convesse hanno la proprietà di diffondere il suono (dispersione) e dunque sono ampiamente usate per migliorare l'acustica degli ambienti. Quando un'onda che si riflette su una superficie convessa, il prolungamento dell'onda riflessa passa per il fuoco della superficie.
L'eco è un esempio di riflessione: onde sonore contro un ostacolo che vengono a loro volta nuovamente "percepite" dall'emettitore più o meno immutate e con un certo ritardo rispetto al suono diretto. Tale ritardo non dev'essere inferiore ad 1/10 di secondo. Al di sotto di tale valore non si può più parlare di eco ma di riverbero.Un tipico esempio di riverbero è quello prodotto in una stanza dalla riflessione di onde sonore sulle pareti perimetrali.
Si parla propriamente di eco quando le singole riflessioni dell'onda sonora sono percepite distintamente dall'ascoltatore.
In termini più generali, l'eco può essere definita come un'onda che viene riflessa da una discontinuità nel mezzo di propagazione, e che ritorna con una intensità e ritardo sufficiente per essere percepita.Può essere "utile" (come nei sonar) o "indesiderata" (come nei sistemi telefonici)
Ricapitolando: si ha riverbero quando l'onda incidente si confonde nell'orecchio dell'ascoltatore con l'onda riflessa, mentre si ha eco quando le due onde risultano distinte.
Quando un suono si propaga in una stanza, raggiunge l'ascoltatore in diversi modi. Il primo segnale che arriva all'ascoltatore è anche il più forte ed è quello a) segnale diretto ossia quello che compie il percorso minore tra sorgente sonora e ascoltatore. Dopo il segnale diretto arrivano, con un breve sfasamento, i segnali che hanno subito una sola riflessione su una parete e dunque hanno ampiezza minore rispetto al segnale diretto a causa della perdita parziale di energia dovuta alla riflessione. Chiamiamo tali segnali b) prime riflessioni ('suono precoce' in alcuni testi). Dopo un ulteriore ritardo arrivano tutti i segnali che hanno subito più di una riflessione, di ampiezza ancora minore rispetto alle prime riflessioni. Questi vengono chiamati c) grappolo di riverberazione ('reverb cluster') a indicare che questi segnali non vanno considerati singolarmente ma piuttosto come un corpo unico.


° Diffrazione
Mutamento di direzione di un onda sonora a causa di un ostacolo (superarlo girandoci attorno). Se il pannello (ostacolo) è più piccolo della lunghezza d'onda, la diffrazione sarà significativa e l'onda si ricostituisce dietro l ostacolo dopo aver perso un pò di energia; se invece il pannello è grande, l'onda viene in gran parte riflessa e si forma una zona d'ombra. Tutto dipende dalla freqeunza in quanto suoni con una grande lunghezza d'onda (e dunque bassa frequenza) superano con facilità ostacoli con una dimensione minore della loro lunghezza d'onda. Questo è uno dei motivi per cui le prime frequenze che vengono attenuate sono quelle alte mentre quelle basse si propagano a distanze molto maggiori.


° Rifrazione
Con tale termine si indica il fenomeno secondo il quale un'onda che attraversa due mezzi di diversa densità cambia direzione nel passaggio dall'uno all'altro. Tale comportamento è facilmente spiegabile se teniamo presente che il suono viaggia più velocemente in mezzi più densi.


° Assorbimento
Puo` essere descritto come la conversione di energia acustica in energia termica da parte di una superficie. In altre parole, quando un suono viene a contatto con un ostacolo, gli trasferisce energia che viene dissipata sotto forma di calore.
Il coefficente di assorbimento esprime il rapporto tra energia assorbita e energia incidente.

TEST ACUSTICO N.1

1. Gli ultrasuoni sono:
A) rumori intensi
B) vibrazioni di frequenza più alta di quelle del campo udibile
C) vibrazioni di frequenza più bassa di quella del campo udibile
D) suoni spaziali
E) suoni più intensi di quelli normalmente udibili

2. Se un suono si propaga in un certo mezzo con la velocità di 500 m/s ed ha una frequenza di 100 Hz, la lunghezza d'onda di tale suono è:
A) 500/100 = 5 metri
B) 500 . 100 = 50.000 metri
C) 100/500 = 0,2 metri
D) 500 - 100 = 400 metri
E) 500/1002 = 0,05 metri

3. L'intensità risultante dalla somma di due onde sinusoidi coerenti di ampiezza A1 e A2 è proporzionale a:
A) A1 + A2
B) (A1 + A2)2
C) A1 . A2
D) 2 . A1 . A2
E) A1/A2

4. Il limite superiore della gamma di frequenze udibili dell'orecchio umano è all'incirca:
A) 20 Hz
B) 200 Hz
C) 2000 Hz
D) 20.000 Hz
E) 200.000 Hz

5. L'intensità di un'onda sferica:
A) si mantiene costante durante la propagazione nello spazio
B) diminuisce linearmente con lo spazio percorso
C) varia inversamente al quadrato della distanza dalla sorgente
D) diminuisce quadraticamente con il passare del tempo
E) diminuisce con la terza potenza al variare del tempo

6. Indicare quali delle seguenti affermazioni circa le onde sonore è falsa:
A) esibiscono il fenomeno della rifrazione
B) esibiscono il fenomeno dell'interferenza
C) esibiscono il fenomeno della riflessione
D) non si propagano nel vuoto
E) non si propagano nei mezzi solidi

7. Due onde sonore pure hanno frequenza una doppia dell'altra. L'onda con frequenza maggiore, rispetto all'altra ha:
A) velocità doppia
B) lunghezza d'onda metà
C) velocità doppia e lunghezza d'onda metà
D) lunghezza d'onda doppia
E) lunghezza d'onda quadrupla

8. Una vibrazione elastica, caratterizzata da una lunghezza d'onda Lambda = 10 cm si propaga nell'aria. Possiamo affermare che si tratta di (velocità del suono in aria: 340 m/s):
A) ultrasuoni
B) infrasuoni
C) un'onda udibile solo se è trasversale
D) un'onda sonora
E) un'onda infrarossa

9. In quale dei seguenti mezzi il suono NON può propagarsi?
A) Acqua
B) Vapore acqueo
C) Ghiaccio
D) Vuoto
E) Acqua sovraraffreddata

10. Un suono acuto, rispetto ad un suono grave, ha maggiore:
A) intensità
B) pressione sonora
C) ampiezza
D) velocità
E) frequenza

11. L'intensità di un'onda (sinusoidale) è direttamente proporzionale:
A) al cubo della frequenza dell'onda
B) al quadrato della frequenza dell'onda
C) al quadrato dell'ampiezza dell'onda
D) al prodotto della frequenza per l'ampiezza
E) alla radice quadrata dell'ampiezza dell'onda

12. Nell'aria gli ultrasuoni sono onde elastiche:
A) con lunghezze d'onda minori di quelle dei suoni udibili
B) con lunghezze d'onda maggiori di quelle dei suoni udibili
C) con lunghezze d'onda uguali di quelle dei suoni udibili, ma con velocità di propagazione molto più elevata
D) la domanda non ha senso perché gli ultrasuoni non sono onde elastiche
E) la domanda dipende dalla velocità di propagazione delle onde elastiche

13. Un suono:
A) si propaga solo nell'aria
B) ha la velocità vicina alla velocità della luce
C) ha sempre frequenza definita
D) può essere prodotto con una corda
E) può essere prodotto con una sorgente elettromagnetica

14. Le onde sonore sono vibrazioni elastiche che hanno la proprietà di propagarsi:
A) nel vuoto con velocità 3 . 108 m/s
B) nel vuoto con velocità dipendente dalla lunghezza d'onda
C) in un mezzo elastico con velocità 3 . 108 m/s
D) in un mezzo elastico con velocità dipendente dalla natura del mezzo
E) in un mezzo elastico con velocità sempre uguale a 340 m/s

15. Il suono che normalmente si ode è:
A) una vibrazione di natura elettromagnetica
B) una vibrazione meccanica di frequenza elevata
C) una vibrazione che si propaga solo nei fluidi (aria ecc.)
D) una vibrazione entro un definito intervallo di frequenza
E) una vibrazione con limite di frequenza di 16 Hz

16. Quale delle grandezze seguenti, caratteristiche dell'onda sonora, è direttamente proporzionale all'altezza di un suono?
A) Ampiezza
B) Frequenza
C) Lunghezza d'onda
D) Velocità d'onda
E) Fase



SOLUZIONI
1.B 2.A 3.B 4.D 5.C 6.E 7.B 8.D 9.D 10.E 11.C 12.A 13.D 14.D 15.D 16.B

domenica 26 aprile 2009

TEST ACUSTICO n.2

Clicca sull'immagine per accedere a 10 quesiti che testeranno le tue conoscenze sul suono e la sua propagazione.

LE COMPONENTI DEL SUONO SUL PIANO CARTESIANO

° PERIODO Il periodo rappresenta il lasso di tempo necessario per compiere un ciclo completo, senza che esso si ripeta. L'unità di misura del periodo è il secondo.

° FREQUENZA La frequenza di un'onda indica il numero di cicli completi che compie in un secondo. La sua unità di misura è l' Hertz (Hz). Nel grafico possiamo subito notare che l'onda1 ha una frequenza maggiore rispetto all'onda2. Infatti basta subito notare che, nel primo grafico la frequenza è di 4Hz mentre nel secondo è di 2Hz.

°AMPIEZZA

L'ampiezza rappresenta il valore massimo che può assumere l'onda. Maggiore sarà, nel nostro caso, K maggiore sarà l'ampiezza della nostra onda.
° LUNGHEZZA D'ONDA

La lunghezza d'onda è la distanza percorsa dall’onda in un periodo. Quindi, se "v" è la velocità di propagazione , l = v * T oppure l = v / f. La sua unità di misura è il metro (m)

SPAZIALIZZAZIONE DEL SUONO

La spazializzazione di una o più sorgenti audio consiste nella simulazione di un paesaggio sonoro (soundscape¹) tridimensionale. All'interno del paesaggio, una vera e propria "scena" da ascoltare, le sorgenti assumeranno una posizione virtuale rispetto all'ascoltatore e potranno anche "muoversi" intorno a lui più o meno velocemente.
Le sorgenti audio vengono prima elaborate digitalmente utilizzando dinamicamente i parametri di vari algoritmi ed il risultato di tale elaborazione viene poi riprodotto per mezzo di un sistema di casse acustiche. Questi sono i tratti comuni di tutte le tecnologie più o meno utilizzate in pratica per realizzare paesaggi sonori. Le tipologie di algoritmi, il numero e la disposizione delle casse acustiche (ed in alcuni casi anche la loro conformazione) sono le variabili che distinguono un sistema per la spazializzazione da un sistema surround od un codificatore per l'ascolto in cuffia. Un sistema di spazializzazione audio permetterà sempre la libera disposizione delle casse acustiche nell'ambiente che ospiterà il soundscape ed utilizzerà algoritmi di psico-acustica permettendo la simulazione in qualsiasi punto del paesaggio sonoro.
Nel processo di localizzazione di un suono da parte del nostro cervello, la vista riveste un ruolo molto importante anche se non fondamentale. Abbiamo l'impressione che un suono provenga da una parte, la nostra memoria ci dice che potrebbe essere un tuono, guardiamo da quella parte e soltanto quando vediamo il classico lampo di luce siamo perfettamente certi che di un tuono si trattava. Risultano subito evidenti le analogie ed integrazioni tecniche possibili tra le arti visive e la spazializzazione del suono, questa nuova evoluzione dell'arte musicale, un ampliamento della stessa volto ad includere nel novero dei suoni utilizzabili anche il rumore.
L'ambiente in cui viviamo, per il nostro udito, è un paesaggio sonoro tridimensionale in costante cambiamento. Noi avvertiamo continuamente le infinite vibrazioni che lo costituiscono, non possiamo fare più di tanto per evitarlo. Possiamo comunque modificare il paesaggio, interagire con esso; ovviamente in modo più o meno creativo, visto e considerato che di solito lo facciamo ma non ce ne rendiamo neanche conto. I suoni che ci circondano abitualmente influenzano la nostra esistenza, nel bene e nel male.



Nel corso dei decenni sono state sviluppate varie tecniche di registrazione/riproduzione del suono ma solo tre hanno una denominazione:
monofonia;
stereofonia;
quadrifonia.

La prima tecnica di registrazione/riproduzione del suono sviluppata è stata la monofonia, la più semplice di tutte ma anche quella che offre le prestazioni minori. Nella monofonia è presente un unico flusso informativo sonoro destinato ad essere riprodotto da un unico diffusore acustico posizionato frontalmente all'ascoltatore. Per esigenze particolari, come ad esempio la necessità di servire un ambiente d'ascolto molto ampio, tale flusso informativo può anche essere riprodotto da più diffusori acustici ma le informazioni sonore riprodotte dai vari diffusori acustici rimangono comunque le medesime. L'audio che implementa la monofonia è chiamato audio monofonico o, più brevemente, audio mono. Nell'audio monofonico è presente un unico flusso informativo elettronico rappresentante l'unico flusso informativo sonoro presente nella monofonia.

In seguito, al fine di conferire maggiore spazialità al suono rispetto a quella permessa dalla monofonia (e quindi maggiore realismo in quanto il suono in natura ha quasi sempre origine da molteplici punti spaziali), nasce una tecnica di registrazione/riproduzione del suono più complessa, la stereofonia. Nella stereofonia sono presenti due flussi informativi sonori ognuno dei quali destinato ad essere riprodotto da un diverso diffusore acustico posizionato frontalmente all'ascoltare, uno sulla sinistra e uno sulla destra, secondo angoli prestabiliti. L'audio che implementa la stereofonia è chiamato audio stereofonico o, più brevemente, audio stereo. Nell'audio stereofonico sono presenti due flussi informativi elettronici rappresentanti i due flussi informativi sonori della stereofonia.

Con l'audio stereofonico nasce anche l'audio multicanale, cioè l'audio presentante più flussi informativi elettronici ognuno dei quali rappresentante un diverso flusso informativo sonoro. Il termine "multicanale" deriva dal fatto che il singolo flusso informativo elettronico è chiamato canale audio. L'audio stereofonico, avendo quindi due canali audio, è audio multicanale. L'audio multicanale verrà utilizzato in seguito per implementare tutte le tecniche di registrazione/riproduzione del suono sviluppate dopo la stereofonia e utilizzanti un numero maggiore di flussi informativi sonori.
Sull'uso del termine "audio multicanale" è necessario però un approfondimento: nonostante l'audio stereofonico sia a tutti gli effetti audio multicanle, con "audio multicanale" nell'uso comune si indica audio con un numero di canali maggiore di due, quindi non l'audio stereofonico.

Dopo la stereofonia, prima nel cinema (sempre alla ricerca di migliorie al fine di attrarre un maggior numero di spettatori), poi nell'industria discografia (non altrettanto interessata in quanto tecniche di registrazione/riproduzione del suono più complesse implicano per gli acquirenti maggiori spese in apparecchiature di riproduzione del suono), nascono nuove tecniche di registrazione/riproduzione del suono sempre con il fine di conferire al suono maggiore spazialità e quindi maggiore realismo. In particolare l'industria discografia negli anni '70 del XX secolo introduce la quadrifonia. Nella quadrifonia sono presenti quattro flussi informativi sonori ognuno dei quali destinato ad essere riprodotto da un diverso diffusore acustico posizionato nell'ambiente d'ascolto nel modo seguente: due diffusori acustici sono posizionati frontalmente all'asoltatore, uno sulla sinistra e uno sulla destra secondo angoli prestabiliti, e due diffusori acustici alle spalle dell'ascoltatore, di nuovo uno sulla sinistra e uno sulla destra secondo angoli prestabiliti. L'audio che implementa la quadrifonia è chiamato audio quadrifonico. Nell'audio quadrifonico sono presenti quattro flussi informativi elettronici, quindi quattro canali audio, rappresentanti i quattro flussi informativi sonori della quadrifonia.

Nel corso degli anni, oltre alla monofonia, stereofonia e quadrifonia, sono state sviluppate molte altre tecniche di registrazione/riproduzione del suono utilizzanti un numero di flussi informativi sonori diverso da quello utilizzato nella monofonia, stereofonia e quadrifonia, oppure anche lo stesso numero di flussi informati sonori ma utilizzati in modo diverso (ad esempio nel cinema è attualmente usato lo standard audio Dolby Stereo SR che, anche se prevede una modalità audio utilizzante quattro flussi informativi sonori come la quadrifonia, non implementa tale tecnica di riproduzione del suono). Per tali tecniche di registrazione/riproduzione del suono, come detto, non esiste però una denominazione.

Attualmente nel cinema e nell'home theater sono utilizzati comunemente standard audio implementanti tecniche di registrazione/riproduzione del suono che prevedono 6, 7 o anche 8 flussi informativi sonori. Sono stati anche sviluppati standard di audio digitale implementanti tecniche di registrazione/riproduzione del suono che prevedono fino a decine di flussi informativi sonori (uno di questi standard è ad sempio il Dolby TrueHD), ma è difficile prevedere se e quando verranno utilizzati tali tecniche. Per quanto riguarda il cinema è probabile che nel prossimo futuro verranno adottate tecniche di registrazione/riproduzione del suono utilizzanti un numero maggiore di flussi informativi sonori visto che già ora in una sala cinematografica di medie dimensioni normalmente un canale audio viene riprodotto da più diffusori acustici.

In ambito domestico invece appare improbabile che l'installazione di decine di diffusori acustici sia accolta favorevolmente. Già gli attuali 7 canali audio del Dolby Digital EX e DTS-ES utilizzati nel comune DVD-Video rappresentano un impegno non da poco, sia in termini di apparecchiature, e quindi di costi, che in termini di spazio occupato. Probabilmente in ambito domestico ci si muoverà quindi verso tecnologie di elaborazione dell'audio utilizzanti DSP in grado di riprodurre, con un numero di diffusori acustici non superiore a 7 o 8, un numero maggiore di canali audio.

Un punto è certo, più flussi informativi sonori sono implementati in origine (non in fase di riproduzione dell'audio utilizzando dei DSP che applicano algoritmi basati su principi di psicoacustica), maggiore è la precisione con cui è possibile collocare spazialmente un suono in quanto tale precisione è direttamente proporzionale al numero di flussi informativi sonori utilizzati.

Audio surround
Nella quadrifonia è presente quello che viene chiamato surround cioè informazioni sonore destinate a collocare l'ascoltatore al centro della scena sonora. L'audio che presenta il surround è chiamato audio surround e i canali audio rappresentanti informazioni sonore esclusivamente relative al surround sono chiamati canali surround. L'audio quadrifonico presenta quindi due canali surround, i due canali audio destinati ad essere riprodotti da diffusori acustici posizionati alle spalle dell'ascoltatore.
Il surround viene implementato anche nel cinema. Ma mentre nel cinema non verrà mai abbandonato, tranne un breve periodo negli anni '60 del XX secolo nel quale il cinema passava un momento di crisi dovuto all'affermarsi della televisione, la quadrifonia utilizzata dall'industria discografia non riscuote molto successo e presto viene abbandonata. Solo negli ultimi anni, con l'introduzione del DVD-Audio e del Super Audio CD, è stato reintrodotto il surround in ambito discografico, ma tali formati rappresentano comunque un settore di nicchia con un numero di pubblicazioni molto limitato rispetto a quelle in stereofonia.
Riguardo alle esigenze sonore del cinema e della discografia c'è da rilevare infatti una sostanziale differenza. Le esigenze sonore nel cinema sono molto maggiori di quelle discografiche. Si pensi ad esempio ad un aereo del quale viene fatto sentire il suo arrivo in lontanza alle spalle dello spettatore, poi il passaggio sopra la testa, e infine viene fatto apparire sullo schermo. Nel cinema il surround ha una notevole importanza, è in grado di proiettare lo spettatore al centro dell'azione rappresentata sullo schermo come se si trovasse realmente all'interno di essa, ha quindi un fortissimo potere di coinvolgimento dello spettatore e di spettacolarizzazione della scena rappresentata.
Discorso completamente diverso invece per la discografia, ma anche ad esempio per un'opera teatrale o un concertotrasmesso in televisione o pubblicato in DVD-Video. In questi casi, salvo casi particolari, il suono ha origine frontalmente e il surround è rappresentato esclusivamente dal riverbero del suono che si crea nell'ambiente d'ascolto (teatro, stadio, ecc.). Certamente tale surround non è irrilevante, il piacere di ascoltare musica nella propria abitazione con le medesime sensazioni percepite in un teatro o in uno stadio non si può considerare insignificante. Se si pensa però che i maggiori fruitori di musica sono i giovani che molto spesso la ascoltano compressa in standard audio MP3 e con minuscoli auricolari, si può comprendere perché nella discografia il surround non sia altrettanto affermato come nel cinema.

Spazializzazione del suono tramite DSP
Con la diminuzione dei prezzi dell'elettronica digitale negli anni '80 del XX secolo sono diventati disponibili per l'elettronica di consumo apparecchi audio in grado di eseguire elaborazioni sull'audio fino a qualche decennio prima impensabili. Elaborazioni volte a conferire spazialità al suono in base a principi di psicoacustica ed eseguite in tempo reale in fase di riproduzione dell'audio mediante l'uso di DSP (i DSP lavorano nel dominio digitale quindi in caso si utilizzi audio analogico questo viene convertito prima in audio digitale).
Tali elaborazioni in alcuni casi si possono considerare una discreta alternativa all'audio multicanale dotato già in origine di canali surround. I casi sono quelli già citati in cui il suono nella realtà ha origine esclusivamente frontalmente all'ascoltatore e il surround è rappresentato dal riverbero del suono. In questi casi sono in grado di creare il surround partendo da audio mancante di surround (normalmente audio stereofonico) dando vita a quelli che sono chiamati effetti d'ambiente con discreti risultati. Ciò viene implementato sia creando canali surround diffusi da diffusori acustici posizionati alle spalle dell'ascoltatore sia facendone a meno.

Altri casi in cui riescono ad ottenere discreti risultati sono nella riproduzione di audio multicanale dotato di canali surround senza l'utilizzo di diffusori acustici posizionati alle spalle dell'ascoltatore. Un esempio di questo tipo di elaborazione è il Dolby Virtual Speaker sviluppato dalla Dolby Laboratories.
I casi invece in cui ottengono risultati assolutamente insoddisfacenti sono i casi in cui il surround non riguarda solo il riverbero del suono, come ad esempio nel cinema, e l'audio elaborato non è dotato di canali surround. In tali casi, anche se creano canali surround riprodotti con diffusori acustici posizionati alle spalle dell'ascoltatore, vengono aggiunti solamente effetti d'ambiente. Nei casi in cui il surround non riguarda solo il riverbero del suono è assolutamente d'obbligo che i canali surround siano implementati in origine se si vuole dare ad ogni suono una precisa collocazione spaziale.

La maggior parte delle elaborazioni audio citate normalmente sono disponibili in amplificatori audio di fascia media o alta, oppure anche come processori audio indipendenti ma nell'Hi-End. Spesso non hanno una denominazione registrata come nel caso del Dolby Virtual Speaker e nei manuali normalmente sono indicate con la denominazione generica "modi DSP" mentre sul display degli apparechi audio vengono differenziate con nomi come "rock", "pop", "cinema", "sport", ecc. i quali stanno ad indicare il tipo di contenuti audio per cui sono state sviluppate e per cui sono appropriate.

sabato 25 aprile 2009

EFFETTO DOPPLER


L’effetto Doppler evidenziato per la prima volta dal fisico austriaco Johann Christian Doppler nel 1842, è un cambiamento apparente della frequenza delle lunghezze d’onda percepito da un osservatore al variare della sua distanza dall’origine dell’emissione.
Quando la sorgente si allontana da noi, le creste delle onde emesse in successione impiegano un tempo maggiore per raggiungerci, mentre quando si avvicina il tempo di percorrenza è minore. Una analogia frequentemente utilizzata per spiegare questo effetto è quella del viaggiatore che scrive a casa una lettera alla settimana mentre si allontana dal luogo di origine. Le lettere, sempre inviate con cadenza regolare, saranno recapitate ad intervalli di tempo sempre maggiori man mano che lo scrivente si allontana.
L’effetto Doppler si osserva comunemente quando siamo superati da un’ambulanza a tutta velocità. Sebbene la reale emissione sonora della sirena non cambi (il guidatore dell’ambulanza non avverte alcuna variazione), le nostre orecchie percepiscono un abbassamento della tonalità man mano che la sirena si allontana da noi, registrano cioè il cambiamento apparente della lunghezza d’onda.


LUNGHEZZA D'ONDA

Se fotografiamo (con un piccolo tempo di esposizione) una corda che vibra trasversalmente, la fotografia coglie la posizione di ogni punto della corda in un determinato istante.


Si chiama lunghezza d'onda λ (lambda) la distanza tra due successivi massimi (o minimi) di oscillazione, cioè la distanza tra due particelle successive nello stesso stato o fase di moto.


Nelle onde longitudinali la lunghezza d'onda è data dalla distanza compresa tra due successive compressioni (o rarefazioni) massime del mezzo.


N.B: Non bisogna confondere il grafico orario di un moto armonico con l'istantanea di un'onda trasversale!



RUMORE BIANCO & RUMORE ROSA



Rumore bianco
Si intende con questa dicitura un rumore di ampiezza costante su tutto lo spettro di frequenza e caratterizzato dall'assenza di periodicità.
È chiamato bianco per analogia con il fatto che una radiazione elettromagnetica di simile spettro all'interno delle banda della luce visibile apparirebbe all'occhio umano come luce bianca.Per vedere il comportamento di un componente audio, per esempio di un canale di un mixer, si invia in ingresso un rumore bianco e si esamina il segnale di uscita. Generalmente in questo caso l'obiettivo sarà quello di ottenere un segnale in uscita mediamente costante a tutte le frequenze, questo significherà che il componente è affidabile a tutte le frequenze. In generale il rumore bianco viene usato per i test sui componenti elettronici.


Rumore rosa
Particolare tipo di rumore in cui le componenti a bassa frequenza hanno potenza maggiore, a differenza del rumore bianco in cui la potenza è uguale per qualsiasi frequenza.
In acustica questo tipo di rumore è strutturato in modo tale da compensare la sensibilità dell'orecchio umano alle varie frequenze, e viene utilizzato per l'equalizzazione del suono in ambito professionale: il rumore rosa presenta un decremento di 3dB ogni volta che la frequenza viene raddopiiata. Ciò conferisce al rumore la stessa energia per ogni ottava.

Dato che il rumore bianco è costante a tutte le frequenze, vuol dire che l'energia associata ad ogni ottava non è costante. Per esempio l'energia compresa nella banda 20Hz-40Hz non sarà la stessa di quella della banda 5KHz-10KHz. Ovviamente quest'ultima banda avrà un'energia associata molto maggiore pur essendo sempre la larghezza pari a un'ottava in quanto il secondo intervallo di frequenze è molto più largo del primo, in altre parole contiene più frequenze dunque complessivamente più energia.Il rumore rosa, usato anch'esso con finalità di test, presenta un decremento di 3dB ogni volta che una frequenza viene raddoppiata. In questo modo l'energia associata ad ogni ottava rimane costante su tutto lo spettro.Viene comunemente utilizzato per la taratura di sistemi di rinforzo sonoro dove il rumore bianco risulta essere un segnale non rappresentativo del segnale audio che alimenterà il sistema di rinforzo stesso. Questo è dovuto al fatto che un segnale audio ha un contenuto di energia sulle alte frequenze minore rispetto alle basse frequenze e dunque viene mal rappresentato dal rumore bianco in cui l'energia associata ad ogni ottava è doppia rispetto all'ottava precedente.

EQUALIZZAZIONE

L' equalizzazione è il procedimento di filtraggio a cui è sottoposto un segnale audio per compensare eventuali disuniformità della risposta in frequenza dell'apparato che lo produce o durante l'operazione di mastering (post-produzione) per ottenere una ben precisa tipologia di suono, o ancora durante il mixaggio per ottenere il suono desiderato. Per raggiungere lo scopo si utillizzano circuiti elettrici chiamati equalizzatori che permettono di amplificare o attenuare determinate frequenze. In alcuni casi l'equalizzazione è riferita al lavoro di adattamento di un locale destinato all'ascolto della musica, volto a rendere l'ambiente compatibile con le caratteristiche dei diffusori dell'impianto audio

L'equalizzazione può avere lo scopo di:
° Rendere il suono più piacevole;
° Dare risalto ad alcune sue componenti (ad esempio alcuni strumenti di un'orchestra);
° Attenuare i disturbi (ad esempio il fruscio);
° Creare suoni completamente nuovi;
° Linearizzare l'acustica dell'ambiente di ascolto in base ai diffusori usati;

Un dispositivo equalizzatore classico ha lo scopo di compensare le variazioni della risposta all'impulso del canale, in modo che tutto il sistema, compreso l'equalizzatore stesso, possa comportarsi come un filtro di Nyquist. In pratica è un filtro digitale, quindi è costituito da un filtro digitale e da un sistema che tramite un opportuno algoritmo (ad esempio LMS - least mean square) aggiusta i coefficienti del filtro sulla base della sequenza di training.
Il procedimento è attuato mediante appositi filtri equalizzatori che modificano la forma d'onda risultante della funzione di trasferimento del sistema.Una particolare equalizzazione standardizzata definita curva RIAA, è utilizzata da decenni nella procedura di incisione dei dischi in vinile, viene impiegata al solo scopo di ovviare all'impossibilità di poter trasferire nel solco del disco, tutto il range dinamico di un brano musicale; questa equalizzazione comprime il livello delle frequenze basse ed espande il livello di quelle alte, la stessa equalizzazione con parametri invertiti viene usata durante la riproduzione del brano; in tal modo, questa doppia equalizzazione permette di ascoltare il brano audio originale senza alcuna alterazione, il circuito elettrico, relativamente semplice è costituito da una rete di resistori e condensatori.

I circuiti che costituiscono un equalizzatore possono essere molto semplici, come appunto il circuito RIAA di riproduzione o quelli in dotazione agli Hi-fi ed apparecchi portatili, altri più complessi, sono in dotazione alle apparecchiature utilizzate negli studi di registrazione e mastering. Molto sofisticati sono gli equalizzatori d'ambiente, progettati unicamente per aiutare a linearizzare al meglio la risposta in frequenza di un ambiente destinato all'ascolto della musica; si interviene sugli elementi di arredo e dislocando in punti appropriati, elementi fissi in materiale fonoassorbente, dedicati ad attenuare di una certa misura determinate frequenze, una volta equalizzato l'ambiente, l'apparecchio non si usa più, il suo funzionamento consiste nel generare un segnale audio, il quale inizia dalla frequenza udibile più bassa e sale linearmente fino alla più alta; contemporaneamente, tramite un microfono campione posizionato nel punto di ascolto, analizza il segnale restituito dal microfono, fornendo graficamente su un display, la risposta in frequenza dell'ambiente, ripetendo la prova più volte dopo aver variato la dislocazione degli elementi di arredo, si giunge infine ad ottenete per successive approssimazioni, la migliore risposta dell'ambiente.

STEREOFONIA


La stereofonia è una tecnica di registrazione/riproduzione del suono che prevede due flussi sonori destinati ad essere riprodotti ognuno da un diverso diffusore acustico. I due diffusori sono posizionati nell'ambiente d'ascolto anteriormente all'ascoltatore, uno sulla sinistra e uno sulla destra secondo angoli prestabiliti.
In una accezione più ampia ma estremamente poco comune perchè utilizzata solo in ambiente strettamente tecnico, la stereofonia è una tecnica di registrazione/riproduzione del suono che prevede più di un flusso sonoro, ognuno destinato ad essere riprodotto da un diverso diffusore acustico posizionato nell'ambinte d'ascolto secondo angoli prestabiliti.
Prova di questa seconda accezione è lo standard cinematografico Dolby Stereo ("stereo", abbreviazione di "stereofonico", significa "attinente alla stereofonia") il quale prevede fino a 4 flussi sonori.
Esclusivamente nell'accezione meno comune utilizzata in ambiente tecnico, la stereofonia si contrappone alla monofonia.
I due flussi sonori della stereofonia (intesa nell'accezione più comune) sono chiamati canale sinistro e canale destro in riferimento alla posizione dei diffusori acustici destinati a riprodurli.
La stereofonia è nata dalla ricerca intrapresa nei laboratori EMI, dall'ingegnere Alan Dower Blumlein nel 1931 nel Regno Unito e registrata come brevetto. Il termine si riferiva principalmente a tecniche relative alla differenza di intensità del suono.
La moderna stereofonia si propone di consentire, tramite tecniche di registrazione e riproduzione del suono, la riproduzione della scena sonora originale, simulandone le tre dimensioni (larghezza, altezza e profondità), nonché di mantenere l'equilibrio timbrico e tonale dell'evento originale. In fase di registrazione si possono usare anche più microfoni e si possono miscelare molteplici tracce audio. L'obiettivo finale consiste nell'ottenere due sole tracce costituenti il canale sinistro e il canale destro della riproduzione finale.
In fase di riproduzione, ciascun canale verrà riprodotto da un diffusore acustico; posizionando opportunamente i diffusori si otterrà la sensazione di suoni realisticamente riprodotti nell'ambiente d'ascolto.
La stereofonia viene utilizzata soprattutto per la riproduzione di eventi musicali e cinematografici; la capacità di ricreare in riproduzione la stessa scena acustica di origine, è molto elevata e le attuali tecniche di registrazione/riproduzione consentono un elevatissimo grado di resa finale.
Nonostante si vada espandendo la diffusione dei sistemi con audio multicanale (i cosiddetti Home Theater), in particolare per l'ascolto della musica la stereofonia resta preferibile, soprattutto perché i suoni ripresi da una coppia di microfoni e riprodotti da due soli diffusori restano ancora oggi più "naturali" di quelli riprodotti con sistemi anche più complessi e sofisticati.

martedì 21 aprile 2009

"Un Giardino pieno di Suoni". Ritratto di R. Morray Schafer.


Gli oltre settant’anni dalla nascita del compositore e studioso canadese R. Murray Schafer (n.1933) sono l’occasione per un bilancio critico della sua opera, ma anche, forse, per una presentazione del personaggio a un pubblico più largo di quello addetto alle discipline musicali e musicologiche.
Murray Schafer nasce a Sarnia, Ontario, nel 1923. Oltre a frequentare il Conservatorio di musica di Toronto, studia in Europa, in particolare in Austria e in Inghilterra. Fin dall’inizio della sua carriera pratica una parallela attività di musicista e di studioso. Anche se è riconosciuto oggi come il maggiore compositore contemporaneo canadese, in questa sede ci soffermeremo solo sul suo lavoro di studioso, in quanto fondatore di un particolare approccio multidisciplinare ai problemi del suono, del rumore e dell’ambiente. Infatti, a parte alcune pregevoli monografie e articoli di carattere musicologico dedicati alla musica canadese e ad alcune figure importanti della cultura europea nei loro rapporti con la musica (E.T.A. Hoffmann e Ezra Pound), l’originalità della sua ricerca si concentra nella creazione di una vera e propria disciplina “interdisciplinare” da lui chiamata ecologia acustica. Siccome tale termine ha conosciuto nel corso del tempo una ampia diffusione, sarà utile ricostruire il contesto d’origine nel quale è nato.A partire dai primi anni Settanta Murray Schafer crea, insieme con altri quattro compositori e studiosi canadesi (Howard Broomfield, Bruce Davis, Peter Huse e Barry Truax) un progetto di ricerca per lo studio comparato dei paesaggi sonori del mondo, denominato “World Soundscape Project” (Progetto Mondiale per il Paesaggio sonoro), che suddiviso in numerose branche intende studiare l’ambiente acustico secondo nuove modalità. Diretta emanazione della ricerca saranno una serie di volumi -andati sotto il titolo di Music of the Environment- e soprattutto il voluminoso testo, che porta la firma, e quindi la responsabilità, del solo Schafer, dal titolo The Tuning of the World (1977), tradotto in italiano con il titolo di Il paesaggio sonoro (1985).
Tematiche:
1. Bioregionalismo sonoro.
A differenza dei più comuni e diffusi studi sull’inquinamento acustico, che si limitano ad una rilevazione quantitativa dei possibili danni all’udito e di conseguenza alla percezione globale degli individui, Murray Schafer fin dalle prime pagine del volume si inserisce in quella corrente di critici radicali della civiltà industriale, in particolare in quel filone di pensiero che, partendo dalle ottocentesche riflessioni di Henry David Thoreau, giungono fino alle attuali elaborazioni della cosiddetta “Deep Ecology” (Ecologia Profonda). Quest’ultima, che ha nel filosofo norvegese Arne Naess il suo fondatore, a differenza dell’Ecologia Superficiale, prevalentemente ispirata a un’etica del valore strumentale, sostiene invece la tesi del valore intrinseco degli oggetti naturali. Estendendo tale visione all’ambiente acustico questo comporta una valorizzazione degli ambienti acustici naturali per le loro intrinseche qualità, non solo di carattere naturale e sociale, ma anche simboliche e metafisiche. Schafer, anzitutto, conia un nuovo termine per indicare l’ambiente dei suoni: “soundscape”, tradotto in italiano con il termine “paesaggio sonoro”; quindi ripercorre la storia della civiltà umana sotto l’aspetto acustico. Attraverso ampi excursus nella letteratura e nella mitologia di tutti i paesi e di tutte le epoche, Schafer mostra come una grande cesura si sia prodotta con la moderna rivoluzione industriale, quando i suoni della tecnologia, dilagando per città e per campagne, hanno prodotto un paesaggio sonoro a low-fidelity (bassa fedeltà), ossia un ambiente in cui i segnali sono così numerosi da sovrapporsi, con il risultato di mancanza di chiarezza e presenza di effetti di mascheramento. La rivoluzione elettrica, da par suo, accentua molti dei temi già presenti nella rivoluzione industriale aggiungendovi inoltre alcuni nuovi effetti suoi propri. Vengono introdotte due nuove tecniche: la conservazione e l’accumulazione del suono e la dissociazione dei suoni dal loro contesto originale. A quest’ultimo fenomeno Schafer dà il nome di “schizofonia”, per indicare la frattura esistente tra un suono originale e la sua riproduzione elettroacustica. Mentre i suoni originali sono legati al meccanismo che li ha prodotti, i suoni riprodotti elettroacusticamente sono invece delle copie e possono essere riprodotti e ri-enunciati in un altro momento o in un altro luogo. Schafer si serve di questo vocabolo, mediato dalla terminologia “clinica”, per sottolineare l’effetto aberrante di questo sviluppo, proprio del nostro secolo. In un certo senso Schafer anticipa una serrata critica alla globalizzazione sub specie sonoris contrapponendo ad essa una pratica interdisciplinare chiamata “acustic design” (design acustico). Tale pratica, descritta in particolare nell’ultima parte del volume, richiede il talento di scienziati, specialisti in scienze sociali e artisti (musicisti, soprattutto). Il design acustico cerca di scoprire quei principi grazie ai quali può essere migliorata la qualità estetica di un paesaggio sonoro e può anche occuparsi della composizione di ambienti-modello, mostrandosi sotto questo aspetto vicino alla composizione musicale moderna. Una parte di rilievo in tale pratica è data dalla salvaguardia delle “impronte sonore (soundmarks). Il termine deriva da landmark (punto di riferimento, pietra miliare) e si applica a quei suoni comunitari che sono unici oppure a quei suoni che possiedono peculiarità tali da far sì che gli abitanti di una comunità abbiano nei loro confronti un atteggiamento e una capacità di riconoscimento particolari. Di qui all’idea della “comunità acustica” il passo è breve, fondandosi quest’ultima proprio sulle caratteristiche acustiche di un territorio. È evidente che qui l’ecologia acustica di Murray Schafer incontra l’elaborazione teorica e la pratica sociale del Bioregionalismo. Quest’ultimo termine, coniato negli anni Settanta da Peter Berg e Raymond Dasmann, uno scrittore e un ecologista americani, indica la volontà di ri-diventare nativi della propria bioregione, ossia del luogo geografico riconoscibile per le sue caratteristiche di suolo, di specie vegetali e animali, di clima, oltre che per la cultura umana sviluppatasi in armonia con tutto questo. Obiettivi del movimento sono: il ripristino e il mantenimento dei sistemi naturali locali, stili di vita sostenibili per soddisfare bisogni primari, il lavoro ri-abilitativo. Nato dall’attività di un piccolo gruppo di ecologisti statunitensi raccolti intorno alla fondazione “Planet Drum” di San Francisco e alla rivista “Raise the Stakes”, il Bioregionalismo si è ormai esteso a numerose aree del mondo, dalla Germania al Giappone, dalla Gran Bretagna al Nord-Europa. In Italia esiste dal 1996 un’organizzazione nazionale, la Rete Bioregionale Italiana, che ha anche una sua Newsletter, “Lato Selvatico” Anche il Bioregionalismo sonoro propugnato da Murray Schafer ha portato alla nascita di un’organizzazione internazionale, il “World Forum for Acustic Ecology” (WFAE), fondata a Banff nel 1993; successivi incontri si sono svolti a Parigi, Stoccolma, Amsterdam, Peterborough, Devon e Melbourne. Del WFAE fanno parte varie organizzazioni regionali fra cui il “Forum für Klanglandschaft” (FKL), per Svizzera, Germania, Austria, Italia).
2. Ursound
Se già la critica radicale alla civiltà occidentale sub specie sonoris spesso non è stata accettata fino in fondo dagli studiosi di ecologia acustica, c’è un altro aspetto che addirittura non è stato quasi mai preso in considerazione: la valenza simbolica e metafisica del suono. Secondo Schafer, infatti, i suoni dell’ambiente fin dai primordi della storia dell’uomo non costituiscono soltanto un’identità culturale e sociale, ma posseggono delle valenze di natura cosmica. S Dall’Occidente all’Oriente, dal Nord al Sud, buona parte delle culture umane di cui abbiamo conoscenza hanno posto un suono originario (Ursound) all’origine di tutte le cose. Se già il pensiero simbolico costituisce una dimensione più originaria e antropologicamente unificante rispetto al pensiero concettuale, il simbolo sonoro costituisce a sua volta l’elemento più profondo di tale pensiero simbolico. Se questo è vero, il richiamo schaferiano alla matrice simbolica dei suoni, o forse meglio ancora, alla matrice acustica dei simboli può costituire un invito a ripensare ai suoni che ci circondano alternativo tanto al linguaggio delle scienze naturali quanto a quello delle grammatiche musicali. Riscoprire la matrice sonora dei simboli può anche costituire la fonte per una nuova pratica musicale, che ponga il rapporto con l’ambiente al centro del processo creativo. Ci riferiamo in particolare alla pratica della cosiddetta environmental music (musica ambientale), termine con il quale s’intende la pratica artistica che, in ambito di musica sperimentale, fa riferimento a strumenti musicali o a generiche fonti sonore facilmente reperibili e che non richiedono particolari abilità esecutive; anche l’attrezzatura elettroacustica, quando viene usata, in genere non va oltre le apparecchiature più diffuse. I lavori sono quasi sempre destinati a un’esecuzione dal vivo, con buona dose di indeterminazione. Se il design acustico pone le basi dell’identità sociale e culturale di una comunità acustica, la musica ambientale ne realizza quella trasfigurazione che possiamo chiamare “stato alterato del paesaggio sonoro”. Usiamo quest’ultimo termine con evidente riferimento ai cosiddetti “stati alterati di coscienza”, lo studio dei quali si sta rivelando come una preziosa risorsa vitale per l’uomo contemporaneo, dalle profonde cadute terapeutiche. Per accennare solamente al nostro paese ricordiamo che, a partire dal dicembre 1990 è stata fondata la Società Italiana per lo Studio degli Stati di Coscienza (SISSC), che si propone come sede aggregativa e di diffusione delle informazioni che riguardano il vasto e multidisciplinare campo di ricerca sugli stati di coscienza: un campo le cui tematiche possono spaziare dagli stati di possessione e di transe sciamaniche alla neurofisiologia degli stati estatici, dai nuovi movimenti religiosi e filosofici psichedelici alla storia del rapporto umano (tradizionale e scientifico) con i vegetali e i composti psicoattivi. La Società, oltre a un bollettino interno, pubblica l’annuario “Altrove” (diretto da Gilberto Camilla, è appena giunto all'undicesimo numero) grazie al quale si può verificare lo stato della ricerca su questi argomenti.
Al valore simbolico e metafisico del suono proprio delle cosmogonie sonore, Schafer fa infatti corrispondere il valore mistico e psichedelico dei suoni riscontrabile soprattutto nel cosiddetto Soniferus Garden (giardino pieno di suoni). Per Schafer, che ricorda nel suo testo la descrizione di giardini storici, come quello medievale di Bagdad o quelli italiani del Rinascimento e dell’età barocca, è necessario porre oggi nuovamente l’accento sull’importanza di parchi ben concepiti dal punto di vista acustico che lui ama chiamare più poeticamente “giardini pieni di suoni”, in cui i materiali naturali: acqua, vento, uccelli, legno e pietra, dovranno essere modellati e strutturali in modo tale da produrre le loro armonie più autentiche. Non solo, ma in un angolo del giardino potrebbe trovare posto anche uno strumentario a disposizione del pubblico, progettato per essere installato in permanenza nel parco, in modo che chiunque possa suonarli insieme ad altri. Il modello è l’orchestra gamelan balinese. Non solo, ma il parco acustico dovrà prevedere anche un Tempio del Silenzio, una costruzione il cui unico scopo è la meditazione. È qui che l’uomo moderno per il quale la contemplazione del silenzio totale si è trasformata in un’esperienza negativa e terrificante può riscoprire l’anāhata, il suono “non percosso”, che riempie chi lo riceve di musica e di luce.

DIGITALE Vs ANALOGICO

ANALOGICO: ogni singola informazione viene rappresentata da simboli distinti e continui,ovvero variabili con continuità. I segnali analogici sono paragonabili ad un’onda e trasmettono un ampio spettro di informazioni. Gli svantaggi dei segnali analogici sono dovuti al fatto che le onde sono molto sensibili alle interferenze.

DIGITALE: ogni informazione viene rappresentata sfruttando solamente simboli o segnali ben definiti o discontinui,ovvero che non mutano con continuità. Il termine digitale deriva dall'inglese digit (cifra) che a sua volta deriva dal latino digitus, che significa dito.
Il digitale presenta due vantaggi rispetto all’analogico: meno interferenze e maggiore risoluzione.


Con la nascita del digitale terrestre, anche nel campo della tv via etere si ripropone la dicotomia tra analogico e digitale, già sperimentata ad esempio nel mercato musicale (passaggio dal vinile ai cd) e in quello della telefonia mobile (passaggio dal sistema Etacs al Gsm).
Nel sistema analogico, un segnale viene riprodotto per analogia. Ad esempio, nei vecchi dischi di vinile la profondità dei solchi seguiva le modulazioni del suono. Allo stesso modo, nella comune tv analogica i segnali luminosi e sonori producono segnali elettrici di frequenza e ampiezza variabile che vengono trasmessi nell'etere. L'apparecchio ricevente riesce a trasformare, per semplice analogia, i segnali elettrici di nuovo in segnali audio e video.

Nel sistema digitale, al contrario, qualunque messaggio è tradotto in sequenze binarie di 1 e 0. Non c'è alcuna analogia diretta tra il segnale e la conseguente traduzione binaria. L'apparecchio ricevente, dunque, deve essere istruito sul significato di ogni sequenza e su come questa si ricompone per formare un messaggio comprensibile. Il decoder ha proprio questo compito: decodificare il segnale digitale e trasformarlo in un segnale analogico comprensibile per la tv.
Il segnale digitale ha una pulizia sconosciuta a quello analogico.
L'altra faccia della medaglia è che basta un piccolo disturbo per bloccarlo: un graffio su un cd lo rende illeggibile, mentre un vinile avrebbe solo gracchiato.
Le comunicazioni via Gsm conoscono buchi di silenzio totale, laddove l'Etacs tollerava un fruscio o un disturbo. Allo stesso modo, la tv digitale terrestre non conosce effetto neve o righine: si vede perfettamente, oppure non si vede. La tv digitale è già entrata nelle case degli italiani da alcuni anni grazie al satellite. Molti dei suoi vantaggi sono noti: moltiplicazione dei canali, maggiori informazioni sui programmi, doppio audio, sottotitoli, possibilità di dialogo con l'emittente (l'acquisto di eventi in pay-per-view ne è un esempio), funzioni di e-mail e videogame. Il digitale terrestre è tutto questo, senza bisogno della parabola.

Digitale è riferito dunque alla matematica del discreto che lavora con un insieme finito di elementi, mentre ciò che è analogico viene modellizzato con la matematica del continuo che tratta un'infinità (numerabile o non numerabile) di elementi.

E' possibile convertire un segnale analogico in uno equivalente digitale, costituito da una serie di numeri, questo processo è chiamato digitalizzazione. A seconda degli scopi a cui è destinata la conversione, questa può essere effettuata in modo grossolano e approssimativo, oppure in modo molto accurato e preciso, in ogni caso il segnale digitalizzato perde sempre qualcosa rispetto all'originale analogico, non sarà mai identico.
Un tipico esempio è la conversione di un'onda sinusoidale (più o meno regolare), se il circuito di conversione usa un numero di bit insufficienti, risulta visibile geometricamente, una notevole differenza fra il segnale analogico e il segnale digitalizzato, costituito da un insieme di spezzate (tratti costanti ai valori dell'insieme discreto, tipicamente 0 e 1) del segnale digitale.

L'uso attuale più comune del digitale è nel campo audio, in cui viene approssimato sufficientemente bene un segnale analogico, in alcune applicazioni la qualità del segnale digitale riprodotto, risulta indistinguibile dall'originale analogico. Tale conversione è frequente quanto la discretizzazione di variabili continue in matematica o statistica (aspetto più generale di un problema soprattutto pratico).
Per esempio, un orologio con le lancette è analogico, perché la posizione di ognuna delle sue 3 lancette (ore, minuti e secondi) può indicare uno qualsiasi degli infiniti punti che formano la circonferenza del quadrante dell'orologio stesso, punti che quindi non sono numerabili. Al contrario in un orologio digitale le cifre che compongono l'ora, i minuti e i secondi indicano solo e soltanto gli 86.400 possibili momenti in cui può essere suddiviso, in secondi, un giorno (24 ore x 60 minuti x 60 secondi).
Un oggetto viene digitalizzato, cioè reso digitale, se il suo stato originario (analogico) viene "tradotto" e rappresentato mediante un insieme numerabile di elementi. Per esempio una foto, normalmente formata da un infinito numero di punti ognuno dei quali formato di un'infinita gamma di colori, viene digitalizzata, e quindi tradotta in foto digitale, allorché la sua superficie la si rappresenti divisa in un numero discreto di "punti" (in genere piccoli quadrati o rettangoli detti pixel) ognuno dei quali formato di un colore tra i 16.777.216 possibili (se codificati in RGB e cioè in una combinazione di 256 sfumature di rosso, 256 di verde e 256 di blu), ovvero 256 bit per colore.

Molte tecnologie ricorrono al digitale per ottenere la riproduzione di un'onda (sonora o luminosa) che è analogica; il modem converte appunto un segnale analogico inviabile attraverso i doppini telefonici in un segnale richiesto dal pc o altro dispositivo elettronico che funziona tramite bit (0/1) e richiede un segnale digitale. I moderni televisori LCD funzionano principalmente con segnali digitali, mentre i televisori della precedente generazione CRT avevano un funzionamento basato primariamente su segnali analogici.

FM vs AM

FM: Modulazione di frequenza
La modulazione di frequenza, in sigla FM (dall'analogo termine inglese Frequency Modulation), è uno dei sistemi utilizzati per trasmettere informazioni utilizzando un segnale a radiofrequenza. Appartiene alle modulazioni ad onda continua, ovvero quelle che modulano una portante sinusoidale, e tra queste in particolare appartiene a quelle che effettuano modulazione angolare (non lineare) dato che insiste sulla fase della portante. Nella FM vi è un legame lineare tra deviazione di frequenza e messaggio.
La FM consiste nel modulare la frequenza del segnale radio che si intende utilizzare per la trasmissione (detto portante) in maniera proporzionale all'ampiezza del segnale che si intende trasmettere.
Rispetto alla modulazione di ampiezza ha il vantaggio di essere molto meno sensibile ai disturbi e di permettere una trasmissione di miglior qualità. Ha inoltre una efficienza molto maggiore dato che la potenza del segnale modulato FM è esclusivamente quella della portante, il segnale di informazione cioè non richiede potenza aggiuntiva per essere trasmesso.
Il difetto principale è la necessità di circuiti molto più complessi sia per la generazione del segnale da trasmettere che per la sua ricezione. L'attuale tecnologia ha chandail facilmente superabili tali problematiche con il risultato che le trasmissioni in modulazione di ampiezza sono sempre meno usate soprattutto in ambito broadcasting.
In Italia la modulazione di frequenza è usata per le trasmissioni radiofoniche nella banda di frequenze che va dagli 87,5 ai 108 MHz.
AM : Modulazione d'ampiezza
La modulazione di ampiezza, in sigla AM (dall'analogo termine ingleSE Amplitude Modulation), è uno dei sistemi utilizzati per trasmettere informazioni utilizzando un segnale a radiofrequenza.
Consiste nel modulare l'ampiezza del segnale radio che si intende utilizzare per la trasmissione (detto portante) in maniera proporzionale all'ampiezza del segnale che si intende trasmettere (modulante). Il segnale modulato ha la stessa frequenza della portante.
È piuttosto semplice da realizzare ed è perciò stata utilizzata agli albori delle trasmissioni radio. Nel caso della trasmissione binaria, così come in telegrafia, ad una potenza bassa corrisponde lo zero mentre ad una potenza alta corrisponde l'uno. I principali inconvenienti sono l'estrema sensibilità ai disturbi ed alle condizioni di propagazione, in quanto qualsiasi disturbo si va di fatto a sommare direttamente al segnale che si sta trasmettendo, e la poca efficienza che richiede l'uso di potenze maggiori per coprire le stesse distanze.
Lo spettro di frequenza del segnale modulato è un grafico che rappresenta l'ampiezza di ogni componente del segnale. Infatti ogni segnale periodico è scomponibile in una somma di segnali sinusoidali (sviluppo in serie di Fourier) quindi il segnale modulato è lui stesso una somma di segnali sinusoidali.
La modulazione di ampiezza si realizza, normalmente, applicando il segnale portante in alta frequenza all'ingresso di un amplificatore.

lunedì 20 aprile 2009

CARATTERISTICHE FISICHE DEL SUONO.

AMPIEZZA: è massima variazione di una grandezza in un'oscillazione periodica. Si esprime in decibel (dB).

FREQUENZA: Nel misurare la frequenza del suono, di onde elettromagnetiche (come le onde radio o la luce), di segnali elettrici oscillatori o di altre onde simili, la frequenza in hertz è il numero di cicli della forma d'onda ripetitiva per secondo.
La frequenza f ha una relazione di proporzionalità inversa con la grandezza lunghezza d'onda. La frequenza è pari alla velocità c dell'onda divisa per la lunghezza d'onda λ.

Un modo per calcolare una tale frequenza consiste nel fissare un intervallo di tempo, nel contare il numero di occorrenze dell'evento che si ripete in tale intervallo di tempo e nel dividere quindi il risultato di questo conteggio per la ampiezza dell'intervallo di tempo. In alternativa, si può misurare l'intervallo di tempo tra gli istanti iniziali di due eventi successivi (il periodo) e quindi calcolare la frequenza come grandezza reciproca di questa durata.
dove T esprime il periodo. Il risultato è dato nell'unità di misura chiamata hertz (Hz), dal fisico tedesco Heinrich Rudolf Hertz, dove 1 Hz caratterizza un evento che occorre una volta in un secondo.
Gli strumenti usati per la misura sono l'oscilloscopio e il frequenzimetro, il primo permette una misurazione complementare ad altre, in circostanze non impegnative; per misure accurate e precise occorre usare il secondo, il quale è uno strumento elettronico specializzato per misure di frequenza e di tempo.