L'adozione di applicazioni basate sulla comunicazione acustica ha dato il via a una vasta ricerca, motivata dalle sfide che l'interazione tra dispositivi tecnologici deve affrontare. In particolare, grandi attori del settore, come Google, hanno avviato l'utilizzo di questa tecnologia per facilitare la co-presenza tra dispositivi nelle vicinanze. Le differenze fondamentali tra la propagazione delle onde radio (RF) e quella delle onde acustiche, in termini di velocità del segnale, attenuazione e limiti di larghezza di banda, indicano chiaramente che le metodologie sviluppate per la comunicazione RF non possono essere applicate direttamente ai canali acustici.
La comunicazione acustica nell'aria presenta una serie di problematiche che non si riscontrano nella comunicazione RF. Una delle difficoltà principali è l'effetto Doppler. A causa della velocità relativamente lenta del suono (340 m/s a temperatura ambiente) e delle frequenze di portante utilizzate nella comunicazione acustica aerea, anche movimenti minimi, come il camminare umano, possono causare spostamenti significativi di frequenza. Questo fenomeno rende la progettazione di forme d'onda resilienti per applicazioni mobili una sfida notevole, richiedendo un'attenta considerazione dei cambiamenti di frequenza e delle variazioni temporali per garantire una comunicazione affidabile.
Un ulteriore problema è la vulnerabilità al rumore ambientale. La comunicazione acustica nell'aria opera all'interno di una larghezza di banda limitata, generalmente compresa tra 20 Hz e 22 kHz, mentre il rumore ambientale può coprire l'intero spettro acustico, influenzando gravemente la qualità del segnale. Pertanto, la progettazione di onde acustiche per la comunicazione aerea deve integrare tecniche di riduzione del rumore per migliorare l'affidabilità della trasmissione e preservare la fedeltà del segnale in ambienti acustici rumorosi.
Un'altra difficoltà riguarda la selettività di frequenza. I trasduttori acustici, come altoparlanti e microfoni, sono principalmente progettati per la voce umana, con una risposta ottimizzata attorno ai 4 kHz. Al di fuori di questa gamma, sia il guadagno che la sensibilità diminuiscono notevolmente, causando una selettività di frequenza intrinseca. Per mitigare questi effetti, è necessario implementare tecniche di compensazione durante la trasmissione e la ricezione dei segnali.
Nonostante queste sfide, la comunicazione acustica aerea offre numerosi vantaggi rispetto alla comunicazione tramite radiofrequenza. In primo luogo, i trasduttori acustici sono ampiamente disponibili in dispositivi di consumo e supportano nativamente l'elaborazione del segnale a livello fisico, senza necessitare di modifiche hardware o riscontrare problemi di compatibilità. In secondo luogo, il rapporto tra larghezza di banda e velocità di propagazione per i segnali acustici è significativamente più alto rispetto a quello dei segnali RF, migliorando la risoluzione spaziale e la sensibilità dei sistemi di rilevamento basati sull'acustica. Questo consente una caratterizzazione ambientale e un rilevamento degli oggetti più precisi. Inoltre, la comunicazione acustica presenta un rischio minore di intercettazioni, in quanto i segnali acustici hanno un raggio di propagazione limitato e non penetrano facilmente attraverso le pareti.
Per affrontare le sfide precedentemente menzionate, le forme d'onda per i canali acustici aerei sono generalmente progettate per essere resistenti agli spostamenti Doppler e alle interferenze ambientali. La questione della selettività di frequenza viene comunemente mitigata tramite tecniche di compensazione del canale. In particolare, si ricorre a forme d'onda come i segnali "chirp" (modulazione della frequenza lineare) e le varianti di questi, i segnali sinusoidali e la modulazione a divisione ortogonale di frequenza (OFDM).
I segnali chirp sono tra le forme d'onda più utilizzate nella comunicazione acustica. Questi segnali sono impiegati per la codifica dei preamboli durante i processi di sincronizzazione e possono essere utilizzati anche per la codifica dei simboli informativi. I segnali chirp mostrano una forte resilienza al rumore di fondo, agli effetti Doppler e alla propagazione su più percorsi, risultando particolarmente vantaggiosi in ambienti acustici complessi. La loro caratteristica distintiva è la variazione continua della frequenza nel tempo, che può essere crescente (up-chirp) o decrescente (down-chirp). Il segnale chirp lineare, noto anche come segnale a frequenza modulata lineare (LFM), mantiene una velocità di cambiamento della frequenza costante per tutta la sua durata, risultando molto efficace nel contrastare le interferenze ambientali. La capacità di combattere le interferenze è direttamente legata al prodotto del coefficiente di modulazione B e al tempo T, che determina il guadagno di elaborazione del segnale.
Nonostante la semplicità dei segnali a tono puro, che vengono utilizzati per la loro facilità di codifica e decodifica, questi sono meno efficaci dei segnali chirp nel mitigare il rumore e il fading multipercorso. I segnali a tono puro sono descritti da un'onda sinusoidale, ma la loro capacità di resistere a condizioni difficili è limitata. Sebbene siano più semplici da implementare, non offrono gli stessi vantaggi dei segnali chirp, in particolare in ambienti acustici complessi.
In conclusione, la comunicazione acustica aerea, sebbene affronti sfide uniche legate alla velocità di propagazione, al rumore e alla selettività di frequenza, presenta un ampio potenziale, soprattutto in scenari dove le comunicazioni RF potrebbero risultare inefficienti o vulnerabili. La continua evoluzione delle tecniche per l'ottimizzazione dei segnali acustici potrebbe aprire nuove possibilità per l'interazione tra dispositivi e l'automazione, in scenari in cui l'affidabilità e la sicurezza sono fondamentali. È essenziale per il lettore comprendere che, oltre alle soluzioni tecniche, la progettazione di questi sistemi richiede una visione integrata che consideri sia gli aspetti fisici che quelli pratici della comunicazione acustica.
Come misurare il Tempo di Volo e le tecniche di sincronizzazione in sensori acustici
Il segnale di tipo chirp genera picchi evidenti anche dopo la cross-correlazione al ricevitore. Come mostrato nella Figura 3.2b, i picchi derivanti dai percorsi NLOS (Non-Line of Sight) sono effettivamente più grandi di quelli provenienti dal percorso LOS (Line of Sight). In [1], è stato proposto un metodo affidabile di rilevamento del preambolo per mitigare gli effetti della diversità dei dispositivi e del problema near-far. L'idea principale è quella di normalizzare i valori di cross-correlazione attraverso l'intensità totale dei campioni W precedenti. Questo approccio adatta dinamicamente la soglia sulla base del valore relativo dei risultati di cross-correlazione. Specificamente, se cj indica il j-esimo campione della cross-correlazione tra il segnale di riferimento e il segnale ricevuto, il metodo rileva un onset se la seguente condizione è soddisfatta:
dove δ è una soglia predefinita. La scelta dei parametri W e δ comporta compromessi in termini di reattività (ad esempio, quanto velocemente può essere rilevato l'onset), falsi allarmi e tassi di errore di rilevamento.
Stima del Tempo di Volo (ToF)
La stima del tempo di arrivo (ToA) o del tempo differenziale di arrivo (TDoA) delle onde acustiche ricevute dai riceventi gioca un ruolo fondamentale nel ranging e nella localizzazione. A seconda che i target previsti siano dotati di trasduttori acustici, le tecniche esistenti possono essere ulteriormente suddivise in approcci basati su dispositivo e senza dispositivo. Tra gli approcci basati su dispositivo, i metodi di rilevamento unidirezionali o bidirezionali utilizzano tipicamente la cross-correlazione per ottenere risoluzioni temporali a livello di campione. Negli approcci senza dispositivo, per stimare il tempo di volo tra la trasmissione e la ricezione delle onde riflesse da un obiettivo, le informazioni di fase possono essere utilizzate per ottenere risoluzioni a livello di sotto-campione, poiché il trasmettitore e il ricevitore sono solitamente co-localizzati e condividono un orologio comune.
1. Rilevamento Unidirezionale
Il rilevamento unidirezionale si riferisce generalmente al paradigma di rilevamento in cui le informazioni temporali vengono ottenute tramite trasmissioni unidirezionali. In questo paradigma, i trasmettitori e i ricevitori possono risiedere su dispositivi spazialmente separati o su un singolo dispositivo, come mostrato nella Figura 3.3. Nel rilevamento unidirezionale, è necessaria una stretta sincronizzazione tra il trasmettitore e il ricevitore affinché il ricevitore sappia esattamente l'inizio di una trasmissione acustica per stimare il tempo di volo. A causa delle limitazioni nei dispositivi commerciali e dell'assenza di orologi condivisi nelle applicazioni di rilevamento distribuito, i lavori esistenti ottengono la sincronizzazione sfruttando altre fonti di segnali ad alta velocità, come i segnali radio, ad esempio Wi-Fi, Bluetooth e Zigbee. Questi segnali sono adatti perché il loro tempo di propagazione è di diversi ordini di grandezza inferiore al tempo di volo delle onde acustiche nel massimo raggio operativo. Per la stima del ToA, un segnale acustico e un segnale di sincronizzazione vengono trasmessi simultaneamente. Il ricevitore determina il ToA dalla differenza di tempo di arrivo tra le due fonti di segnale. In questo approccio, le informazioni temporali possono essere ottenute senza alcuna coordinazione tra trasmettitore e ricevitore.
Il TDoA si riferisce alla differenza nel tempo che impiega un segnale da un singolo trasmettitore ad arrivare a due o più ricevitori separati spazialmente, o dal tempo impiegato da più trasmettitori concorrenti a un singolo ricevitore. Per la stima del TDoA, più trasmettitori o ricevitori devono essere strettamente sincronizzati. In alcune applicazioni, i trasmettitori o i ricevitori sono fisicamente co-locati su un unico dispositivo. Nei sistemi sincronizzati con il trasmettitore, le trasmissioni acustiche vengono innescate simultaneamente e arrivano al ricevitore con diversi ritardi di propagazione, come illustrato dalle frecce rosse nella Figura 3.3b. Il TDoA viene quindi ottenuto stimando l'inizio dei segnali di riferimento noti. Nei sistemi sincronizzati con il ricevitore, il TDoA di una singola sorgente sonora viene calcolato attraverso più canali di ricezione sullo stesso dispositivo, come indicato dalle frecce verdi nella Figura 3.3b. Ciò può essere fatto stimando le differenze negli inizi dei segnali mediante cross-correlazione dei campioni ricevuti da diversi canali di ricezione.
2. Rilevamento Bidirezionale
Per eliminare la necessità di una stretta sincronizzazione nel rilevamento unidirezionale, è stato proposto il rilevamento bidirezionale, sebbene questo comporti un aumento della complessità dell'hardware e del processamento. Nel rilevamento bidirezionale, sono necessarie trasmissioni acustiche bidirezionali. Di conseguenza, ogni dispositivo dovrebbe essere dotato sia di un altoparlante che di un microfono. I passaggi per estrarre le informazioni sul ToA tra due dispositivi sono mostrati nella Figura 3.4a. Al tempo , il dispositivo A inizia una trasmissione acustica. Il dispositivo B rileva il segnale acustico al tempo e inizia un'altra trasmissione al tempo dopo un ritardo arbitrario. Il dispositivo A rileva la seconda trasmissione al tempo . Sotto l'ipotesi di canali reciproci (con un ritardo uguale in entrambe le direzioni), il ToA da A a B può essere derivato come:
Nel caso di trasmettitori asincroni, il TDoA tra i segnali dai trasmettitori A e B presso il ricevitore C, considerando le differenze nei tempi di trasmissione, può essere derivato come:
In pratica, i tempi devono essere registrati con i rispettivi timestamp nelle interfacce audio dei dispositivi. In presenza di ritardi sistemici incerti, è difficile registrare i tempi con precisione nelle applicazioni utente. Per superare tale sfida, sono state proposte due tecniche innovative. In primo luogo, ogni dispositivo di trasmissione registra anche la propria trasmissione tramite il microfono integrato. In secondo luogo, il conteggio dei campioni nel buffer audio di un dispositivo viene utilizzato per stimare il tempo trascorso tra le ricezioni acustiche consecutive.
L'uso di sensori acustici in scenari di rilevamento unidirezionale o bidirezionale comporta vantaggi e svantaggi significativi. Se da un lato il rilevamento unidirezionale è più semplice e meno costoso, richiede una sincronizzazione precisa che non è sempre possibile in ambienti distribuiti. D'altro canto, il rilevamento bidirezionale riduce il bisogno di una sincronizzazione precisa, ma aumenta la complessità hardware e i costi operativi. Pertanto, è fondamentale scegliere l'approccio in base alle specifiche esigenze di sistema, alla disponibilità di risorse hardware e al tipo di applicazione.
Le sfide e le tecniche di modulazione nella comunicazione acustica aerea
La comunicazione acustica aerea (AAC) affronta sfide uniche rispetto ad altri tipi di comunicazione wireless. In molti sistemi di comunicazione wireless, i frame contengono sequenze di preambolo note che aiutano nella stima del canale. Questo permette di compensare le distorsioni nei segnali portanti, riducendo così il tasso di errore bit (BER). Tuttavia, tale compensazione è efficace solo se eseguita all'interno di un intervallo di tempo coerente, durante il quale la risposta del canale può essere considerata relativamente costante. Nel contesto dell'AAC, questa compensazione presenta due difficoltà principali. Innanzitutto, il tempo coerente del canale è breve, limitato generalmente a pochi millisecondi in ambienti indoor (ad esempio, 8 ms come riportato in uno studio precedente), il che rende l'uso di sequenze di addestramento lunghe poco pratico a causa del basso tasso di dati. In secondo luogo, la compensazione del canale richiede spesso calcoli complessi da eseguire in tempo reale, cosa che può risultare impegnativa per dispositivi IoT con risorse limitate.
Un'importante ricerca sperimentale è stata condotta per comprendere meglio la stabilità del segnale acustico, focalizzandosi su parametri cruciali come frequenza, fase e ampiezza, che sono potenzialmente utili per la modulazione. L'impostazione sperimentale prevedeva un computer desktop che emetteva continuamente un tono puro di 20 kHz tramite una presa audio da 3,5 mm, amplificato da un amplificatore di potenza classe-A da 20 W per ridurre la distorsione. Il segnale amplificato veniva quindi diffuso utilizzando un altoparlante da 10 pollici, mentre uno smartphone Samsung Galaxy S5, posizionato a 20 cm dallo speaker, registrava il segnale trasmesso tramite un'applicazione personalizzata. Questa applicazione, costruita sulla classe AudioTrack di Android, catturava i dati audio PCM non elaborati, evitando qualsiasi filtro software interno. La registrazione durava 40 secondi e veniva effettuata in un ambiente d'ufficio, dove il livello di rumore di fondo medio era di circa 44 dB, con picchi intermittenti che superavano i 76 dB a causa di fonti di rumore ambientale come conversazioni, rumori da tastiera e colpi sulla scrivania.
I risultati ottenuti da queste misurazioni evidenziano che, nonostante la presenza di rumori a bassa frequenza sotto i 5 kHz, l'uso di un filtro FIR di ordine 30 con una frequenza di taglio di 5 kHz ha rimosso efficacemente i disturbi a bassa frequenza, mantenendo invariata l'informazione di fase. Tuttavia, un rumore broadband tra 20 e 30 kHz persisteva, ma il segnale acustico si è mantenuto relativamente stabile nella sua frequenza, suggerendo il suo potenziale per applicazioni di modulazione. In particolare, l'involucro dell'ampiezza, estratto tramite la trasformata di Hilbert, mostrava una notevole variazione, con fluttuazioni che andavano da un picco di 1 a un minimo vicino a zero. Questa fluttuazione rendeva la modulazione dell'ampiezza (AM) una scelta poco favorevole per l'AAC, poiché introduce instabilità nel processo di codifica del segnale.
Il comportamento della fase, misurato mediante l'analisi FFT, mostrava un aumento quasi lineare nel tempo, con deviazioni di fase fino a 10 radianti osservate nell'arco di 10 secondi. Questo deriva principalmente dai fenomeni di offset di frequenza del portatore (CFO) o di offset di frequenza di campionamento (SFO), che si verificano quando i tassi di campionamento dei dispositivi non sono perfettamente allineati, causando errori accumulati nel tempo. Nei sistemi di comunicazione radio, gli offset CFO e SFO vengono generalmente corretti tramite tecniche di equalizzazione del canale, ma in un sistema acustico questo tipo di correzione non è praticabile a causa delle limitazioni nelle risorse computazionali e nelle capacità hardware dei dispositivi.
La modulazione basata sull'ampiezza e sulla fase risulta quindi meno adatta per l'AAC, ma la modulazione di frequenza (FM) si è rivelata più robusta contro queste distorsioni. L'uso di FM, che varia la frequenza di un portatore in funzione del segnale digitale, è particolarmente adatto per la comunicazione acustica aerea, poiché la frequenza è meno influenzata dalle fluttuazioni di fase e dalle interferenze di ampiezza.
Le tecniche di modulazione più comuni in questo contesto includono la modulazione di frequenza (FSK), che viene utilizzata per trasmettere informazioni digitali variando la frequenza di una portante tra due frequenze discrete, ciascuna rappresentante un valore binario ("1" o "0"). La modulazione FSK è ampiamente impiegata in sistemi di telecomunicazione per la trasmissione di informazioni digitali su canali di comunicazione. La rappresentazione matematica di FSK può essere scritta come per un "1" e per uno "0", dove e sono le due frequenze della portante. Nonostante i vantaggi della FSK, un problema che emerge è la dispersione di frequenza tra i simboli consecutivi, che può essere mitigata mediante l'uso di finestre, come la finestra di Hanning.
Un altro aspetto cruciale che i lettori devono comprendere riguarda la complessità computazionale e la necessità di una corretta progettazione dei pacchetti di dati in ambienti acustici reali. Le tecniche di modulazione devono essere adattate non solo alle condizioni del canale, ma anche alle capacità hardware dei dispositivi, in particolare quelli impiegati in scenari di Internet delle cose (IoT). La stabilità e la precisione delle tecniche di modulazione dipendono non solo dalla qualità del canale acustico, ma anche dalla capacità di gestire in tempo reale le risorse limitate del dispositivo. Pertanto, la progettazione di sistemi di comunicazione acustica aerea deve bilanciare la robustezza delle tecniche di modulazione con l'efficienza computazionale, garantendo che i dispositivi possano operare in ambienti rumorosi senza compromettere la qualità del segnale.
Quali sono le sfide dell'OFDM nella comunicazione acustica e come vengono affrontate?
L'Orthogonal Frequency Division Multiplexing (OFDM) è una tecnica di modulazione avanzata utilizzata frequentemente nelle reti di comunicazione mobile di quarta e quinta generazione (4G e 5G). Tuttavia, l'applicazione diretta dell'OFDM a ambienti acustici presenta sfide significative. Tra queste, le difficoltà principali sono legate alla limitata durata di coerenza del canale e al rumore di fase significativo che si manifesta anche in canali statici. Per affrontare queste limitazioni e migliorare la robustezza della comunicazione acustica, si ricorre spesso a combinare l'OFDM con la modulazione per spostamento di ampiezza (ASK).
La modulazione ASK, che modula i dati variando l'ampiezza del segnale, è vantaggiosa per la sua semplicità di implementazione. Tuttavia, la sua bassa velocità di trasmissione dei dati impone l'uso dell'OFDM, che consente di aumentare l'efficienza spettrale e migliorare la capacità di trasmissione. Dopo aver modulato il segnale baseband x[n] con ASK, questo viene trattato come un segnale nel dominio delle frequenze, X[n]. Per trasformarlo in un segnale temporale pronto per la trasmissione, si applica la Trasformata Inversa di Fourier Veloce (IFFT). Il processo di modulazione e demodulazione OFDM è illustrato da una sequenza di passaggi che converte un segnale a banda laterale singola (SSB) in un segnale a banda laterale doppia (DSB) con uno spettro simmetrico.
Il concetto di simmetria di Hermite nei segnali OFDM è fondamentale per garantire che il segnale finale, una volta trasformato, sia reale e quindi pronto per la trasmissione. Questo implica che la trasformazione IFFT venga eseguita solo su un segnale che soddisfi la condizione di simmetria, cioè X[-n] = X*[n]. Questo processo risolve il problema legato alla necessità di ottenere un segnale fisico reale, come necessario per la trasmissione acustica. Nell'implementazione pratica, la frequenza di campionamento e la risoluzione spettrale vengono scelte in base ai vincoli della comunicazione acustica. Per esempio, se il sistema è progettato per un dispositivo acustico con una frequenza di campionamento di 48 kHz e una larghezza di banda disponibile compresa tra 18 e 22 kHz, una spaziatura tra portanti di 100 Hz garantisce una risoluzione di frequenza di 100 Hz.
In termini pratici, un simbolo OFDM in un sistema acustico può codificare 40 bit, impiegando 40 sottoportanti per la modulazione dei dati. La sequenza di bit viene quindi mappata su una sequenza di campioni nel dominio delle frequenze. La realizzazione della modulazione OFDM, a partire dalla modulazione ASK, implica un processo che parte dalla codifica dei bit, passando per la trasformazione del dominio delle frequenze tramite IFFT, fino a giungere alla generazione del segnale temporale. La trasformazione di ASK in OFDM consente di ottenere un segnale simmetrico nel dominio delle frequenze che poi può essere trasmesso.
Nonostante l'OFDM offra vantaggi significativi in termini di efficienza spettrale, la sua implementazione pratica è complicata da problemi come il Peak-to-Average Power Ratio (PAPR), che si verifica quando un numero limitato di campioni mostra magnitudini molto alte. Questo fenomeno può generare perdite di frequenza o rumore udibile, anche se la modulazione viene effettuata nell'intervallo di frequenze inaudibili. Sebbene i sistemi di comunicazione wireless basati su radio possano affrontare il problema PAPR, le soluzioni in questo ambito non sono generalmente adatte per i dispositivi IoT acustici a causa della loro complessità. Attualmente, le soluzioni efficaci per il problema PAPR nell'ambito acustico sono in gran parte inesplorate.
Un altro aspetto pratico importante riguarda l'uso del prefisso ciclico (CP) negli simboli OFDM. Il prefisso ciclico è essenziale per ridurre l'impatto degli errori di sincronizzazione, un problema che è particolarmente critico nei segnali acustici, dove la sincronizzazione perfetta è difficile da ottenere. Il prefisso ciclico consiste nella ripetizione della parte finale di un simbolo OFDM per consentire una compensazione degli errori di sincronizzazione durante la ricezione del segnale. L'aggiunta del CP migliora la robustezza del sistema quando il segnale ricevuto è soggetto a un offset temporale.
Un punto cruciale da tenere in considerazione è che, nonostante la capacità dell'OFDM di offrire alte velocità di trasmissione, i suoi simboli sono vulnerabili alla perdita di propagazione, limitando la sua efficacia a comunicazioni a breve distanza, tipicamente nell'ordine di pochi centimetri. Per comunicazioni a distanze più lunghe, la Chirp Spread Spectrum (CSS) potrebbe rappresentare una valida alternativa, grazie alla sua maggiore resistenza all'attenuazione e alle interferenze da multipath. La tecnica CSS sfrutta un segnale "chirp", un'onda acustica con una frequenza che varia nel tempo, per ottenere una comunicazione più robusta su distanze superiori.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский