Modulacja częstotliwości w systemach akustycznych jest kluczowym elementem w przekazywaniu informacji. Z tego powodu faza i amplituda sygnałów akustycznych podlegają licznym wariacjom, co sprawia, że głównym środkiem kodowania informacji staje się modulacja częstotliwości nośnej. Jednym z najbardziej popularnych typów fal akustycznych wykorzystywanych w systemach komunikacyjnych jest fala OFDM (Orthogonal Frequency Division Multiplexing), która, jak sama nazwa wskazuje, polega na modulacji fal akustycznych przy użyciu ortogonalnej wielodzielnej modulacji częstotliwości.

OFDM to technika, w której dane są kodowane na wielu ortogonalnych nośnych częstotliwościach, co zapewnia odporność na błędy synchronizacji i umożliwia wyższą przepustowość w obrębie określonego pasma. W systemach komunikacji bezprzewodowej OFDM najczęściej realizowane jest przy pomocy specjalistycznego sprzętu, co pozwala na prawie natychmiastowe działanie systemu. Natomiast w kontekście komunikacji akustycznej, sygnały OFDM generowane są zazwyczaj za pomocą oprogramowania, co wiąże się z ograniczeniami, zwłaszcza w zakresie funkcji takich jak detekcja nośnej, estymacja stanu kanału czy korekcja przesunięcia częstotliwości nośnej. Te ograniczenia wynikają głównie z surowych wymagań czasowych oraz stosunkowo krótkiego czasu spójności kanału w środowisku akustycznym.

W systemach komunikacji bezprzewodowej, takich jak Wi-Fi, techniki modulacji bazowej wysokiego rzędu, jak 256-QAM (kwadraturowa modulacja amplitudy), są często wykorzystywane w OFDM w celu optymalizacji efektywności widma. W akustycznym świecie jednak, takie podejście okazuje się niewykonalne, z powodu licznych zakłóceń kanałowych, takich jak propagacja wielościeżkowa, efekty Dopplera czy selektywne zanikanie częstotliwości. Z tego powodu w systemach komunikacji akustycznej stosuje się bardziej uproszczone schematy modulacji, takie jak kluczowanie amplitudy (ASK), które lepiej radzą sobie z zakłóceniami w tego typu kanałach.

Również modulacje fazowe, powszechnie stosowane w systemach RF, rzadko mają zastosowanie w akustycznej komunikacji powietrznej, ze względu na inherentną niestabilność fazy w kanałach akustycznych. Z tego względu w akustycznym OFDM stosowane są systemy wielonośne oparte na modulacji kluczowania częstotliwości (FSK), gdzie informacje kodowane są głównie za pomocą zmian częstotliwości i amplitudy, a nie fazy.

Szeroko stosowane w systemach akustycznych są również fale stosowane w sensoryce akustycznej. Sensing akustyczny polega na wykorzystywaniu właściwości propagacji fal akustycznych, takich jak zmiany amplitudy, przesunięcia fazy, zmiany częstotliwości Dopplera czy zmiany widma, do identyfikacji obiektów lub ich ruchów. Projektowanie fal akustycznych dla potrzeb sensoryki różni się od tego wykorzystywanego w komunikacji akustycznej, ponieważ wymaga, aby wybrana charakterystyka propagacji sygnału wykazywała znaczące zmiany w odpowiedzi na zmiany w otoczeniu, maksymalizując wykrywalność i poprawiając rozdzielczość.

W tym kontekście, sygnały takie jak "chirp", czyste tony oraz fale OFDM są powszechnie stosowane w aplikacjach akustycznego wykrywania. Ponadto, wykorzystywane są również różne sygnały z zakresu rozpraszania widma, ze względu na ich korzystne właściwości. Sygnały rozpraszania widma, podobnie jak ortogonalne kody polifazowe stosowane w systemach radarowych, charakteryzują się funkcją autokorelacji przypominającą gwoździa, z bliską zeru korelacją krzyżową. Te właściwości sprawiają, że sygnały rozpraszające są łatwo wykrywalne, odporne na efekty wielościeżkowe oraz hałas, co czyni je odpowiednimi do precyzyjnych zastosowań w sensoryce akustycznej.

W tym celu sygnały rozpraszania widma tworzy się przy użyciu ortogonalnych kodów, które pełnią funkcję sygnału bazowego. Do najczęściej wykorzystywanych kodów ortogonalnych należy między innymi sekwencja treningowa GSM, kod Barkera, sekwencja M oraz sekwencja Zadoff-Chu. Każdy z tych kodów ma swoje specyficzne właściwości, które odpowiadają wymaganiom różnych zastosowań w systemach akustycznych. Sekwencje te charakteryzują się różnymi właściwościami autokorelacji i korelacji krzyżowej, które decydują o ich użyteczności w określonych aplikacjach.

Na przykład, sekwencja treningowa GSM została zaprojektowana z myślą o minimalizacji zniekształceń kanałowych i wyrównywaniu opóźnień propagacyjnych w systemach komunikacyjnych. Z kolei kod Barkera jest szeroko stosowany w systemach radarowych do modulacji biphazowej w kompresji impulsów, a sekwencja M (maksymalna sekwencja długości) jest wykorzystywana w systemach synchronizacji, takich jak 5G. Sekwencja Zadoff-Chu jest szczególnie ceniona w systemach rozpraszania widma w nowoczesnych systemach komórkowych, takich jak LTE i 5G NR, ze względu na swoje doskonałe właściwości autokorelacji i korelacji krzyżowej.

Oprócz omawianych fal i technik modulacji, istotnym elementem w rozwoju systemów akustycznych jest integracja ich z zaawansowanymi technologiami przetwarzania sygnałów. Przykładem mogą być systemy radarowe lub detekcyjne, które dzięki zastosowaniu odpowiednich fal akustycznych mogą wykrywać i lokalizować obiekty w trudnych warunkach akustycznych, takich jak woda czy gęste lasy. W takich przypadkach, kluczową rolę odgrywa nie tylko wybór odpowiedniej modulacji, ale również zaawansowana analiza danych, korekcja błędów, a także optymalizacja pasma sygnału.

W kontekście praktycznego zastosowania w systemach komunikacyjnych i sensorycznych, równie ważnym zagadnieniem jest efektywne zarządzanie pasmem i unikanie zakłóceń, które mogą prowadzić do utraty jakości sygnału lub błędów w detekcji. Warto podkreślić, że wybór odpowiednich fal i kodów akustycznych może znacząco wpłynąć na skuteczność systemu, dlatego proces ich projektowania musi być precyzyjnie dopasowany do specyfiki danego środowiska oraz celu aplikacji.

Jak radzić sobie z artefaktami ruchu i interferencjami przy monitorowaniu oznak życiowych?

Artefakty ruchu stanowią poważne wyzwanie w systemach monitorowania oznak życiowych, ponieważ mogą wprowadzać przemieszczenia, które są nie tylko trudne do przewidzenia, ale także znacznie większe niż mikroruchy związane z podstawowymi parametrami, takimi jak oddech czy bicie serca. Różnica ta prowadzi do gwałtownych zmian w pozycjonowaniu zakresów (tzw. range bins), które są przypisane do monitorowanej osoby. Kluczowym efektem tego zjawiska jest fakt, że częstotliwość próbkowania systemu może okazać się niewystarczająca, by właściwie uchwycić te szybkie zmiany, które niosą informacje o oznakach życiowych. Dodatkowym problemem jest trudność w prawidłowym identyfikowaniu odbicia sygnału z klatki piersiowej, zwłaszcza gdy zakłócenia pochodzą od innych części ciała, takich jak ręce czy głowa, co może niemal uniemożliwić dokładne wykrycie. Również częstotliwości niektórych artefaktów ruchu, jak w przypadku drgań nóg czy biegu na bieżni, mogą pokrywać się z zakresem częstotliwości oznak życiowych, co prowadzi do poważnych zakłóceń.

Dodatkowym utrudnieniem jest przestrzenne nakładanie się artefaktów ruchu na sygnały oznak życiowych, co czyni strategie filtracji przestrzennej, takie jak beamforming, bezużytecznymi. W konsekwencji, aby zapewnić dokładność, większość proponowanych metod polega na odrzuceniu tych okresów pomiarowych, które zostały zakłócone przez artefakty ruchu.

Kolejnym aspektem jest rozpraszająca natura kanału akustycznego, która może jeszcze bardziej utrudnić dokładne identyfikowanie sygnału związanych z oznakami życiowymi. Teoretycznie, zakres f2 powinien odpowiadać tylko nośnej, której faza jest modulowana przez oznaki życiowe, pod warunkiem że rozdzielczość przestrzenna jest wystarczająca, by rozróżnić maksymalne przemieszczenie spowodowane tymi oznakami. W praktyce jednak, zakresy sąsiednie mogą również zawierać sygnały oznak życiowych, czasem nawet o wyższym stosunku sygnał-szum (SNR), co dodatkowo komplikuje analizę.

Innym problemem jest wzajemna interferencja między sygnałami oznak życiowych, takimi jak oddech i bicie serca, które są blisko przestrzennie zlokalizowane i nie mogą być rozdzielone za pomocą technik przestrzennych. Szczególnie trudne staje się wykrycie słabszego sygnału, jakim jest bicie serca, gdy amplituda sygnału oddechu jest znacznie większa. Zwiększenie czułości systemu, by uchwycić słabsze sygnały, prowadzi do większej podatności na zakłócenia. Przy wyższej czułości, błędy kwantyzacji, spowodowane zmianami w zakresie podczas próbkowania większego sygnału oddechowego, mogą wprowadzić szum, który zatuszuje delikatniejsze sygnały związane z biciem serca. Z drugiej strony, jeśli czułość ustawiona jest na poziomie wystarczającym, by uchwycić oddech, ale nieoptymalnym dla wykrywania bicia serca, istnieje duża szansa na przeoczenie sygnału bicia serca. Zwiększenie liczby próbek i przeprowadzenie transformacji Fouriera (FFT) na długim ciągu może poprawić czułość na wykrywanie bicia serca, ale ta metoda dostarcza jedynie informacji statystycznych, jak częstość bicia serca, a nie pozwala na szybką detekcję nieprawidłowości w rytmie serca.

W związku z tym istnieje kilka podejść, które próbują radzić sobie z tymi trudnościami. Współczesne badania nad monitorowaniem oznak życiowych za pomocą akustyki skupiają się głównie na ekstrakcji informacji statystycznych, jak częstość oddechu czy bicia serca, i to głównie w warunkach statycznych. Odtwarzanie szczegółowych przebiegów fal, zwłaszcza w przypadku bicia serca, w trudnych warunkach, takich jak obecność artefaktów ruchu, pozostaje wciąż niezbadanym obszarem. Niemniej jednak, wstępne próby poprawy odporności na artefakty ruchu już zostały podjęte. Główne podejścia w tej dziedzinie można podzielić na dwie grupy: metody analityczne obróbki sygnałów oraz rozwiązania oparte na głębokim uczeniu.

Pierwsza grupa, metody analitycznej obróbki sygnałów, polega na wykorzystaniu modelu, który dobrze opisuje dynamikę sygnału. Zaletą takich metod jest ich interpretowalność, ale ich skuteczność w dużej mierze zależy od staranności zaprojektowanych modeli. Na przykład, w pracy CORA wykorzystano dużą różnicę w amplitudzie między sygnałem oddechu a artefaktami ruchu. Do tego celu zastosowano dwie różne techniki sygnałowe: fale ciągłe modulowane częstotliwością (FMCW) i ortogonalną przestrzeń czasowo-częstotliwościową (OTFS). OTFS jest wrażliwy na artefakty ruchu, ale odporny na zakłócenia oddechu, natomiast FMCW jest zaprojektowane do wychwytywania oddechu, ale rejestruje również zakłócenia wynikające z ruchu. Dzięki zastosowaniu obu tych sygnałów można było oddzielić sygnał oddechu, co umożliwia dokładniejsze monitorowanie procesu oddychania.

Innym podejściem są techniki oparte na głębokim uczeniu, które zazwyczaj działają na drugim i trzecim etapie standardowego procesu przetwarzania sygnałów. Choć te metody nie są w pełni interpretowalne, wykazują dużą moc w analizie sygnałów. Przykładem jest system BreathListener, który wykorzystuje możliwości akustyczne smartfonów do szacowania szczegółowego przebiegu oddechu, nawet w trudnych warunkach, takich jak podczas jazdy samochodem. Stosowane przez niego techniki obejmują analizę widma energetycznego i redukcję szumów tła, a także wykorzystanie generatywnej sieci rywalizujących (GAN) do rekonstrukcji drobnych szczegółów sygnału. Z kolei SpiroSonic używa różnych tonów czystych, by wykrywać skumulowane sygnały ruchu i oddechu, a następnie przetwarza je za pomocą sieci neuronowych, by zmniejszyć wpływ łagodnych artefaktów ruchu. Choć te metody oparte na głębokim uczeniu osiągają obiecujące wyniki, często wymagają dużej ilości danych do trenowania i są skomplikowane, co może wpłynąć na ich zdolność do generalizacji.

Ważne jest, aby pamiętać, że każde z podejść ma swoje ograniczenia i trudności, szczególnie w dynamicznych warunkach. Kluczowym wyzwaniem pozostaje poprawne rozdzielenie sygnałów o różnych amplitudach, jak oddech i bicie serca, co wymaga zarówno odpowiedniej czułości, jak i zaawansowanych metod analitycznych lub uczenia maszynowego.

Jak działają systemy akustycznego wykrywania? Analiza konfiguracji i technologii

Akustyczne systemy wykrywania, będące jednym z kluczowych narzędzi w technologii analizy dźwięku, różnią się w zależności od rozmieszczenia urządzeń oraz sposobu, w jaki odbierają i przekazują sygnały akustyczne. Na ogół systemy te obejmują medium, w którym rozprzestrzeniają się fale akustyczne, oraz obiekty (zarówno żywe, jak i martwe), które wchodzą w interakcję z tymi falami. Te obiekty mogą stanowić cele wykrywania lub elementy środowiska wpływające na propagację sygnałów. W zależności od rozmieszczenia mikrofonów i głośników, systemy akustyczne mogą działać w różnych konfiguracjach: monostatycznych, bistatycznych lub multistatycznych.

Systemy monostatyczne, znane również jako sonary akustyczne, charakteryzują się tym, że głośnik i mikrofon są zlokalizowane w tym samym urządzeniu i zazwyczaj zasilane tym samym zegarem. Te systemy są proste i łatwe do wdrożenia, jednak ich zasięg operacyjny jest ograniczony, zwykle do bliskiej odległości od urządzenia. Z kolei systemy bistatyczne wykorzystują oddzielne urządzenia do nadawania i odbierania sygnałów akustycznych, podczas gdy systemy multistatyczne obejmują wiele nadajników i/lub odbiorników rozmieszczonych w różnych miejscach. Takie systemy są bardziej skomplikowane w instalacji, jednak oferują większy zasięg i lepszą rozdzielczość przestrzenną, zwłaszcza gdy zainstalowanych jest wiele jednostek.

Proces przetwarzania sygnałów akustycznych obejmuje kilka etapów. W systemie rejestracji dźwięku sygnały akustyczne są najpierw przekształcane w sygnały napięciowe przez mikrofon, a następnie wzmacniane przez automatyczną kontrolę wzmocnienia (AGC) lub programowalny wzmacniacz (PGA). Wzmocnione sygnały są następnie filtrowane przez filtr dolnoprzepustowy (LPF), znany również jako filtr anty-aliasingowy, a następnie konwertowane na próbki cyfrowe za pomocą przetwornika analogowo-cyfrowego (ADC). Z kolei w systemach odtwarzania dźwięku proces przebiega odwrotnie: próbki cyfrowe są interpolowane i konwertowane na sygnały analogowe za pomocą przetwornika cyfrowo-analogowego (DAC), następnie wzmacniane i zamieniane na fale akustyczne przez głośnik.

Podstawowe parametry systemów rejestracji dźwięku obejmują częstotliwość próbkowania, rozdzielczość bitową oraz liczbę kanałów (lub mikrofonów). Wyższe częstotliwości próbkowania i rozdzielczości bitowe poprawiają jakość sygnału, umożliwiając szerszy zakres częstotliwości oraz zmniejszenie szumów kwantyzacji. Dodatkowo, zwiększenie liczby mikrofonów poprawia rozdzielczość przestrzenną, pozwalając na bardziej szczegółową reprezentację dźwięku. W urządzeniach konsumenckich częstotliwość próbkowania zazwyczaj wynosi od 8 kHz do 44,1 kHz, ale w niektórych urządzeniach, jak wysokiej klasy smartfony, może wynosić nawet 192 kHz.

Współczesne urządzenia konsumenckie, takie jak smartfony, wyposażone są w wiele mikrofonów i głośników. Na przykład, nowoczesne smartfony posiadają dwa głośniki do odtwarzania dźwięku stereo oraz dwa mikrofony do poprawy jakości nagrań. Rozmieszczenie mikrofonów i głośników w tych urządzeniach jest istotnym czynnikiem w projektowaniu algorytmów akustycznych. Warto zwrócić uwagę na to, że akustyczny sprzęt w urządzeniach konsumenckich często wprowadza nieliniową odpowiedź częstotliwościową na sygnały wejściowe, co może prowadzić do problemów w przypadku sygnałów o szerokim paśmie częstotliwości.

Przy rozmieszczaniu mikrofonów, szczególną uwagę należy zwrócić na tzw. selektywność częstotliwościową, co oznacza różne wzmocnienia kanału w zależności od częstotliwości. Dźwięki, których pasmo nie przekracza 8 kHz, mogą doświadczać wyższego wzmocnienia, podczas gdy te o wyższych częstotliwościach będą podlegały wyraźnemu osłabieniu. Z kolei na stronie nadawczej, zjawisko inercji membrany głośnika, spowodowane obecnością elementu mechanicznego (membrany), może sprawić, że sygnały o wysokiej częstotliwości będą tłumione. To zjawisko może również prowadzić do efektów „dzwonienia” lub wycieków częstotliwościowych, które wpływają na jakość przesyłanych sygnałów.

Obecnie, wraz z rozwojem technologii, akustyczne systemy wykrywania są wykorzystywane w szerokim zakresie aplikacji. Jednym z przykładów jest komunikacja akustyczna w powietrzu (AAC), która wykorzystuje fale dźwiękowe do przesyłania danych przez powietrze, umożliwiając systemy komunikacyjne o niskim poborze mocy. Przykłady takich aplikacji to parowanie urządzeń, krótkozasięgowy transfer danych oraz systemy uwierzytelniania dźwiękiem. Drugą kategorią są usługi lokalizacyjne, w których sygnały akustyczne służą do określania pozycji, np. w aplikacjach do lokalizacji wewnętrznych, estymacji odległości czy orientacji w przestrzeni.

W kontekście wykorzystania akustycznych systemów wykrywania w różnych urządzeniach, ważnym aspektem, który warto uwzględnić, jest ich dynamiczne dostosowanie do zmieniających się warunków otoczenia. W szczególności, akustyczne systemy wykrywania w urządzeniach przenośnych, takich jak smartfony, smartwatche czy słuchawki, muszą radzić sobie z różnymi typami zakłóceń, które mogą wpłynąć na jakość przesyłanych sygnałów. Technologie redukcji szumów i poprawy jakości dźwięku, w tym aktywna i pasywna redukcja szumów, stają się kluczowymi komponentami nowoczesnych systemów wykrywania akustycznego.