W dzisiejszych czasach lokalizacja obiektów oraz ich śledzenie w czasie rzeczywistym odgrywają kluczową rolę w wielu aplikacjach, takich jak automatyczne systemy nadzoru, monitorowanie ruchu drogowego czy rozszerzona rzeczywistość. Tradycyjne metody lokalizacji, takie jak te oparte na sygnałach radiowych (RF) czy światle widzialnym, wymagają skomplikowanej infrastruktury i mogą napotykać ograniczenia w określonych warunkach, na przykład przy zatarciu sygnałów w wyniku blokad małej skali. W takim kontekście technologia akustyczna staje się cenną alternatywą, oferującą kompromis między dokładnością a kosztami, szczególnie w przypadku lokalizacji w zamkniętych przestrzeniach. Akustyczne metody lokalizacji mogą funkcjonować w warunkach, gdzie tradycyjne technologie zawodzą, ponieważ fale akustyczne charakteryzują się właściwościami dyfrakcji, co umożliwia detekcję obiektów w obecności niewielkich przeszkód.

Aby uzyskać dokładne lokalizacje obiektów w systemach bezinfrastrukturnych, urządzenia najczęściej posługują się techniką akustycznego pomiaru odległości. W pierwszej kolejności szacowane są odległości pomiędzy parami urządzeń w grupie, a wyniki tych pomiarów stanowią podstawę do wyznaczenia ograniczeń przestrzennych, które następnie wykorzystywane są do określania położenia celu. Równocześnie, niektóre systemy, takie jak te oparte na technologii Wi-Fi, wykorzystują odciski lokalizacyjne, które dodatkowo nakładają ograniczenia na dane pomiarowe, umożliwiając precyzyjniejsze określenie pozycji. Takie podejście pozwala na uzyskanie błędu lokalizacji na poziomie jednego metra w 80. percentylu. Chociaż obliczanie ograniczeń przestrzennych wymaga wielu pomiarów i jest czasochłonne, ta metoda jest najbardziej odpowiednia do statycznej lokalizacji celów.

Innym przykładem systemu akustycznego jest Centaur, który łączy sygnały akustyczne oraz Wi-Fi w celu uzyskania dokładności na poziomie metra. Został zaprezentowany nowy algorytm redukcji wielościeżkowości, który poprawia wykrywanie początków sygnału. Kluczowym elementem tego rozwiązania jest analiza zmian sygnałów w korelacji krzyżowej, co różni się od tradycyjnego podejścia opartego na analizie absolutnych wartości sygnału. Z kolei EchoTag to system lokalizacji, który łączy różne profile akustyczne z różnymi pozycjami, umożliwiając wykrywanie subtelnych zmian w lokalizacji. EchoTag może osiągnąć dokładność na poziomie centymetra, ale jest wrażliwy na zmiany środowiskowe, co może powodować spadek dokładności, jeśli nie zbierane są dodatkowe dane.

Zaletą lokalizacji akustycznej w porównaniu do rozwiązań opartych na sygnałach RF czy świetle widzialnym jest jej większa elastyczność i mniejsze wymagania dotyczące infrastruktury. Akustyczne metody lokalizacji pozwalają na dokładne określenie pozycji w przestrzeni, nawet w obecności niewielkich przeszkód, a ich koszt wciąż pozostaje konkurencyjny. Jednak w systemach lokalizacyjnych opartych na infrastrukturze, ze względu na ograniczony zasięg transmisji, zazwyczaj wymaga się zastosowania wielu węzłów zakotwiczonych w celu pokrycia większych przestrzeni. W przypadku systemów bezinfrastrukturalnych, pomiary wymagają, aby urządzenia były w pobliżu, co wiąże się z koniecznością wstępnego zbierania odcisków lokalizacyjnych lub stosowania bardziej czasochłonnych metod obliczeniowych.

Technologia akustyczna ma również swoje zastosowanie w śledzeniu obiektów w ruchu. Istnieją dwa główne podejścia do śledzenia: oparte na urządzeniach emitujących sygnały akustyczne i bez urządzeń. W przypadku systemów opartych na urządzeniach, takich jak AAMouse, akustyczne śledzenie urządzeń mobilnych, jak telefon czy smartwatch, pozwala na precyzyjne określenie ich lokalizacji na podstawie zmian częstotliwości odebranych sygnałów. Dzięki zastosowaniu odpowiednich algorytmów filtracji, takich jak filtr Kalman’a, możliwe jest osiągnięcie dokładności na poziomie centymetrów. Jednak błędy śledzenia mogą akumulować się w czasie, co sprawia, że takie rozwiązania są mało efektywne w długoterminowym śledzeniu. W tym przypadku można częściowo zniwelować ten problem, włączając mapy i algorytmy filtracji cząsteczkowej, co jednak wiąże się ze zwiększeniem kosztów obliczeniowych.

Zaawansowane systemy, takie jak CAT, podnoszą precyzję śledzenia do poziomu subcentymetra, stosując technologię mieszania sygnałów chirp. Poprzez precyzyjniejsze oszacowanie przesunięcia Dopplera oraz synchronizację sygnałów, takie systemy pozwalają na ścisłe monitorowanie ruchu obiektów, jak np. dronów, w przestrzeni 3D. Użycie technik takich jak MUSIC pozwala na eliminację efektów wielościeżkowych, co znacznie poprawia stabilność systemu. Dzięki temu można precyzyjnie śledzić pozycję drona w czasie rzeczywistym, osiągając błędy rzędu subcentymetra.

W kontekście rzeczywistości wirtualnej, systemy takie jak MilliSonic wykorzystują sygnały akustyczne do śledzenia urządzeń w przestrzeni wirtualnej. Zestaw mikrofoniowy w połączeniu z urządzeniem emitującym sygnał pozwala na obliczenie pozycji w przestrzeni 3D, co ma szerokie zastosowanie w aplikacjach VR.

Wszystkie te rozwiązania opierają się na tej samej podstawowej idei – wykorzystaniu fal akustycznych do dokładnej lokalizacji i śledzenia obiektów. Sygnały akustyczne stanowią potężne narzędzie do precyzyjnej analizy przestrzeni i ruchu, oferując szereg korzyści w porównaniu do innych metod lokalizacji, zwłaszcza w zamkniętych przestrzeniach lub tam, gdzie tradycyjne technologie napotykają na trudności.

Jakie metody wykorzystywane są do diagnostyki słuchu i oceny zdrowia ucha?

Diagnostyka słuchu, w tym ocena funkcji ucha wewnętrznego, jest kluczowym aspektem we współczesnej medycynie, szczególnie w diagnostyce chorób związanych z układem słuchu. Oto jak wygląda proces wykrywania i oceny odpowiedzi akustycznych, takich jak otoakustyczne emisje (OAE), które pomagają w diagnostyce różnych stanów zdrowia ucha.

Otoakustyczne emisje (OAE) są wykorzystywane jako narzędzie do oceny funkcji ucha wewnętrznego. W szczególności, emisje wywołane przez ton podwójnej częstotliwości (DPOAE) oraz krótkotrwałe emisje wywołane dźwiękiem (TEOAE) stanowią podstawę testów diagnostycznych. W przypadku DPOAE dwa tony o różnych częstotliwościach, f1 i f2, są emitowane do ucha, a mikrofon w uchu rejestruje dźwięki odbite, umożliwiając ocenę, czy w spektrum częstotliwości pojawia się odpowiednia harmonia przy 2f1 - f2. Kluczowym elementem analizy jest stosunek sygnału do szumu (SNR), który pozwala określić, czy sygnał oparte na OAE wyraźnie wyróżnia się ponad poziomem szumu tła. Aby uzyskać wynik „przechodzi” w teście przesiewowym, SNR musi przekroczyć określony próg, co wskazuje na zdrową funkcję ślimaka.

W przypadku TEOAE, dźwiękowy impuls (np. kliknięcie) o szerokim paśmie częstotliwości wywołuje odpowiedź w uchu, którą można zarejestrować w kanale słuchowym. Aby rozróżnić nieliniowe odpowiedzi OAE od elementów liniowych oraz echa samego bodźca, stosuje się metodę nieliniową, w której używa się sekwencji kliknięć o różnej amplitudzie i polaryzacji. Analiza odpowiedzi pozwala na usunięcie elementów liniowych, pozostawiając jedynie emisje nieliniowe i szum. Podobnie jak w przypadku DPOAE, istotne jest zmierzenie zarówno poziomu szumu tła, jak i siły sygnału. Aby zminimalizować wpływ szumu losowego, wielokrotne odpowiedzi są porównywane, a średnia pozwala na oszacowanie komponentu sygnału. SNR oblicza się na podstawie tych pomiarów i, podobnie jak w DPOAE, porównuje się go z określonym progiem, uzyskując wynik „przechodzi” lub „odrzuca”.

Jednakże testy OAE napotykają na trudności związane z urządzeniami, które nie zostały zaprojektowane do precyzyjnego rejestrowania tych emisji. Wiele urządzeń ma problemy z akustycznymi interfejsami, które mogą zaciemniać sygnał OAE w obecności zakłóceń tła, co może prowadzić do błędnej oceny zdrowia ślimaka.

Coraz częściej rozwijane są także technologie diagnostyczne, takie jak otoskopia pneumatyczna czy tympanometria, które w połączeniu z urządzeniami konsumenckimi, mogą służyć jako narzędzia do monitorowania stanu zdrowia ucha w czasie rzeczywistym. Takie urządzenia są wyposażone w słuchawki z mikrofonem i głośniki, a w przypadku bardziej zaawansowanych modeli, mogą również mieć funkcje aktywnej redukcji szumów. Moduł do oceny stanu ucha działa poprzez emisję sygnałów akustycznych przez głośnik, które następnie odbijają się od struktur ucha i są rejestrowane przez mikrofon. Zmiana w kształcie odbicia dźwięku może wskazywać na różne problemy ze zdrowiem ucha, takie jak nagromadzenie woskowiny, zapalenie ucha środkowego (otitis media) czy pęknięcie błony bębenkowej.

Choroby takie jak zapalenie ucha środkowego mogą powodować stan zapalny i gromadzenie się płynu za błoną bębenkową. Nagromadzenie woskowiny lub blokada przewodu słuchowego mogą prowadzić do znacznych zakłóceń w odbiciu dźwięku w obrębie kanału słuchowego. Pęknięcie błony bębenkowej skutkuje natomiast ujemnym ciśnieniem, wypływem ropy i zaangażowaniem błony środkowej. W wyniku tych zmian w drodze transmisji dźwięku, pojawiają się charakterystyczne zmiany w obrazie spektrum akustycznego, które można wykryć za pomocą algorytmów analizy akustycznej. Do analizy tego typu danych stosuje się różnorodne cechy statystyczne, takie jak skośność, kurtoza, płaskość, jitter i shimmer, które pozwalają ocenić, jak bardzo odbicie dźwięku różni się od normy. Takie podejście może być wspierane przez techniki uczenia głębokiego, które pomagają w klasyfikacji stanu ucha na podstawie zebranych danych akustycznych.

Warto dodać, że w kontekście monitorowania zdrowia ucha, zaawansowane technologie takie jak systemy oparte na sztucznej inteligencji (AI) mogą znacząco poprawić dokładność diagnoz. Połączenie technik akustycznych z uczeniem maszynowym pozwala na tworzenie inteligentnych systemów diagnostycznych, które mogą w czasie rzeczywistym oceniać stan zdrowia ucha i dostarczać informacji o ewentualnych problemach zdrowotnych.