W rozwiązaniu stacjonarnym, amplituda drgań układu charakteryzuje się zmiennością w zależności od współczynnika tłumienia. Zjawisko rezonansu występuje, gdy częstotliwość napędu układu pokrywa się z jego częstotliwością naturalną, co prowadzi do maksymalnego wychylenia układu. Częstotliwość rezonansowa, oznaczona jako ωr\omega_r, oblicza się jako:

ωr=ω012η2\omega_r = \omega_0 \sqrt{1 - 2 \eta^2}

gdzie ω0\omega_0 to częstotliwość naturalna układu, a η\eta to współczynnik tłumienia. Dla tego układu, jak pokazano na przykładzie, zmiany współczynnika tłumienia mogą znacząco wpływać na amplitudę drgań, co może być widoczne na wykresie. W przypadku rezonansu, układ osiąga maksymalne wychylenie, gdy jego częstotliwość napędu pokrywa się z częstotliwością naturalną. To zjawisko ma szerokie zastosowanie, nie tylko w materiałach stałych, ale także w akustycznych rezonatorach wykorzystujących powietrze jako medium.

Przykładami takich rezonatorów są rezonatory Helmholtza, rezonatory ćwierćfalowe i rezonatory membranowe. Popularnym przykładem rezonatora Helmholtza jest pusta butelka po napoju. Rezonans Helmholtza zachodzi, gdy powietrze przepływa przez otwór takiej pustej butelki. Dźwięk wytwarzany w tym przypadku jest charakterystyczny dla układu akustycznego, który traktowany jest jako układ sprężysty, a analiza tego zjawiska opiera się na założeniu, że długość fali dźwięku jest znacznie większa od wymiarów rezonatora.

Takie urządzenia akustyczne, traktowane jako harmoniczne oscylatory, mają dwa stopnie swobody. Pierwszy odpowiada za masę powietrza w szyjce rezonatora, drugi za elastyczność powietrza w głównej części rezonatora. W przypadku pustej butelki powietrze w szyjce pełni rolę masy, natomiast powietrze w głównym korpusie odpowiada za elastyczność. Razem tworzą one układ oscylacyjny o specyficznej częstotliwości rezonansowej, która może zostać aktywowana przez przepływ powietrza przez otwór.

Spostrzegana wysokość tonu dźwięku zależy od równowagi między masą układu a jego sztywnością. Zmieniając objętość powietrza w szyjce oraz w głównym korpusie, można dostosować częstotliwość rezonansową. Na przykład, szerszy otwór prowadzi do wyższej częstotliwości z powodu zmniejszenia masy oscylującego powietrza. Zwiększenie objętości lub długości szyjki rezonatora skutkuje niższą częstotliwością, ponieważ większa masa powietrza wymaga więcej energii do wytworzenia drgań.

Obliczenie częstotliwości rezonansowej rezonatora jamowego można ogólnie wyrazić wzorem:

frezonansu=c2πsvlf_{\text{rezonansu}} = \frac{c}{2 \pi} \sqrt{\frac{s}{v l}}

gdzie cc to prędkość dźwięku, ss to powierzchnia otworu, vv to objętość komory rezonatora, a ll to długość szyjki. Zrozumienie tych zasad ma kluczowe znaczenie w kontekście technologii wykrywania akustycznego, na przykład w analizie zjawiska efektu okluzji w kanale słuchowym, czy w projektowaniu rezonatorów akustycznych do selektywnego wzmacniania sygnałów akustycznych modulated przez dane biometryczne w celach autoryzacji.

Kolejnym istotnym zjawiskiem, które występuje w układach akustycznych, jest nieliniowość. Układy akustyczne wykazują nieliniowość, gdy ich odpowiedź nie jest proporcjonalna do wejściowego sygnału. Ta nieliniowość prowadzi do różnych efektów, takich jak zniekształcenia harmoniczne, stromość fali czy intermodulacja. Zjawisko to można zaobserwować zarówno w kanałach akustycznych powietrznych, jak i strukturalnych, a także w przetwornikach akustycznych, takich jak głośniki czy mikrofony.

W kanałach akustycznych powietrznych nieliniowość staje się widoczna przy bardzo intensywnych dźwiękach, takich jak te generowane przez silniki odrzutowe czy wybuchy, lub przy sygnałach o wysokiej częstotliwości, jak ultradźwięki. W takich warunkach dochodzi do gwałtownych wahań ciśnienia powietrza, co prowadzi do zniekształceń fal dźwiękowych oraz powstawania fal uderzeniowych. Przykładem praktycznym tego efektu są parametryczne głośniki, które wykorzystują fale ultradźwiękowe do generowania silnie skupionego strumienia dźwięku, dzięki nieliniowemu oddziaływaniu z powietrzem.

Nieliniowość w materiałach stałych może wynikać z działających na nie zbyt dużych sił lub z obecności defektów, takich jak pęknięcia czy mikropęknięcia. W takich warunkach fale dźwiękowe nie propagują równomiernie, a doświadczają zniekształceń, generacji harmonicznych i sprzęgania różnych trybów wibracji. Nieliniowość w głośnikach i mikrofonach wynika zarówno z niedoskonałości mechanicznych, jak i elektrycznych, w tym z nieliniowości w ruchu membrany czy nasycenia cewki magnetycznej, a także zniekształceń wprowadzanych przez obwody wzmacniaczy.

Niezależnie od tego, czy nieliniowość jest wynikiem wady konstrukcyjnej, czy też zaplanowanego efektu, jej obecność w układzie akustycznym prowadzi do tworzenia nowych częstotliwości. Dla przykładu, gdy dwie czyste fale dźwiękowe o częstotliwościach f1f_1 i f2f_2 wchodzą w interakcję w kanale akustycznym, generują częstotliwości na różnicy f2f1f_2 - f_1, a także na sumie f1+f2f_1 + f_2, tworząc w ten sposób nowe komponenty sygnału. Zjawisko to, choć może powodować niepożądane zniekształcenia, w niektórych zastosowaniach jest wykorzystywane celowo, na przykład w komunikacji akustycznej opartej na ultradźwiękach, czy w akustycznych systemach skierowanych przestrzennie.

Efektywne systemy wykrywania akustycznego wymagają głębokiego zrozumienia charakterystyki propagacji fal akustycznych. Przykładem może być projektowanie systemów do rozległego monitorowania temperatury, gdzie istotne jest poznanie wpływu temperatury na propagację sygnałów akustycznych w powietrzu. Z kolei, zrozumienie czynników wpływających na rozpraszanie fal akustycznych w materiałach strukturalnych jest kluczowe dla rozwoju technologii, które opierają się na pomiarach odległości w warunkach niezależnych od użytkownika.

Jak zaprojektować fale akustyczne do systemów sensorycznych?

W procesie projektowania fal akustycznych dla systemów sensorycznych, kluczowe jest przejście przez kilka etapów, poczynając od określenia parametrów systemu. Do najważniejszych z nich należą szerokość pasma sygnału BB, częstotliwość próbkowania fsf_s, częstotliwość nośną fcf_c oraz czas trwania fali sensorycznej TT. Na podstawie tych parametrów generowany jest kod ortogonalny XOCXOC, którego długość równa się B×TB \times T. W przypadku, gdy długość ta nie jest idealnie zgodna z wymaganą, preferowane jest drobne dostosowanie czasu trwania TT, aby zachować właściwości autokorelacji wybranego kodu. Powstały kod jest następnie próbkowany przy współczynniku interpolacji fs/Bf_s/B, aby uzyskać sygnał bazowy sbase(t)s_{\text{base}}(t). Interpolację tę można również przeprowadzić w dziedzinie częstotliwości, dodając zera do końca sygnałów, co pozwala uzyskać sygnał w postaci pasma podstawowego.

Kolejnym krokiem jest podniesienie sygnału do częstotliwości pośredniej (IF) za pomocą przesunięcia częstotliwości:

sIF(t)=sbase(t)cos(2πfct)s_{\text{IF}}(t) = s_{\text{base}}(t) \cos(2\pi f_c t)

Sygnał sIF(t)s_{\text{IF}}(t) jest gotowy do transmisji przez głośniki. Po stronie odbiorczej proces jest odwrotny: odbierany sygnał rIF(t)r_{\text{IF}}(t) jest najpierw przekształcany do pasma podstawowego rbase(t)r_{\text{base}}(t) za pomocą operacji demodulacji:

rbase(t)=LPF{rIF(t)cos(2πfct)}r_{\text{base}}(t) = \text{LPF}\{r_{\text{IF}}(t) \cos(2\pi f_c t)\}

Następnie przeprowadza się operację korelacji między rbase(t)r_{\text{base}}(t) a sbase(t)s_{\text{base}}(t) w celu precyzyjnej synchronizacji. Na podstawie uzyskanego sygnału można wyodrębnić różne charakterystyki, takie jak faza czy widmo, które służą do detekcji i analizy w systemach sensorycznych.

Przykład generowania kodu ortogonalnego dla aplikacji sensorycznych może być zilustrowany przy użyciu sekwencji ZC (Zadoff-Chu). Załóżmy, że system sensoryczny działa z częstotliwością ramki 100 Hz, co oznacza czas trwania sygnału T=10msT = 10 \, \text{ms}. Przy częstotliwości próbkowania fs=48kHzf_s = 48 \, \text{kHz}, mamy 480 próbek na ramkę. Jeśli dostępna szerokość pasma wynosi B=4kHzB = 4 \, \text{kHz}, a częstotliwość nośna to fc=20kHzf_c = 20 \, \text{kHz}, to częstotliwość IF sygnału obejmuje zakres 18-22 kHz, co zapewnia, że sygnał jest niesłyszalny dla człowieka.

Długość ortogonalnego kodu dla tego przypadku wynosi B×T=4000×0.01=40B \times T = 4000 \times 0.01 = 40, ale ze względu na wymagania dotyczące sekwencji o długości pierwszej liczby pierwszej wybieramy NZC=41N_{\text{ZC}} = 41 z indeksem pierwiastka q=7q = 7. Właściwości autokorelacji wygenerowanej sekwencji ZC są znakomite, co ilustruje przedstawiony wykres.

Po wygenerowaniu sekwencji ZC, przekształcamy ją w sygnał w paśmie podstawowym ZC. Można to zrobić albo przez interpolację w dziedzinie czasu, albo przez dodanie zer w dziedzinie częstotliwości. Aby zachować integralność widma, wybieramy metodę dodawania zer. Zastosowanie transformacji Fouriera (FFT) do sekwencji ZC umożliwia podział widma na dwie symetryczne części, co zapewnia, że sygnał w paśmie podstawowym zachowuje swoje właściwości.

Po interpolacji sygnał w paśmie podstawowym jest podnoszony do częstotliwości pośredniej, jak opisano wcześniej. Można to zrobić za pomocą funkcji rzeczywistej części sygnału:

sIF(t)=Re{sbase(t)ej2πfct}s_{\text{IF}}(t) = \text{Re}\{s_{\text{base}}(t) e^{j 2 \pi f_c t}\}

Alternatywnie, możemy osobno przeprowadzić konwersję rzeczywistej i urojonej części sygnału bazowego. Ostateczny sygnał IF jest następnie transmitowany przez głośniki.

Po stronie odbiorczej sygnał rIF(t)r_{\text{IF}}(t) przechodzi proces de-modulacji, który przekształca go ponownie do pasma podstawowego rbase(t)r_{\text{base}}(t). Sygnał bazowy poddany jest następnie filtracji dolnoprzepustowej (LPF), co usuwa wysokoczęstotliwościowe komponenty wprowadzone podczas procesu mieszania. Uzyskany sygnał w paśmie podstawowym jest gotowy do dalszej analizy, w tym analizy fazy, widma oraz czasu przelotu, co ma kluczowe znaczenie w systemach sensorycznych.

Przy projektowaniu systemów sensorycznych istotne jest również dobór odpowiednich parametrów, takich jak szerokość pasma i czas trwania sygnału. Szerokość pasma ma szczególne znaczenie, gdyż wpływa na rozdzielczość w dziedzinie częstotliwości oraz na czułość systemu. Szersze pasmo sygnału pozwala na uzyskanie bardziej precyzyjnych wyników w detekcji, jednak wiąże się to z większymi wymaganiami sprzętowymi, co należy uwzględnić przy projektowaniu systemów. Z kolei długość sygnału wpływa na jego zdolność do rozróżniania różnych sygnałów w obecności szumów i zakłóceń.

Jakie są podstawy akustycznego wykrywania i symulacji akustycznych?

Akustyczne modelowanie i wykrywanie to kluczowe zagadnienia, które pozwalają na rozwiązywanie problemów związanych z rozprzestrzenianiem dźwięku w różnych środowiskach. Aby stworzyć dokładny model akustyczny, należy uwzględnić wiele czynników wpływających na propagację fali dźwiękowej, w tym właściwości przestrzeni, materiały powierzchni, a także charakterystyki samego medium. Do najczęściej stosowanych metod należy akustyka geometryczna, której zasady są podobne do zasad optyki geometrycznej. Opiera się ona na symulacji rozprzestrzeniania dźwięku za pomocą śledzenia promieni dźwiękowych, które odbijają się od powierzchni. Takie podejście pozwala na wyliczenie rozkładu dźwięku w pomieszczeniu, w którym powierzchnie odbijające mogą prowadzić do wielokrotnych odbić fali akustycznej, co może znacząco wpływać na intensywność i jakość dźwięku.

W przypadku zastosowań związanych z akustyką architektoniczną i hałasem środowiskowym, przyjęcie modelu akustyki geometrycznej jest stosunkowo proste, ponieważ spełnia ono pewne warunki: wymiary przestrzeni są wystarczająco duże w porównaniu do długości fali dźwiękowej, źródło dźwięku oraz odbiornik znajdują się w odpowiednich odległościach względem siebie, a dyfrakcja jest zaniedbywana. Warunki te pozwalają na stworzenie efektywnych obliczeniowo symulacji, które są stosunkowo proste do implementacji na urządzeniach powszechnego użytku.

W ramach akustyki geometrycznej wykorzystywane są dwie podstawowe metody: śledzenie promieni dźwiękowych (ray tracing) oraz metoda źródeł obrazów. W metodzie śledzenia promieni dźwiękowych, promienie są śledzone od źródła dźwięku w różnych kierunkach, odbijają się od powierzchni zgodnie z prawami odbicia, a po drodze mogą przechodzić przez kilka odbić. Ta metoda jest bardzo skuteczna w symulacjach akustycznych o złożonej geometrii, ponieważ uwzględnia interakcje dźwięku z powierzchniami odbijającymi, a także pozwala na uwzględnienie wielu odbić. Jednakże, w szczególności w bardzo refleksyjnych przestrzeniach, proces ten może stać się obliczeniowo intensywny.

Z kolei metoda źródeł obrazów jest używana głównie w przestrzeniach o regularnej geometrii i z ograniczoną liczbą powierzchni odbijających, jak w akustyce pomieszczeń. Zamiast śledzenia promieni, metoda ta polega na tworzeniu wirtualnych źródeł dźwięku, które reprezentują źródła dźwięku odbite od powierzchni. Każde takie źródło może generować kolejne, wyższe rzędy obrazów, co pozwala na dokładne modelowanie wielu odbić, bez konieczności bezpośredniego śledzenia każdego promienia. Te dwie metody – ray tracing oraz źródła obrazów – mogą prowadzić do takich samych wyników, jeśli uwzględnione zostaną wszystkie powierzchnie odbijające, ale w praktyce metoda obrazów jest często wybierana w prostszych aplikacjach.

Ponadto, w praktyce akustyki geometrycznej uwzględnia się również absorpcję dźwięku przez powierzchnie. Wartości współczynnika absorpcji są różne w zależności od materiału – na przykład metal ma bardzo niski współczynnik absorpcji (0.01), podczas gdy materiał taki jak wykładzina czy zasłona może mieć współczynnik absorpcji na poziomie 0.8-0.9. W kontekście akustyki pomieszczeń, aby uprościć obliczenia, często ogranicza się liczbę odbić, które są brane pod uwagę. Dla typowych zastosowań wystarczy uwzględnić tylko pierwsze trzy odbicia.

Warto również zauważyć, że w zależności od typu pomieszczenia oraz jego przeznaczenia, skuteczność różnych metod może się znacznie różnić. Z tego względu inżynierowie akustycy opracowali szereg narzędzi do symulacji akustycznych, takich jak Pyroomacoustics czy RAVEN, które implementują zarówno metodę śledzenia promieni, jak i metodę źródeł obrazów. Dzięki tym narzędziom możliwe jest uzyskanie wiarygodnych wyników przy stosunkowo niskich wymaganiach obliczeniowych, co czyni je dostępnymi dla szerokiego kręgu użytkowników.

Symulacje akustyczne, choć oparte na stosunkowo prostych zasadach fizycznych, mogą być bardzo pomocne w projektowaniu przestrzeni, które mają spełniać określone normy akustyczne. Przy odpowiednim doborze metod i narzędzi, możliwe jest uzyskanie dokładnych wyników w krótkim czasie, co ma istotne znaczenie zwłaszcza w projektowaniu pomieszczeń publicznych, takich jak sale koncertowe, teatry, czy pomieszczenia biurowe.

Dla inżynierów i projektantów akustycznych istotne jest również rozważenie praktycznych ograniczeń technologicznych. W implementacji algorytmów przetwarzania sygnałów w systemach akustycznych mogą wystąpić liczne wyzwania związane z synchronizacją systemów, opóźnieniem sygnału, a także z jego słyszalnością. Te aspekty należy brać pod uwagę nie tylko w przypadku profesjonalnych systemów akustycznych, ale także przy rozwoju urządzeń konsumenckich, takich jak urządzenia IoT, które stają się coraz powszechniejsze w różnych aplikacjach akustycznych.