Optymalizacja w kontekście Federated Edge Learning (FEEL) stawia przed nami trudne wyzwania, zwłaszcza gdy chodzi o selekcję urządzeń, które mają wziąć udział w danej rundzie komunikacyjnej. Celem jest nie tylko wybór urządzeń, które spełniają określone wymagania dotyczące MSE (Mean Squared Error), ale także zachowanie wydajności i efektywności całego systemu. Jednym z najistotniejszych problemów jest maksymalizacja liczby urządzeń, które mogą być wybrane, przy jednoczesnym spełnieniu wymagań dotyczących MSE oraz dodatkowych warunków regularności.

Początkowo problem można przedstawić w następujący sposób: należy zmaksymalizować liczbę urządzeń, które spełniają warunki ograniczeń MSE, przy zachowaniu warunku regularności, tj. minimalnej wartości normy wektora m. Jednak taki problem jest skomplikowany z powodu obecności nieliniowych, kwadratowych ograniczeń. Aby poradzić sobie z tym wyzwaniem, możemy wykorzystać technikę tzw. "liftingu" macierzy. Zamiast bezpośrednio pracować z wektorem m, przekształcamy go w macierz o dodatniej semidefinitności (PSD), co umożliwia przekształcenie problemu w formę optymalizacji rzadkiej i o niskiej randze. W ten sposób zyskamy nową postać problemu, którą będzie można rozwiązywać efektywnie przy pomocy nowoczesnych metod algorytmicznych.

Reformułowany problem optymalizacji przy użyciu liftingu macierzy może wyglądać następująco: minimalizujemy liczbę niezerowych elementów wektora x, przy zachowaniu warunków ograniczeń MSE oraz warunków dotyczących normy i rangi macierzy M. Chociaż ten problem jest nadal nieliniowy i nieconvex, dzięki zastosowaniu metod takich jak podejście różnicy-konwekcyjnej (DC) możemy opracować algorytmy, które skutecznie rozwiązują go w kontekście FEEL, zwiększając liczbę urządzeń, które spełniają wymagania.

Aby przybliżyć działanie takiego podejścia, można posłużyć się dwoma głównymi etapami. Pierwszy etap to indukowanie rzadkości, czyli wyznaczanie wektora x, który minimalizuje różnicę pomiędzy normą 1 a normą Ky Fan k. W tym przypadku normy te są wykorzystywane do nakładania ograniczeń na liczbę urządzeń, które mogą być wybrane w danej rundzie. Drugi etap polega na wykrywaniu wykonalności, czyli sprawdzeniu, czy dany zestaw urządzeń spełnia wymagania dotyczące MSE. Proces ten odbywa się poprzez rozwiązanie optymalizacji z wykorzystaniem liftingu macierzy, co pozwala uzyskać dokładne rozwiązania w kontekście ranku macierzy.

Podstawowe podejście różnicy-konwekcyjnej (DC) do problemu rzadkich i niskorankowych funkcji polega na reprezentacji funkcji 0-normy (rzadkości) za pomocą różnicy pomiędzy normą 1 a normą Ky Fan k. Dzięki temu możemy stworzyć algorytmy, które pozwalają na indukowanie rzadkości i wybór urządzeń w sposób kontrolowany i efektywny. Celem jest jak najwięcej urządzeń, które mogą brać udział w danej rundzie komunikacyjnej, przy jednoczesnym spełnieniu wszystkich wymaganych ograniczeń.

Zaproponowane podejście oparte na reprezentacji DC daje także możliwość precyzyjnego kontrolowania ranku macierzy, co jest kluczowe dla zapewnienia prawidłowej struktury macierzy M w procesie selekcji urządzeń. Technika ta jest szczególnie przydatna w kontekście selekcji urządzeń, gdzie liczba urządzeń, które mogą być wybrane, zależy nie tylko od spełnienia wymagań MSE, ale również od utrzymania niskiej ranki całego systemu.

Po osiągnięciu minimalnej wartości celu w procesie indukowania rzadkości, możemy przejść do wykrywania wykonalności dla różnych zestawów urządzeń. Selekcja urządzeń odbywa się na podstawie porównania wartości wektora x dla różnych urządzeń, co pozwala na wybranie optymalnego zestawu, który spełnia wszystkie wymagania. Rozwiązanie uzyskane w tym procesie, przy odpowiednim liftingu macierzy, gwarantuje, że wszystkie wybrane urządzenia będą mogły uczestniczyć w danej rundzie komunikacyjnej bez naruszenia ograniczeń MSE.

Metoda DC w kontekście optymalizacji w FEEL pozwala na znaczne zwiększenie liczby urządzeń, które mogą brać udział w federacyjnym uczeniu, jednocześnie dbając o to, by wszystkie warunki dotyczące jakości komunikacji i efektywności systemu były spełnione. Algorytm wypracowany w tym rozdziale stanowi solidną podstawę do rozwiązywania złożonych problemów optymalizacyjnych w systemach opartych na urządzeniach brzegowych, gdzie selekcja urządzeń ma kluczowe znaczenie.

Jak optymalizować uczenie federacyjne w systemach bezprzewodowych? Analiza algorytmu drugiego rzędu

W kontekście uczenia federacyjnego (FEEL) w środowisku bezprzewodowym, optymalizacja komunikacji stanowi jeden z kluczowych aspektów wpływających na efektywność całego procesu. W szczególności, algorytmy drugiego rzędu, takie jak proponowane w tym rozdziale, stanowią istotny postęp w stosunku do tradycyjnych podejść pierwszorzędowych. Dzięki zastosowaniu techniki obliczeń „over-the-air” i podejściu drugiego rzędu, możliwe jest poprawienie zarówno wydajności komunikacji, jak i jakości nauki w systemach FEEL.

W eksperymentach zastosowano cztery standardowe zbiory danych z biblioteki LIBSVM: Covtype, a9a, w8a oraz phishing. Zbiory te zostały rozdzielone na m = 20 urządzeń, a serwer wyposażono w k = 5 anten. Kanały zostały opisane współczynnikami małoskalowej zmienności {h′ t,i}, pomnożonymi przez współczynnik strat ścieżki PLi, co pozwalało na modelowanie rzeczywistych warunków komunikacyjnych w systemie bezprzewodowym. Przeprowadzono także optymalizację parametrów systemowych, takich jak wielkość kroku α, która była określana za pomocą metody wyszukiwania wstecznego, aby spełniała warunki Armijo-Goldsteina.

Eksperymenty wykazały skuteczność podejścia optymalizacyjnego zaproponowanego w tym rozdziale. Testowano różne ustawienia algorytmu, w tym idealną agregację (gdzie model był agregowany bez wpływu kanału bezprzewodowego) oraz różne metody optymalizacji wiązania odbiornika: poprzez SDR (stochastyczną optymalizację rozkładu wstępnego) oraz DCA (algorytm przyrostowy). Zgodnie z wynikami, optymalizacja z użyciem metody GS+DCA okazała się bardziej efektywna, zwłaszcza w kontekście wyboru urządzeń do procesu uczenia. Skomplikowane środowiska, takie jak heterogenność odległości między urządzeniami oraz zróżnicowanie wielkości danych, były skutecznie obsługiwane dzięki temu podejściu.

W ramach testów, zmienność odległości urządzeń (od 50 do 220 metrów) oraz zróżnicowanie wielkości danych (od 0.008n do 1.11n) zostały uwzględnione, co pozwoliło na realistyczną symulację rzeczywistych warunków operacyjnych. Wyniki potwierdziły, że dobór urządzeń w połączeniu z optymalizacją beamformera (nadajnika-odbiornika) przy użyciu DCA minimalizuje błędy w każdym kroku iteracyjnym, prowadząc do mniejszej luki optymalności w porównaniu z tradycyjnymi podejściami.

Testy przeprowadzone na zbiorach danych Covtype, a9a, w8a oraz phishing pokazały znaczną poprawę dokładności testów. Zastosowanie metody GS+DCA pozwoliło na osiągnięcie wyników zbliżonych do idealnej agregacji, mimo obecności błędów akumulacyjnych w każdej iteracji, które zostały skutecznie zminimalizowane dzięki precyzyjnej optymalizacji systemowej. Poprawa dokładności testów była wynikiem mniejszej różnicy optymalności, co z kolei prowadziło do wyższej dokładności modelu.

Podstawowym celem omawianego podejścia jest zwiększenie wydajności komunikacji oraz poprawa wyników nauki w środowiskach rozproszonych, które charakteryzują się zróżnicowaniem urządzeń, odległości i danych. Wprowadzenie algorytmu drugiego rzędu w połączeniu z technologią „over-the-air” znacząco poprawia efektywność obliczeniową oraz zmniejsza wpływ problemów związanych z heterogennością.

Ważne jest, aby czytelnik zrozumiał, że w kontekście algorytmów federacyjnych, zastosowanie tradycyjnych metod pierwszorzędowych w dużych systemach rozproszonych często prowadzi do niskiej efektywności, zwłaszcza gdy zmienne takie jak odległość czy heterogenność danych stają się istotne. Algorytmy drugiego rzędu, jak te opisane w tym rozdziale, dają wyraźną przewagę w takich przypadkach. Dodatkowo, skuteczne zarządzanie zasobami, w tym optymalizacja wyboru urządzeń i beamformera, jest kluczowe dla minimalizacji błędów i uzyskania lepszych wyników w bardziej złożonych scenariuszach.