Współczesne problemy optymalizacji w kontekście uczenia maszynowego rozproszonego, szczególnie w architekturach takich jak Federated Edge Learning (FEEL), wymagają skutecznych technik minimalizacji funkcji strat, które uwzględniają ograniczenia związane z urządzeniami mobilnymi, ich połączeniami sieciowymi oraz różnorodnymi wymaganiami dotyczącymi wydajności. Jednym z podejść, które może znacznie poprawić efektywność procesu uczenia w takich systemach, jest wykorzystanie algorytmu DC (Difference of Convex functions).

Problem ten opiera się na minimalizacji różnicy dwóch funkcji silnie wypukłych. Jest to klasyczny problem, który w praktyce wymaga odpowiednich narzędzi do przeprowadzenia kolejnych iteracji obliczeniowych. Zdefiniowanie funkcji g1, g2, h1 i h2 w sposób, który zapewnia, że są one silnie wypukłe w odniesieniu do parametrów α, stanowi kluczowy element w konstrukcji algorytmu, pozwalając na uzyskanie optymalnych wyników.

Iteracje algorytmu DC opierają się na przybliżeniu funkcji przy pomocy linii prostych. W pierwszej kolejności, dla każdej iteracji t, rozwiązywana jest optymalizacja przybliżająca problem poprzez liniaryzację części konkawnej, co jest formalnie zapisane jako:
X[t+1]=argminXX(g(X)[h(X[t])+XX[t],Y[t]])X[t+1] = \arg \min_{X \in X} \left(g(X) - \left[ h(X[t]) + \langle X - X[t], Y[t] \rangle \right]\right)

gdzie Y[t]X[t]hY[t] \in \partial X[t] h oznacza subgradient funkcji h w punkcie X[t]X[t].

Taki sposób postępowania umożliwia skuteczne iteracyjne znajdowanie rozwiązań problemów optymalizacyjnych, w tym w szczególności problemów związanych z równoważeniem obciążenia w sieci oraz przydziałem zasobów obliczeniowych w rozproszonych systemach, jak w przypadku FEEL.

Algorytm DC dla problemu PS1 wymaga znalezienia rozwiązania do problemu optymalizacji opartego na funkcji g1 i subgradiencie funkcji h1 w odniesieniu do zmiennych x i M. Ostateczna postać problemu optymalizacji wygląda następująco:

minx,M(g1x[t1]h1,xM[t1]h1,M)\min_{x,M} \left( g1 - \langle \partial x[t-1] h1, x \rangle - \langle \partial M[t-1] h1, M \rangle \right)

z warunkami ograniczającymi na ślad macierzy M oraz dodatniości zmiennych x i M. Analogicznie, iteracja dla problemu PS2 przyjmuje formę podobnego zadania optymalizacyjnego dla funkcji g2 i subgradientów h2.

Subgradienty funkcji h1 i h2 są wyznaczane na podstawie normy x oraz normy Frobeniusa macierzy M. Subgradienty tych funkcji są zapisane odpowiednio:

xh1=xk+αx\partial x h1 = \partial |||x|||k + \alpha x

oraz

Mh1=Mh2=M2+αM\partial M h1 = \partial M h2 = \partial \|M\|^2 + \alpha M

co jest kluczowe dla poprawnej implementacji algorytmu w systemach rozproszonych, gdzie normy te są częścią funkcji strat związanych z przechowywaniem i przetwarzaniem danych lokalnych.

Wykorzystanie tych algorytmów w kontekście FEEL przynosi wymierne korzyści, zwłaszcza gdy porównuje się je z podejściami opartymi na semidefinite relaxation (SDR). Z analizy wyników symulacji wynika, że algorytm DC daje lepsze rezultaty, osiągając mniejsze straty treningowe oraz wyższą dokładność predykcji w porównaniu do metod bazujących na SDR, szczególnie w scenariuszach z większą liczbą anten i urządzeń mobilnych.

Dodatkowo, w kontekście rozwoju systemów uczących się na brzegu sieci, takich jak FEEL, wykorzystanie metod obliczeniowych opartych na agregacji globalnego modelu oraz na pomocy AirComp w połączeniu z algorytmem FedAvg pozwala na uzyskanie wyników równych, a nawet lepszych, niż te osiągane przy pełnej selekcji urządzeń i agregacji lokalnych aktualizacji bez błędów agregacji.

Ważne jest również zrozumienie, że choć klasyczne podejścia bazujące na SDR mogą uprościć problem poprzez relaxację ograniczeń kwadratowych, ich wydajność w przypadku dużych zestawów danych oraz w systemach z wieloma antenami jest ograniczona. SDR nie jest wystarczająco silne w indukcji struktur o niskiej rangi, co skutkuje słabszymi wynikami w bardziej złożonych środowiskach, gdzie struktury te są kluczowe dla osiągnięcia optymalnych rezultatów.

Zatem, dla efektywnej realizacji algorytmów w rozproszonych systemach uczenia maszynowego, jak FEEL, należy brać pod uwagę nie tylko teoretyczne aspekty obliczeniowe, ale także specyficzne wymagania systemowe i techniczne, takie jak liczba urządzeń, jakość połączeń sieciowych czy też struktura danych, które mogą znacząco wpłynąć na ostateczne wyniki procesu optymalizacji.

Jakie wyzwania wiążą się z federacyjnym uczeniem maszynowym bez dostępu do gradientów?

Federacyjne uczenie maszynowe (FEEL) to podejście, które zyskuje na znaczeniu w związku z rosnącym zapotrzebowaniem na efektywne metody trenowania modeli przy minimalnym przesyłaniu danych. W tradycyjnym podejściu, modele są trenowane przez centralny serwer, który zbiera dane z urządzeń brzegowych, przeprowadzając obliczenia na podstawie gradientów uzyskanych z lokalnych danych. Jednak w przypadku, gdy gradienty są niedostępne, co może mieć miejsce w wielu rzeczywistych zastosowaniach, pojawia się potrzeba opracowania alternatywnych metod optymalizacji.

W tradycyjnych algorytmach optymalizacji federacyjnej, takich jak FedAvg, FedPD czy FedNova, informacje o gradientach i/lub hesjanach są wykorzystywane do rozwiązywania problemów optymalizacyjnych. Tego typu podejścia są efektywne, pod warunkiem, że dostęp do gradientów jest możliwy. Niestety, w przypadkach, gdzie analityczne wyrażenia funkcji strat są niedostępne lub ich obliczenie jest kosztowne, uzyskanie gradientów staje się nieosiągalnym wyzwaniem. Przykładem takich przypadków są zastosowania, takie jak federacyjne dostrajanie hiperparametrów, ataki na głębokie sieci neuronowe czy wybór czujników w czasie rzeczywistym, gdzie obliczenia gradientów wymagają skomplikowanych odwrotności macierzy.

Kiedy gradienty nie są dostępne, istnieje potrzeba poszukiwania rozwiązań, które potrafią skutecznie rozwiązywać problemy optymalizacyjne w takich warunkach. W związku z tym, nowe algorytmy zerowego rzędu, takie jak FedZO, stają się coraz bardziej popularne. Algorytmy zerowego rzędu różnią się od tradycyjnych metod, ponieważ nie wymagają dostępu do gradientów, a zamiast tego opierają się na przybliżeniach obliczeniowych, które bazują na samych wartościach funkcji strat.

Chociaż algorytmy zerowego rzędu wciąż są w fazie rozwoju, oferują one istotne zalety w kontekście optymalizacji w federacyjnym uczeniu maszynowym. Przede wszystkim pozwalają na uniknięcie trudności związanych z brakiem gradientów, co czyni je bardzo elastycznymi w kontekście szerokiego zakresu aplikacji. Zamiast polegać na wyrażeniach gradientów, które mogą być trudne do uzyskania lub kosztowne w obliczeniach, algorytmy zerowego rzędu operują na przybliżeniach, które są obliczane bezpośrednio na danych.

Jednym z wyzwań, które pojawia się w federacyjnym uczeniu maszynowym, jest zapewnienie efektywności komunikacji między centralnym serwerem a urządzeniami brzegowymi. W systemach FEEL, gdzie liczba urządzeń brzegowych jest duża, a parametry modeli mają wysoką wymiarowość, komunikacja może stanowić poważne obciążenie. W takich warunkach kluczowe jest znalezienie algorytmu, który nie tylko poradzi sobie z brakiem gradientów, ale także skutecznie zminimalizuje potrzebę przesyłania dużych ilości danych. Algorytm FedZO wprowadza rozwiązanie, które pozwala na częściowe uczestnictwo urządzeń w procesie optymalizacji, co zmniejsza obciążenie komunikacyjne, jednocześnie utrzymując efektywność procesu optymalizacji.

Zanim jednak algorytmy zerowego rzędu staną się powszechnie stosowane, należy przeprowadzić szereg testów i symulacji, które potwierdzą ich skuteczność w praktycznych zastosowaniach. W badaniach wykazano, że FedZO jest w stanie zachować gwarancje zbieżności, nawet w przypadku rozproszonych i dużych zbiorów danych. Kluczową cechą jest to, że algorytm ten nie wymaga pełnej wiedzy o gradientach, co czyni go bardziej elastycznym i odpornym na problemy związane z ich brakiem.

Warto zauważyć, że w kontekście FEEL, gdzie wszystkie urządzenia brzegowe aktywnie uczestniczą w procesie optymalizacji, konieczne jest zastosowanie odpowiednich metod, które uwzględnią specyficzne cechy takiej struktury. Z tego powodu, istnieje konieczność dalszego rozwoju algorytmów zerowego rzędu, które będą mogły działać w skali, zarówno pod względem liczby urządzeń, jak i wymiaru modelu. W tym kontekście, szczególna uwaga powinna być poświęcona również poprawie metod szacowania funkcji strat w takich systemach oraz optymalizacji komunikacji, która pozostaje jednym z kluczowych ograniczeń w dużych rozproszonych sieciach.

Należy również dodać, że rozwój metod zerowego rzędu w kontekście federacyjnego uczenia maszynowego otwiera drzwi do nowych zastosowań, w których tradycyjne podejścia oparte na gradientach nie są wystarczające. Zastosowanie takich metod może być szczególnie korzystne w środowiskach, gdzie dostęp do danych jest ograniczony, a obliczenia na pełnych gradientach są zbyt kosztowne. Wraz z dalszym rozwojem technologii, takich jak 6G, wykorzystanie takich algorytmów w systemach rozproszonych może przyczynić się do rewolucji w podejściu do optymalizacji w sieciach brzegowych.

Jakie wyzwania i rozwiązania stoją przed Federated Edge Learning (FEEL)?

Federated Edge Learning (FEEL) jest innowacyjnym podejściem do rozproszonego uczenia maszynowego, które integruje zalety uczenia federacyjnego oraz rozproszonego przetwarzania na brzegu sieci (edge computing). Współczesne systemy informacyjne generują ogromne ilości danych, a ich analiza w tradycyjny sposób, przez centralne serwery, nie jest już wystarczająca ze względu na wyzwania związane z przepustowością sieci, czasem reakcji oraz kosztami przesyłu danych. FEEL stawia czoła tym wyzwaniom, przenosząc procesy uczenia i analizę danych na urządzenia brzegowe, gdzie dane są zbierane i przetwarzane. Podejście to umożliwia efektywniejsze zarządzanie zasobami sieciowymi, zmniejsza obciążenie infrastruktury centralnej oraz poprawia prywatność użytkowników, ponieważ dane nie muszą opuszczać urządzeń lokalnych.

Rozwój FEEL obejmuje szereg zaawansowanych technik i algorytmów, które wspierają efektywność komunikacyjną, optymalizację zasobów oraz wiarygodną agregację modeli. Kluczowym zagadnieniem jest opracowanie algorytmów optymalizacji, które umożliwiają efektywną współpracę wielu urządzeń w sieci przy minimalnym zużyciu zasobów komunikacyjnych. Algorytmy te pozwalają na "federacyjne" uczenie maszynowe, czyli trenowanie modeli bez konieczności przesyłania wszystkich danych do centralnego serwera. Zamiast tego, poszczególne urządzenia przetwarzają dane lokalnie, a następnie wymieniają tylko zaktualizowane parametry modeli, co znacząco redukuje zużycie pasma sieciowego.

Podstawowym wyzwaniem FEEL jest problem komunikacji między urządzeniami i serwerami centralnymi. Każda iteracja w procesie uczenia wymaga wymiany danych, co może wiązać się z dużymi opóźnieniami, szczególnie w środowiskach o ograniczonej przepustowości. Aby temu zapobiec, wprowadzono innowacyjne techniki kompresji danych oraz strategie synchronizacji, które pozwalają na osiągnięcie wysokiej efektywności komunikacyjnej. Jednym z rozwiązań jest tzw. „agregacja przez powietrze” (Over-the-Air Model Aggregation), która pozwala na bezprzewodową agregację modeli w czasie rzeczywistym, wykorzystując technologię transmisji radiowej, co jest szczególnie istotne w aplikacjach działających w sieciach 5G oraz IoT.

Innym kluczowym elementem FEEL jest odpowiednie zarządzanie zasobami w procesie uczenia. Optymalizacja alokacji zasobów, zarówno obliczeniowych, jak i energetycznych, staje się coraz bardziej istotna, zwłaszcza w przypadku urządzeń o ograniczonych możliwościach obliczeniowych. W związku z tym opracowane zostały algorytmy, które uwzględniają specyfikę sprzętową urządzeń oraz potrzeby związane z zadaniem uczenia maszynowego. Ważnym aspektem jest również dbałość o zabezpieczenie procesu uczenia przed atakami złośliwego oprogramowania oraz zachowanie integralności modelu. W tym kontekście, opracowane zostały algorytmy agregacji modeli, które zapewniają ich wiarygodność i odporność na manipulacje.

Chociaż technologia FEEL posiada ogromny potencjał, wiąże się również z licznymi wyzwaniami, które należy pokonać. Jednym z nich jest zapewnienie odpowiedniego poziomu prywatności danych. Mimo że dane użytkowników nie muszą opuszczać urządzeń, to procesy przetwarzania muszą być odpowiednio zabezpieczone przed dostępem osób nieuprawnionych. Z tego względu, pojawiły się rozwiązania bazujące na kryptografii, które umożliwiają bezpieczną wymianę parametrów modeli przy jednoczesnym zapewnieniu, że dane użytkowników są chronione.

Rozwój FEEL może znacząco wpłynąć na sposób, w jaki przetwarzane są dane w przyszłości. Zastosowania obejmują zarówno inteligentne miasta, systemy transportowe, jak i medycynę. Dzięki tej technologii możliwe staje się tworzenie rozproszonego systemu uczenia maszynowego, który nie tylko jest bardziej efektywny pod względem wykorzystania zasobów, ale także zapewnia większą prywatność użytkowników, zmniejszając ryzyko nieautoryzowanego dostępu do danych.

Istotne jest także to, że w kontekście FEEL kluczowa jest nie tylko optymalizacja algorytmów, ale również dobór odpowiednich architektur sieciowych. W zależności od specyfiki zadania oraz warunków sieciowych, możliwe jest zastosowanie różnych typów architektur, które mogą zmaksymalizować wydajność całego systemu. W przypadku sieci o dużej przepustowości, ważne będzie zapewnienie wysokiej jakości komunikacji między urządzeniami, natomiast w środowiskach o ograniczonej przepustowości – opracowanie metod kompresji danych i synchronizacji procesów.

Aby w pełni wykorzystać potencjał FEEL, należy także położyć duży nacisk na testowanie i weryfikację rozwiązań w realnych warunkach. Symulacje, które wykorzystywane są do analizy algorytmów, mogą w pewnym stopniu odwzorować rzeczywiste warunki, ale to w praktyce okazuje się, które rozwiązania najlepiej sprawdzają się w kontekście rzeczywistych wyzwań sieciowych i technologicznych. Z tego powodu, systemy FEEL muszą być elastyczne, aby mogły dostosować się do zmieniających się warunków, jak zmiany w przepustowości sieci, liczbie urządzeń czy dynamice ich połączeń.

Jak optymalizacja harmonogramu urządzeń i alokacji czasu wpływa na efektywność procesu uczenia federacyjnego wspieranego przez UAV?

W przypadku uczenia federacyjnego wspieranego przez UAV, proces transmisji danych od urządzeń do pojazdu bezzałogowego (UAV) i jego zdolności do optymalizacji łączności mają kluczowe znaczenie dla osiągnięcia pożądanej efektywności uczenia modelu. Zrozumienie tego procesu wymaga uwzględnienia zarówno parametrów systemowych, jak i metod optymalizacji czasu transmisji, zużycia energii oraz współpracy pomiędzy urządzeniami i UAV.

Pierwszym krokiem w analizie jest zrozumienie, jak czas potrzebny na przesyłanie lokalnych modeli przez urządzenia do UAV wpływa na ogólną efektywność procesu. Czas transmisji każdego urządzenia zależy od jego mocy transmisji, szerokości pasma systemu oraz mocy szumów, co określa wzór (6.12). Z kolei czas załadowania modelu lokalnego, opisany równaniem (6.13), jest odwrotnie proporcjonalny do zysku kanału – im lepszy zysk, tym krótszy czas przesyłania. UAV ma możliwość poprawy tego czasu przez ustanawianie połączeń typu line-of-sight i minimalizowanie odległości komunikacyjnych, co prowadzi do mniejszych opóźnień w procesie przesyłania danych.

Za pomocą połączenia równań (6.12) i (6.13) można wyznaczyć zużycie energii urządzenia w czasie przesyłania danych do UAV. Wyrażenie (6.14) pokazuje, że zużycie energii jest funkcją czasu transmisji, mocy kanału i wymiaru modelu. Warto zauważyć, że po zakończeniu transmisji lokalnych modeli przez urządzenia, UAV przeprowadza aktualizację modelu globalnego, który następnie jest nadawany do wszystkich urządzeń. Czas aktualizacji globalnego modelu uwzględnia moc obliczeniową UAV oraz czas transmisji globalnego modelu, co obrazuje wzór (6.15).

Pomimo tego, że czas obliczeń lokalnych na urządzeniach może być znaczny, UAV dysponuje znacznie większą mocą obliczeniową (f0), dzięki czemu czas potrzebny na aktualizację modelu globalnego jest mniejszy. Ponadto, UAV transmituje globalny model do urządzeń, które wcześniej wysłały swoje lokalne modele. Ostateczny czas przesyłania danych przez wszystkie urządzenia w danej rundzie jest ograniczony przez dostępny czas w danym slocie czasowym, co można wyrazić nierównością ∑K k=1 τk[n] ≤ δ[n] − tcomp[n].

Analiza zbieżności algorytmu wykorzystywanego w FEEL opiera się na założeniu, że funkcja straty jest płynna (założenie 12), a gradienty próbki są ograniczone (założenie 14). Zbieżność algorytmu jest również zależna od odpowiedniego doboru urządzeń w każdej rundzie. Zwiększenie liczby urządzeń w harmonogramie może zmniejszyć błąd agregacji, ale równocześnie prowadzi do zwiększenia obciążenia komunikacyjnego i opóźnień. Z tego względu, dobór urządzeń do przesyłania danych powinien być przemyślany, by optymalizować czas i poprawność wyników.

Z problemu optymalizacji harmonogramu urządzeń, alokacji czasu oraz trajektorii UAV wynika, że celem jest minimalizacja całkowitego czasu treningu, biorąc pod uwagę wymagania dotyczące dokładności zbieżności. Optymalizacja ta uwzględnia zarówno zmienne decyzyjne dotyczące harmonogramu urządzeń, jak i czas przesyłania danych, trajektorię UAV, a także ograniczenia energetyczne urządzeń. Równanie (6.19) przedstawia złożony problem optymalizacyjny, w którym zmienne dotyczące harmonogramu urządzeń są binarne, co prowadzi do trudności w rozwiązaniu tego problemu.

Kluczowym aspektem w tym kontekście jest konieczność osiągnięcia minimalnego poziomu błędu zbieżności przy optymalnym doborze urządzeń. Zgodnie z propozycją 6.1, problem jest wykonalny, jeśli spełnione są odpowiednie warunki dotyczące energii urządzeń oraz liczby urządzeń wymaganych do uzyskania pożądanej dokładności modelu.

Kiedy rozważamy problem optymalizacji FEEL wspieranego przez UAV, należy mieć na uwadze, że rozwiązanie tego problemu wymaga nie tylko teoretycznego modelowania, ale także uwzględnienia realnych ograniczeń, takich jak zasoby energetyczne urządzeń i możliwość redukcji opóźnień komunikacyjnych. Ostatecznym celem jest stworzenie systemu, który nie tylko szybko przeprowadza proces uczenia, ale także jest odporny na błędy i opóźnienia w komunikacji, co ma kluczowe znaczenie w praktycznych zastosowaniach federacyjnego uczenia maszynowego.

Jak zapewnić wiarygodność Federated Edge Learning przy pomocy technologii blockchain?

Współczesne technologie uczenia maszynowego zmierzają ku bardziej złożonym i rozproszonym architekturom, gdzie urządzenia końcowe (ang. edge devices) i serwery brzegowe (ang. edge servers) współpracują w ramach modelu Federated Edge Learning (FEEL). Choć takie podejście zapewnia prywatność i zabezpieczenie danych użytkowników, to jednak narażone jest na liczne zagrożenia związane z atakami ze strony złośliwych podmiotów, takich jak model poisoning czy ataki adversarialne. W celu przeciwdziałania tym ryzykom, opracowano różnorodne algorytmy bezpiecznej agregacji modeli, jak geometrical median, trimmed mean czy multi-Krum. Mimo to, architektura oparta na modelu serwer-klient w FEEL wciąż jest podatna na awarie serwerów, co może prowadzić do pojedynczego punktu awarii lub manipulacji globalnym modelem, skutkując poważnym naruszeniem całego procesu treningu.

Aby rozwiązać te problemy, coraz częściej wprowadza się technologię blockchain, co skutkuje powstaniem zdecentralizowanego B-FEEL. Taki system wykorzystuje wiele serwerów do agregacji globalnego modelu, a różne protokoły konsensusu, takie jak Proof of Work (PoW), Proof of Stake (PoS), Raft czy Practical Byzantine Fault Tolerance (PBFT), zapewniają integralność globalnego modelu. Zastosowanie blockchaina w systemie B-FEEL zwiększa odporność systemu na awarie serwerów lub ataki na urządzenia, tworząc wiarygodny mechanizm agregacji modelu globalnego w oparciu o konsensus między wieloma serwerami.

Jednakże, w procesie treningu FEEL, szczególnie nad rozproszonymi sieciami bezprzewodowymi, istotnym wyzwaniem staje się problem opóźnień. W tym kontekście, kluczowe jest zwiększenie efektywności komunikacji w świetle zmieniających się warunków kanałów radiowych, które charakteryzują się fadingiem. W systemie FEEL, urządzenia brzegowe przesyłają swoje lokalne modele, a serwer brzegowy rozsyła wspólny model globalny przez łącza bezprzewodowe. Cały proces wiąże się z opóźnieniami obliczeniowymi (obejmującymi lokalny trening, agregację globalnego modelu oraz walidację bloków) i komunikacyjnymi (obejmującymi transmisję modeli oraz protokół konsensusu blockchain). Czas opóźnienia zależy od takich czynników jak zdolności obliczeniowe, rozmiar danych i modeli, techniki komunikacji bezprzewodowej, przepustowość oraz budżety energetyczne.

W systemach B-FEEL, opóźnienia stają się bardziej złożone, ponieważ dodatkowo wprowadza się kolejne rundy weryfikacji między serwerami brzegowymi w celu osiągnięcia konsensusu w ramach blockchaina. Dlatego kluczowe staje się zoptymalizowanie tych opóźnień, aby zmniejszyć łączny czas treningu i poprawić efektywność systemu.

W naszym rozważanym systemie B-FEEL przyjęto protokół konsensusu PBFT, który, mimo że wprowadza pewne kompromisy w zakresie bezpieczeństwa w porównaniu z innymi protokołami, takimi jak PoW czy Raft, charakteryzuje się wysoką skutecznością i niskim zużyciem energii. Latencja w systemie B-FEEL jest analizowana pod kątem składników obliczeniowych i komunikacyjnych, które obejmują: lokalne treningi, agregację modeli globalnych, protokół konsensusu oraz dystrybucję modeli. Celem jest zminimalizowanie średniego opóźnienia w procesie uczenia, poprzez strategiczną alokację zasobów takich jak przepustowość i moc obliczeniowa. Problem alokacji zasobów w długim okresie przekształca się w problem decyzyjny, który można rozwiązać za pomocą algorytmu opartego na głębokim uczeniu przez wzmocnienie (DRL). Algorytm ten, wykorzystując sieci neuronowe, umożliwia bezpośrednią mapowanie informacji sieciowych na decyzje o alokacji zasobów, znacząco redukując złożoność procesu decyzyjnego.

Architektura systemu B-FEEL składa się z serwerów brzegowych i urządzeń brzegowych, które komunikują się za pośrednictwem kanałów bezprzewodowych. Serwery brzegowe są wyposażone w odpowiednie zasoby obliczeniowe i pamięciowe do wykonywania zadań związanych z agregowaniem modeli oraz przeprowadzaniem protokołu konsensusu. Urządzenia brzegowe natomiast posiadają lokalne zbiory danych i odpowiednią moc obliczeniową do przeprowadzania lokalnych treningów. W tradycyjnych systemach FEEL serwery brzegowe mogą stać się słabym ogniwem systemu, dlatego technologia blockchain zapewnia zdecentralizowane podejście, które zabezpiecza dane za pomocą kryptografii i protokołów konsensusu. Blockchain gwarantuje dokładność i niezmienność danych, a także umożliwia tworzenie przejrzystych i odpornych na manipulacje platform agregacji modeli.

W ramach systemu B-FEEL, rolą protokołu konsensusu jest zapewnienie integralności i bezpieczeństwa systemu. W procesie treningu urządzenia brzegowe trenują swoje lokalne modele, które następnie są przesyłane do serwera głównego. Ten weryfikuje je i agreguje do modelu globalnego za pomocą niezmiennego i śledzonego inteligentnego kontraktu. Model lokalny i globalny są następnie przekształcane w nowy blok, który jest rozsyłany do serwerów walidujących, które potwierdzają poprawność globalnego modelu. Po uzyskaniu konsensusu blok zostaje dodany do blockchaina, zapewniając przejrzystość i możliwość śledzenia procesu. Zweryfikowany model globalny jest następnie rozsyłany do urządzeń brzegowych. Protokół konsensusu PBFT odgrywa kluczową rolę w utrzymaniu bezpieczeństwa i jednorodności tego zdecentralizowanego systemu.

Zoptymalizowanie opóźnień w systemie B-FEEL jest niezwykle istotne w kontekście zapewnienia wysokiej wydajności komunikacji i efektywności procesu uczenia. W tym celu należy zastosować odpowiednią strategię alokacji zasobów, która zminimalizuje czas uczenia i poprawi ogólną wydajność systemu.