W kontekście federacyjnego uczenia maszynowego na krawędzi (FEEL), jednym z kluczowych zagadnień jest efektywność procesów obliczeniowych oraz minimalizacja błędów związanych z transmisją danych. Współczesne podejścia do optymalizacji tego typu systemów koncentrują się na zmniejszeniu błędu średniego w czasie, co bezpośrednio wpływa na jakość zbieżności modelu w algorytmach rozproszonych. Problem ten jest szczególnie istotny, gdy mamy do czynienia z ograniczeniami sprzętowymi, problemami związanymi z komunikacją czy też z ograniczoną mocą obliczeniową urządzeń brzegowych.
Za pomocą twierdzenia 5.1, można opracować górną granicę dla normy gradientu globalnego, co pozwala ocenić skuteczność procesu optymalizacji. Zgodnie z założeniami twierdzenia, błąd średni w czasie zbiega do zera w miarę wzrostu liczby iteracji, przy czym dominującym składnikiem jest błąd średni w czasie. Przestrzeganie określonych warunków, takich jak zastosowanie odpowiednich rozmiarów mini-partii czy wykorzystanie większej liczby urządzeń brzegowych, prowadzi do zmniejszenia wpływu wariancji gradientu, co w konsekwencji wpływa na poprawę jakości procesu uczenia.
Zwiększenie rozmiaru mini-partii pozwala na zmniejszenie wariancji gradientu, co z kolei ogranicza błędy wynikające z losowych fluktuacji w danych. Jednak przy dużych rozmiarach zbiorów danych oraz rozbudowanych sieciach urządzeń brzegowych, konieczne jest zminimalizowanie wpływu błędów związanych z transmisją danych. Użycie bardziej zaawansowanych algorytmów optymalizacyjnych oraz uwzględnienie praktycznych ograniczeń, takich jak przepustowość łączy czy ograniczenia energetyczne urządzeń, staje się kluczowe.
W tym kontekście, rozważana jest alternatywna metoda optymalizacji, która wykorzystuje zmienne Lagrange’a do rozwiązania problemu związanego z transmitowaną mocą urządzeń brzegowych. Za pomocą tej techniki możliwe jest określenie optymalnych wartości transmitowanej mocy oraz faktorów denoisingowych, które wpływają na jakość transmisji. Problem ten jest dalej rozkładany na podproblemy, które umożliwiają optymalizację przesunięcia fazowego (RIS) oraz parametrów transmitowanej mocy.
Problemy związane z optymalizacją przesunięcia fazowego (RIS) są szczególnie skomplikowane, ponieważ wymagają rozwiązania nieliniowych równań kwadratowych, które muszą zostać przekształcone w problemy kwadratowe o ograniczeniach. Proces ten jest następnie konwertowany na problem semidefiniowany z odpowiednimi ograniczeniami na rangę macierzy, co pozwala na dalszą optymalizację rozwiązań.
Jednym z najważniejszych aspektów tej optymalizacji jest zrozumienie, że w miarę jak liczba iteracji rośnie, czasowa średnia błąd zbieżności staje się głównym czynnikiem decydującym o jakości rozwiązania. Z tego powodu, każda metoda optymalizacji, która nie uwzględnia redukcji tego błędu, może prowadzić do złych wyników, nawet przy stosunkowo niskich wartościach innych parametrów.
Zatem kluczowe staje się wprowadzenie mechanizmów umożliwiających efektywną komunikację między urządzeniami, z minimalizowaniem błędów transmisji, oraz odpowiednia optymalizacja parametrów przesunięcia fazowego w kontekście ograniczeń technicznych. Zastosowanie algorytmów takich jak te oparte na metodzie dualnej Lagrange’a, w połączeniu z technologią RIS, pozwala na rozwiązanie trudnych problemów optymalizacyjnych w rozproszonych systemach uczenia maszynowego.
Aby jeszcze bardziej poprawić efektywność procesu uczenia maszynowego na krawędzi, ważne jest dalsze badanie wpływu różnych parametrów na zbieżność oraz zastosowanie zaawansowanych technik kompresji danych, które mogą redukować konieczność transmisji dużych zbiorów danych. Takie podejście może znacząco poprawić jakość modeli, a także umożliwić ich efektywne wykorzystanie w rzeczywistych warunkach, gdzie zasoby są ograniczone.
Jak GNN może optymalizować uczenie federacyjne wspomagane RIS?
Współczesne technologie komunikacyjne rozwijają się w zawrotnym tempie, a jednym z kluczowych obszarów, który zyskuje coraz większe znaczenie, jest uczenie federacyjne wspomagane RIS (Reconfigurable Intelligent Surface). Zastosowanie technologii takich jak RIS w kontekście uczenia federacyjnego stawia przed naukowcami i inżynierami nowe wyzwania, które wymagają optymalizacji zarówno modeli uczenia maszynowego, jak i struktur sieciowych. Jednym z rozwiązań, które może wspomóc ten proces, jest wykorzystanie sieci neuronowych grafowych (GNN, Graph Neural Networks).
Model systemu w kontekście RIS i GNN
Aby zrozumieć, jak GNN może przyczynić się do optymalizacji uczenia federacyjnego wspomaganego RIS, warto przyjrzeć się ogólnemu modelowi systemu. W takim systemie RIS pełni rolę powierzchni, która może manipulować sygnałami elektromagnetycznymi w sposób dynamiczny, co pozwala na poprawę efektywności komunikacji. W tym kontekście, GNN służy do modelowania złożonych zależności pomiędzy różnymi komponentami systemu, takimi jak urządzenia końcowe, transceivery, oraz sama powierzchnia RIS.
GNN ma zdolność do przetwarzania danych w postaci grafów, co jest szczególnie przydatne w sytuacjach, gdzie zależności między elementami systemu nie są liniowe, ale raczej mają charakter przestrzenny lub czasowy. W tym przypadku, grafy mogą reprezentować różne stany komunikacyjne między urządzeniami oraz pomiędzy urządzeniami a RIS, co pozwala na efektywniejsze zarządzanie zasobami sieciowymi i synchronizację działań.
Algorytm optymalizacji oparty na GNN
W kontekście optymalizacji, GNN może być używane do rozwiązywania różnych problemów, które pojawiają się w systemach RIS wspomaganych przez uczenie federacyjne. Przykładem może być algorytm optymalizacji oparty na GNN, który znajduje optymalne parametry dla fazy RIS, a także dla transmisji sygnałów w systemie. W tym przypadku, GNN nie tylko przewiduje najbardziej efektywne strategie przesyłania danych, ale także dostosowuje parametry systemu do zmieniających się warunków, takich jak zmienność sygnałów, interferencje, czy zmiany w topologii sieci.
Jednym z głównych elementów optymalizacji jest także dobór odpowiedniego algorytmu uczenia. GNN może wspomóc proces szkolenia poprzez analizowanie danych z różnych urządzeń, w tym urządzeń mobilnych, i synchronizowanie ich w czasie rzeczywistym. Dzięki zastosowaniu GNN możliwe jest również opracowanie bardziej złożonych funkcji kosztu i strat, które biorą pod uwagę nie tylko efektywność energetyczną, ale także czas odpowiedzi i niezawodność systemu.
Przeanalizowanie zbieżności i wyników
Kolejnym aspektem, który warto uwzględnić, jest analiza zbieżności algorytmów optymalizacyjnych stosowanych w systemach RIS z wykorzystaniem GNN. Zbieżność jest kluczowym parametrem oceny efektywności algorytmów, ponieważ oznacza, że system osiąga stabilny stan, w którym nie występują dalsze znaczące zmiany w wynikach. W tym kontekście ważne jest uwzględnienie różnych założeń początkowych, które mogą wpłynąć na tempo zbieżności oraz na ostateczny wynik algorytmu.
Badania nad zbieżnością pokazują, że odpowiednia konfiguracja GNN w systemie RIS może znacznie przyspieszyć proces uczenia i zwiększyć jego efektywność. Na przykład, poprzez rozbicie granic optymalizacji na mniejsze, bardziej lokalne problemy, możliwe jest szybsze osiągnięcie zbieżności w rozproszonym systemie, co jest szczególnie istotne w kontekście uczenia federacyjnego, gdzie urządzenia są rozproszone w różnych lokalizacjach.
Zastosowanie w symulacjach i analizie wydajności
Ważnym elementem oceny skuteczności rozwiązań opartych na GNN w systemach RIS jest analiza wyników uzyskanych w ramach symulacji. Wyniki symulacyjne pozwalają na porównanie różnych scenariuszy, w tym porównanie wydajności systemu RIS przy różnych konfiguracjach i algorytmach optymalizacyjnych. Symulacje pozwalają również na ocenę wpływu różnych zmiennych, takich jak jakość sygnału, interferencje czy warunki sieciowe, na końcowy rezultat systemu.
Symulacje stanowią również cenne narzędzie w testowaniu efektywności nowych algorytmów uczenia opartych na GNN. Warto zwrócić uwagę na takie aspekty, jak czas reakcji systemu, efektywność energetyczną oraz stabilność działania w dłuższym okresie czasu. To pozwala na uzyskanie pełniejszego obrazu potencjału rozwiązań opartych na GNN w kontekście RIS.
Optymalizacja w kontekście uczenia federacyjnego
Uczenie federacyjne to jedna z najnowszych i najbardziej obiecujących technologii w zakresie uczenia maszynowego, pozwalająca na trenowanie modeli na danych rozproszonych, bez konieczności ich centralnego przechowywania. W połączeniu z RIS, uczenie federacyjne staje się jeszcze bardziej efektywne, umożliwiając lepszą synchronizację i optymalizację przesyłania danych w systemach o dużych wymaganiach komunikacyjnych.
Wykorzystanie GNN w takim kontekście może zrewolucjonizować sposób, w jaki modele są trenowane i optymalizowane. GNN może przyspieszyć proces agregowania wyników z różnych urządzeń, zwiększając przy tym dokładność i efektywność algorytmów uczenia maszynowego. Ponadto, GNN może pomóc w identyfikowaniu optymalnych dróg komunikacyjnych między urządzeniami, minimalizując zakłócenia i poprawiając jakość sygnału.
Warto zauważyć, że współpraca GNN i RIS w kontekście uczenia federacyjnego pozwala na bardziej zrównoważony rozwój systemów komunikacyjnych, które są w stanie lepiej adaptować się do zmieniających się warunków sieciowych i wymagających środowisk operacyjnych.
Jakie wyzwania związane z prywatnością i bezpieczeństwem pojawiają się w Federacyjnym Uczeniu na Krawędzi i jak je rozwiązać?
Federacyjne Uczenie na Krawędzi (FEEL) to koncepcja, która w ostatnich latach zyskuje na znaczeniu w dziedzinie sztucznej inteligencji i komunikacji bezprzewodowej. Dzięki tej technologii urządzenia mogą współpracować w celu uczenia modeli bez konieczności przesyłania prywatnych danych do centralnego serwera. Mimo tych korzyści, wyzwania związane z prywatnością i bezpieczeństwem stanowią istotny problem, który musi zostać rozwiązany, aby móc w pełni wykorzystać potencjał tej technologii.
Jednym z głównych problemów związanych z FEEL jest ujawnienie prywatnych danych użytkowników. Transmitowanie aktualizacji modelu, takich jak lokalne gradienty, może prowadzić do naruszenia prywatności, ponieważ nawet zanonimizowane dane mogą ujawniać informacje o użytkowniku. Na przykład, jak wykazano w badaniach [4, 8, 20], wysyłanie modelu do serwera może skutkować wyciekiem informacji, mimo że dane te nie są bezpośrednio przekazywane. W celu rozwiązania tego problemu naukowcy opracowali matematyczne ramy ochrony prywatności oparte na tzw. prywatności różnicowej (differential privacy, DP) [3, 5]. Prywatność różnicowa pozwala na ograniczenie ujawniania informacji o pojedynczym użytkowniku, poprzez wprowadzenie perturbacji (szumów) do danych. Te perturbacje są generowane z rozkładów takich jak rozkład Gaussa, Laplace’a czy Binomialny [1, 16]. Dzięki temu można skutecznie zminimalizować ryzyko ujawnienia prywatnych informacji.
Jednak takie podejścia często prowadzą do obniżenia dokładności procesu uczenia, ponieważ dodanie szumu zmniejsza jakość przesyłanych danych. Wprowadzenie szumu wiąże się z koniecznością znalezienia kompromisu między ochroną prywatności a efektywnością nauki modelu. W odpowiedzi na ten problem, zaproponowano innowacyjne podejście oparte na technologii AirComp [10], która wykorzystuje szumy kanałów bezprzewodowych do ochrony prywatności użytkowników. Pomimo że ta metoda oferuje dodatkową warstwę ochrony, wiąże się z wyzwaniem związanym z zachowaniem odpowiedniego poziomu dokładności modelu.
W ramach FEEL można także zastosować technologię RIS (Reconfigurable Intelligent Surface), która ma na celu poprawę warunków kanałowych pomiędzy urządzeniami a serwerem krawędziowym. System RIS, składający się z pasywnych elementów odbijających, może znacząco poprawić jakość sygnału, co w rezultacie wpływa na zwiększenie dokładności modelu, przy jednoczesnym spełnieniu wymagań prywatności. Działanie RIS polega na odpowiednim dostosowaniu fazy i kątów odbicia sygnałów w zależności od warunków propagacji w kanale komunikacyjnym. Dzięki temu system może poprawić jakość sygnału przy minimalnych nakładach energetycznych.
Podczas realizacji procesu uczenia w systemie FEEL, każda iteracja polega na kilku etapach. Na początku serwer krawędziowy wysyła najnowszy globalny model do urządzeń końcowych, które na jego podstawie wykonują lokalne aktualizacje. Każde urządzenie oblicza własny gradient na podstawie swoich danych, a następnie wysyła go do serwera. W tej fazie szczególnie istotna jest jakość transmisji, która może być zakłócona przez interferencje w kanale bezprzewodowym, co negatywnie wpływa na dokładność uczenia. W takim przypadku zastosowanie RIS pozwala na poprawę warunków komunikacyjnych i redukcję zakłóceń, co wpływa na dokładność modelu.
Kiedy urządzenia końcowe przesyłają swoje lokalne aktualizacje, odbywa się to sekwencyjnie, przez kilka bloków komunikacyjnych. Każdy blok odpowiada za przesyłanie jednej części aktualizacji, a odpowiedni kanał propagacji między urządzeniem a serwerem jest wzmacniany przez RIS. Dzięki temu możliwe jest efektywne zbieranie danych, nawet jeśli poszczególne urządzenia mają ograniczoną moc transmisji.
Należy jednak pamiętać, że bezpieczeństwo i prywatność użytkowników w systemach FEEL to temat, który wymaga ciągłych badań i innowacyjnych rozwiązań. Wdrożenie technologii takich jak RIS oraz mechanizmów ochrony prywatności opartych na prywatności różnicowej stanowi krok w stronę bezpiecznego i wydajnego uczenia maszynowego w rozproszonych systemach. Kluczowe jest jednak, by każdy taki system był odpowiednio zoptymalizowany pod kątem zarówno efektywności komunikacyjnej, jak i wymagań dotyczących ochrony danych użytkowników.
Jak optymalizować procesy obliczeniowe i komunikacyjne w systemach Federated Edge Learning?
Systemy Federated Edge Learning (FEEL) stanowią nowoczesne podejście do współpracy urządzeń w ramach złożonych obliczeniowo zadań, takich jak trenowanie modeli sztucznej inteligencji. Jednak te systemy napotykają liczne wyzwania związane z opóźnieniami w komunikacji oraz obciążeniami obliczeniowymi, które mogą znacząco wpływać na efektywność procesu uczenia się w czasie rzeczywistym. W niniejszym rozdziale przedstawiamy metodologie minimalizacji latencji w systemach B-FEEL oraz proponujemy podejście oparte na algorytmie TD3 (Twin Delayed Deep Deterministic Policy Gradient), które pozwala na optymalizację zasobów w tych systemach.
Opóźnienia w systemie B-FEEL są nieuniknione i składają się z różnych składników. Wśród nich wyróżnia się opóźnienia związane z komunikacją oraz obliczeniami, które są niezbędne do weryfikacji podpisów cyfrowych oraz przesyłania wiadomości pomiędzy serwerami krawędziowymi. Na przykład, proces weryfikacji 2f podpisów cyfrowych przez serwer krawędziowy wiąże się z określonym wymaganiem obliczeniowym, które można wyrazić wzorem:
gdzie oznacza liczbę cykli CPU wymaganych do jednego podpisu cyfrowego. Opóźnienie obliczeniowe dla tego etapu można wyrazić jako:
Gdy serwer krawędziowy otrzyma odpowiedź w postaci 2f wiadomości potwierdzających, blok jest uznawany za ważny i dodawany do łańcucha bloków. W tym momencie następuje wysłanie wiadomości odpowiedzi do głównego serwera krawędziowego. Opóźnienie komunikacyjne dla tej operacji wynosi:
Również proces obliczeniowy związany z weryfikacją tych wiadomości wiąże się z dodatkowymi wymaganiami obliczeniowymi, które muszą zostać spełnione przez główny serwer krawędziowy.
Po zakończeniu etapów lokalnej weryfikacji modelu oraz agregacji globalnego modelu, zaktualizowany model jest przesyłany do urządzeń krawędziowych, aby rozpocząć kolejny etap treningu. Całkowita latencja w danej rundzie treningowej będzie wynikała z opóźnień komunikacyjnych oraz obliczeniowych, a jej wyrażenie wygląda następująco:
gdzie:
i
W tym kontekście kluczowym elementem jest minimalizacja długoterminowego opóźnienia średniego w systemie B-FEEL, co wiąże się z optymalizacją alokacji pasma i mocy nadawczej. Problematyka ta jest szczególnie trudna, ponieważ wymaga synchronizacji działań wielu serwerów krawędziowych, które muszą zarządzać swoimi zasobami w sposób skoordynowany. Opisane zagadnienie można ująć jako problem optymalizacji w modelu Markova Decision Process (MDP).
Zaproponowana metoda, oparta na algorytmie TD3, pozwala na efektywne rozwiązanie tego problemu, wykorzystując podejście oparte na uczeniu maszynowym, które uwzględnia zależności pomiędzy stanami, akcjami oraz nagrodami. W tym modelu, stan systemu w danym czasie obejmuje informacje o stanie kanału i opóźnieniach w przesyłaniu danych, a agent podejmuje decyzje o przydziale zasobów (pasmo i moc nadawcza) w celu minimalizacji latencji.
Algorytm TD3 korzysta z architektury aktora-critica, gdzie aktor odpowiada za wybór akcji na podstawie obserwowanego stanu, natomiast krytyk ocenia jakość tych akcji, umożliwiając optymalizację polityki w kierunku zmniejszenia opóźnień w systemie. Na podstawie wartości funkcji akcji, system jest w stanie dynamicznie dostosować przydział zasobów, co znacząco wpływa na poprawę wydajności całego systemu. Wartość tej funkcji jest określona przez następujący wzór:
gdzie to współczynnik dyskontujący, a to nagroda uzyskana w rundzie .
Zalety algorytmu TD3 obejmują jego zdolność do efektywnego rozwiązywania problemów w czasie rzeczywistym, co jest szczególnie istotne w kontekście systemów B-FEEL, gdzie szybka reakcja na zmiany w kanałach komunikacyjnych jest kluczowa dla minimalizacji latencji.
Warto zauważyć, że w systemach opartych na niekorrelowanych kanałach, jak kanał Rayleigha, zmniejszona korelacja między stanami może wpłynąć na dokładność prognoz nagród, co z kolei może obniżyć efektywność podejmowanych decyzji. Zatem, wybór odpowiedniego modelu kanału i algorytmu powinien być dostosowany do specyfiki konkretnego środowiska.
Optymalizacja przydziału zasobów w systemach B-FEEL wymaga nie tylko znajomości technik optymalizacji, ale także zdolności do szybkiej adaptacji do zmieniających się warunków w sieci. W związku z tym, podejście oparte na uczeniu maszynowym, takie jak algorytm TD3, stanowi obiecującą metodę do radzenia sobie z wyzwaniami związanymi z latencją i zasobami w systemach FEEL.
Jak działa algorytm TD3 w przydziale zasobów w systemach komunikacji bezprzewodowej?
Algorytm TD3 (Twin Delayed Deep Deterministic Policy Gradient) stanowi zaawansowaną metodę optymalizacji w zadaniach, które wymagają podejmowania decyzji w ciągłych przestrzeniach stanów i działań. Jego zastosowanie w przydziale zasobów, takich jak pasmo i moc nadawania w systemach komunikacyjnych, szczególnie w kontekście urządzeń brzegowych, jest kluczowe dla efektywnego zarządzania i minimalizacji opóźnień.
Podstawą działania algorytmu TD3 jest połączenie dwóch sieci neuronowych: aktora i krytyka, które współpracują w celu optymalizacji decyzji w czasie rzeczywistym. Sieć aktora, πφ, odpowiada za generowanie działań na podstawie stanu systemu, natomiast sieć krytyka, Qθ, ocenia jakość tych działań, przewidując wartość Q, czyli oczekiwaną nagrodę za podjęte decyzje.
Aktor i krytyk w algorytmie TD3 są trenowani za pomocą głębokich sieci neuronowych (DNN). Sieć aktora mapuje stany systemu na akcje, które mogą obejmować takie zmienne jak alokacja pasma czy moc nadawania. Natomiast sieć krytyka, bazując na swoim wewnętrznym modelu wartości, ocenia, jak dobrze dana akcja będzie wpływać na przyszły stan systemu, w kontekście maksymalizacji długoterminowej nagrody.
Aby zapewnić stabilność procesu uczenia, TD3 stosuje kilka technik. Po pierwsze, wykorzystuje dwie niezależne sieci krytyka, Qθ1 i Qθ2, które wspólnie zmniejszają ryzyko błędu w oszacowaniach. Zamiast polegać na pojedynczej wartości Q, algorytm wybiera minimalną wartość z dwóch oszacowań, co pomaga w uniknięciu przeszacowania nagrody. Po drugie, sieci krytyka i aktora mają swoje odpowiedniki docelowe, tzw. sieci docelowe, które są aktualizowane z opóźnieniem, aby zachować stabilność procesu trenowania.
Sama procedura treningowa w algorytmie TD3 jest złożona i wymaga zarządzania wieloma parametrami. W procesie treningu, sieci są dostosowywane na podstawie funkcji straty, która uwzględnia błąd między przewidywaną a rzeczywistą wartością Q. Sieć aktora jest natomiast trenowana za pomocą algorytmu deterministycznego gradientu polityki (DPG), który zapewnia, że podjęte akcje są optymalne w kontekście długoterminowej nagrody.
W praktyce, algorytm TD3 jest stosowany do rozwiązywania problemów alokacji zasobów w systemach komunikacji bezprzewodowej, takich jak przydział pasma i mocy nadawania w sieciach brzegowych. Dzięki swojej zdolności do uczenia się w trudnych warunkach, z ciągłymi przestrzeniami stanów i działań, jest idealnym rozwiązaniem w takich zastosowaniach jak systemy federacyjne B-FEEL (Blockchain Federated Edge Learning), gdzie wiele urządzeń brzegowych współpracuje w celu minimalizacji opóźnień i optymalizacji przydziału zasobów.
Istotnym aspektem, na który należy zwrócić uwagę, jest rola tzw. bufora doświadczeń (replay buffer). Służy on do przechowywania historii stanów, działań, nagród oraz przejść, co pozwala na ponowne wykorzystanie doświadczeń w celu efektywniejszego trenowania sieci. Ponadto, zastosowanie szumów w procesie eksploracji, zarówno w sieci aktora, jak i krytyka, zapewnia odpowiednią różnorodność w podejmowanych decyzjach, co w konsekwencji poprawia jakość uczenia się.
Ważne jest, aby zrozumieć, że algorytm TD3 nie jest rozwiązaniem uniwersalnym, ale jest bardzo skuteczny w środowiskach, które wymagają ciągłego dostosowywania się do zmieniających się warunków. W kontekście systemów bezprzewodowych, takich jak B-FEEL, algorytm TD3 pozwala na adaptacyjne przydzielanie zasobów w odpowiedzi na zmiany w obciążeniu sieci, lokalnych warunkach sieciowych oraz innych zmiennych.
W procesie trenowania modelu TD3, wybór odpowiednich parametrów, takich jak współczynnik discount γ, zakres szumów oraz proporcja aktualizacji sieci docelowych κ, ma ogromne znaczenie dla efektywności algorytmu. Zbyt szybkie aktualizowanie sieci docelowych może prowadzić do niestabilności, natomiast zbyt wolne aktualizacje mogą spowolnić proces nauki.
Endtext
Jak działają szereg Fouriera w analizie funkcji okresowych?
Jakie innowacje technologiczne kształtują przyszłość noszonej elektroniki?
Jak temperatura wpływa na wydajność materiałów do magazynowania wodoru?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский