No contexto do aprendizado federado em sistemas de dispositivos móveis, o objetivo principal é garantir que um modelo global seja construído de maneira eficiente, respeitando as limitações de comunicação e processamento local. Esse processo envolve a seleção de dispositivos, a atualização local do modelo e a agregação dessas atualizações em um modelo global. O algoritmo FedAvg, amplamente adotado para esse propósito, opera de maneira iterativa, realizando uma série de etapas que envolvem tanto a comunicação entre dispositivos quanto o cálculo local dos modelos.

No t-ésimo ciclo de comunicação, o BS (base station ou estação base) realiza os seguintes passos: inicialmente, seleciona um subconjunto de dispositivos de borda StSt de um total MM de dispositivos; em seguida, envia o modelo global atualizado z[t1]z[t-1] para os dispositivos selecionados; cada dispositivo ii realiza uma atualização local com base no seu conjunto de dados DiD_i e no modelo global z[t1]z[t-1], gerando o modelo local atualizado zi[t]z_i[t]; por fim, a estação base realiza a agregação das atualizações locais, calculando uma média ponderada das atualizações recebidas para gerar o novo modelo global z[t]z[t].

O modelo de agregação adotado no FedAvg visa realizar uma média ponderada das atualizações locais, utilizando a fórmula:

z[t]=iStϕi(zi[t])z[t] = \sum_{i \in St} \phi_i (z_i[t])

onde ϕi\phi_i é um fator de ponderação relacionado ao tamanho do conjunto de dados DiD_i do dispositivo ii, e zi[t]z_i[t] é o modelo local atualizado. O uso dessa média ponderada permite que o modelo global seja uma combinação das atualizações realizadas pelos dispositivos, refletindo uma aprendizagem colaborativa sem a necessidade de centralizar os dados.

O processo de agregação, no entanto, enfrenta desafios relacionados à comunicação entre os dispositivos e à eficiência do processo de agregação. Uma abordagem inovadora para mitigar esses desafios é a técnica AirComp, que permite a agregação do modelo global de forma eficiente utilizando comunicação via ar, reduzindo a quantidade de dados transmitidos. Com isso, os dispositivos podem enviar sinais modulares, utilizando técnicas de processamento de sinais para reduzir o consumo de largura de banda e melhorar a eficiência do aprendizado federado.

A agregação sobre o ar, no entanto, apresenta suas próprias dificuldades, especialmente no que se refere à precisão da recuperação do modelo global e ao erro de agregação. A fórmula para calcular o erro médio quadrático (MSE) da agregação é dada por:

MSE(g^,g)=Eg^g2MSE(ĝ, g) = E \left| ĝ - g \right|^2

onde g^ é o valor estimado da agregação e gg é o valor real. O objetivo é minimizar esse erro para garantir que o modelo global seja uma boa representação das atualizações locais, preservando a precisão do modelo e evitando uma queda significativa no desempenho preditivo.

Outro ponto crucial no aprendizado federado é a escolha do número de dispositivos a serem selecionados em cada rodada de comunicação. A otimização desse número é essencial para melhorar a performance do sistema, pois a seleção de muitos dispositivos pode aumentar a sobrecarga de comunicação, enquanto a escolha de poucos dispositivos pode limitar a diversidade de atualizações, impactando a qualidade do modelo global. Além disso, é importante considerar o impacto do erro de agregação sobre a precisão do modelo, o que torna a formulação de um problema de otimização combinatória essencial para balancear o número de dispositivos selecionados e os requisitos de MSE.

A formulação de um problema de otimização que maximize o número de dispositivos selecionados, ao mesmo tempo que assegure que o erro de agregação permaneça abaixo de um limite desejado, é uma das abordagens mais eficazes para melhorar a eficiência do aprendizado federado. Isso pode ser alcançado através da resolução de um problema não convexo com restrições quadráticas, que pode ser reescrito em uma forma mais manejável usando técnicas de representação esparsa.

Além disso, a análise de convergência no aprendizado federado é fundamental para garantir que o modelo global se aproxime de um valor ótimo ao longo das iterações. A convergência é tipicamente caracterizada em termos do erro médio quadrático (MSE) e da taxa de aprendizado utilizada nos dispositivos. Ao adotar uma abordagem de gradiente de primeira ordem, é possível demonstrar que, sob certas condições, o algoritmo de aprendizado federado pode convergir de forma eficiente, mesmo em cenários de grande escala e com limitações de comunicação.

Finalmente, a otimização para aprendizado federado envolve a consideração de vários fatores, incluindo a escolha do número de dispositivos, a redução de erros de agregação e a garantia de que a comunicação seja realizada de maneira eficiente. A solução desses problemas requer o desenvolvimento de métodos de otimização que equilibrem as limitações de comunicação e os requisitos de desempenho, visando sempre a melhoria contínua do modelo global com o mínimo custo computacional.

Como equilibrar o desempenho do aprendizado federado entre múltiplas células com interferência mútua?

A região de gaps, denotada como 𝒢, representa o espaço das perdas induzidas por erro (Δ₁, Δ₂, ..., Δₘ) em um sistema de aprendizado federado em redes sem fio com múltiplas células. Cada Δₘ corresponde ao gap mínimo aceitável na célula 𝑚, dado pela soma das perdas nos enlaces de downlink e uplink. Essas perdas, Gapₘ, são resultado da disseminação dos modelos globais aos dispositivos e da agregação dos gradientes locais na estação-base. Ambas são influenciadas pela interferência intercelular e pelas limitações de potência de transmissão.

A formulação dessa região de gaps leva em conta a influência mútua entre as células. Reduzir o gap em uma célula pode provocar o aumento do gap em outra, dada a competição pelos recursos de espectro e o acoplamento do ruído gerado. Tal relação configura um problema clássico de compromisso, em que o objetivo não é minimizar absolutamente cada gap individual, mas sim encontrar um ponto de equilíbrio eficiente: o ponto de Pareto.

Um vetor (Δ₁, Δ₂, ..., Δₘ) é dito Pareto-ótimo se não há outro vetor que melhore pelo menos um componente sem piorar outro. A fronteira de Pareto, portanto, delimita o conjunto de compromissos ótimos entre as células. Aproximar-se dessa fronteira é desejável, pois garante que não há desperdício de desempenho em nenhuma das tarefas de aprendizado distribuído nas células.

A abordagem adotada para atingir a fronteira de Pareto envolve a técnica de profiling, onde um vetor de ponderação κ = [κ₁, κ₂, ..., κₘ] define a importância relativa de cada célula. Ao minimizar a soma total dos gaps induzidos, ζ, com restrições que garantem que cada Gapₘ ≤ κₘζ, obtém-se o ponto da fronteira correspondente à direção κ. Este procedimento permite navegar por diferentes compromissos ótimos simplesmente ajustando o vetor de perfil.

A otimização é desdobrada em dois subproblemas independentes, dada a ortogonalidade entre as transmissões de downlink e uplink. A otimização cooperativa de downlink visa minimizar ζᵈˡ₀, sujeita às restrições de potência de transmissão e ao controle da interferência entre as células. Para isso, expressa-se a restrição sobre Gapᵈˡₘ como um conjunto de desigualdades cone de segunda ordem (SOC), tornando o problema resolvível via métodos convexos. Uma busca binária iterativa (bisection search) sobre ζᵈˡ₀ permite encontrar o valor mínimo viável que satisfaz as restrições, o que fornece tanto a carga mínima de erro quanto os níveis ótimos de potência de downlink.

Similarmente, a otimização do uplink procura o mínimo ζᵘˡ₀ possível, levando em conta os fatores de normalização de recepção {cₘ} e as potências de transmissão dos dispositivos {pᵘˡₖ}. Neste caso, o acoplamento entre as variáveis torna a solução mais complexa, exigindo a fixação inicial das potências para posterior otimização dos fatores de normalização, o que também pode ser formulado como um problema SOC. Esse processo iterativo permite explorar o espaço viável de soluções para encontrar o equilíbrio desejado.

A interpretação geométrica dessas soluções revela que cada ponto na fronteira de Pareto pode ser alcançado como a interseção entre o raio definido por κ e o contorno inferior da região 𝒢. Assim, o sistema é capaz de adaptar-se dinamicamente às exigências de desempenho de cada célula, promovendo justiça e eficiência no aprendizado federado em ambientes densamente conectados.

Importante observar que o modelo exposto se ancora em suposições críticas: conhecimento perfeito dos canais (CSI), sincronização precisa entre as células, e disponibilidade de ferramentas de otimização centralizada com capacidade de troca de informação entre as estações-base. Em contextos práticos, a latência, as falhas na comunicação e a variabilidade do canal podem afetar a viabilidade dessas soluções ideais.

Além disso, a escolha do vetor de perfil κ não é trivial. Ela incorpora, de forma implícita, prioridades operacionais, preferências de alocação de recursos, e políticas de fairness entre tarefas. A definição criteriosa desse vetor pode refletir requisitos de qualidade de serviço (QoS) diferenciados ou políticas de operação heterogêneas, o que dá à modelagem flexibilidade para diferentes cenários.

Outro aspecto crucial é a escalabilidade. À medida que o número de células M cresce, o problema aumenta em complexidade, tornando o cálculo da fronteira de Pareto computacionalmente oneroso. Assim, a utilização de aproximações heurísticas ou técnicas distribuídas de otimização torna-se necessária para implantação prática em redes em larga escala.

Por fim, vale destacar que embora a decomposição entre downlink e uplink simplifique a resolução, a interação entre ambas persiste na prática, especialmente quando há compartilhamento dinâmico de espectro, mobilidade dos usuários ou coexistência de múltiplos serviços. Considerar esses efeitos na modelagem representa o próximo passo rumo à robustez do framework de otimização cooperativa.