O método BCD-LD proposto visa otimizar o agendamento de dispositivos, a alocação de tempo e a trajetória do UAV. A metodologia começa com a otimização do agendamento de dispositivos e a alocação de tempo para uma trajetória de UAV dada. Em seguida, a trajetória do UAV Q é otimizada, utilizando métodos LD para derivar soluções ótimas e em forma fechada para cada subproblema de otimização. A adoção dessas medidas visa mitigar a alta complexidade computacional associada ao processo de otimização.

Agendamento de Dispositivos e Alocação de Tempo Conjunta

A primeira etapa para reduzir a complexidade do problema consiste em eliminar a função "max" nas restrições do problema original. A restrição (6.19c) pode ser reescrita de forma equivalente como:

k=1K(τk[n]+coak[n]mtk)δ[n],k,nN.\sum_{k=1}^{K} \left( \tau_k[n] + c_o a_k[n] m t_k \right) \leq \delta[n], \forall k, \forall n \in N.

Dada a trajetória QQ, as restrições (6.19d) e (6.6) podem ser reescritas, respectivamente, como:

n=0N1k=1Kak[n+1]Dk2C,\sum_{n=0}^{N-1} \sum_{k=1}^{K} a_k[n+1] D_k^2 \geq C,
δ[n]q[n]q[n1]2Vmax,n.\delta[n] \geq \frac{\|q[n] - q[n-1]\|^2}{V_{\text{max}}}, \forall n.

onde CC é uma constante derivada do problema.

Ao relaxar as restrições inteiras de KκK \kappa, ou seja, (6.19a), o problema (6.19) com uma trajetória fixa de UAV QQ reduz-se a um problema mais simples. Nesse contexto, o problema é expresso como:

minδ,A,τn=1N(τ[n]+σ2(ak[n]s)),\min_{\delta, A, \tau} \sum_{n=1}^{N} \left( \tau[n] + \sigma^2 \left( a_k[n] s \right) \right),

sujeito a várias restrições que incluem limites de alocação de tempo e capacidade computacional dos dispositivos. Esse novo problema é convexamente formulado, o que significa que pode ser resolvido de maneira eficiente usando métodos de dualidade de Lagrange.

Função Dual e Subproblemas

Uma vez que o problema principal foi reduzido a uma forma convexa, a função dual do problema é formulada por meio dos multiplicadores de Lagrange associados às restrições. O objetivo é maximizar a função dual g(λ,μ,ξ)g(\lambda, \mu, \xi), sujeita a condições de positividade para os multiplicadores λ\lambda, μ\mu, e ξ\xi.

Para a otimização da alocação de tempo τ\tau e do agendamento ak[n]a_k[n], o problema pode ser decomposto em dois subproblemas principais. O primeiro subproblema envolve a otimização do tempo de alocação τ\tau, e o segundo foca no agendamento de dispositivos ak[n]a_k[n]. Ambos os problemas podem ser resolvidos usando condições de Karush-Kuhn-Tucker (KKT), que fornecem uma solução ótima para as variáveis τk[n]\tau_k[n] e ak[n]a_k[n].

Determinação do Tempo Ótimo e Agendamento de Dispositivos

Um aspecto importante do método é a solução dos subproblemas de otimização para a alocação de tempo e o agendamento dos dispositivos. Para o tempo ótimo τk[n]\tau_k[n], a solução é dada por:

τk[n]=sln2μk[n]B(1+(121))+ak[n],k,n.\tau_k[n] = \frac{s \ln 2}{\mu_k[n] B \left( 1 + \left( \frac{1}{2} - 1 \right) \right)} + a_k[n], \forall k, \forall n.

Para o agendamento dos dispositivos, a solução é expressa da seguinte forma:

ak[n]={1,se g(τk[n])0,0,caso contraˊrio.a_k[n] = \begin{cases} 1, & \text{se } g(\tau_k[n]) \leq 0, \\ 0, & \text{caso contrário.}
\end{cases}

Esses resultados indicam que dispositivos com maior capacidade computacional e melhor ganho de canal devem ser priorizados no agendamento.

Subproblema de Otimização de δ\delta

Outro aspecto crítico é a otimização da variável δ[n]\delta[n], que define o tempo de alocação para cada dispositivo e momento. O problema de otimização de δ\delta pode ser reescrito como um problema de programação linear. A solução é dada por:

δ[n]=q[n]q[n1]2Vmax.\delta[n] = \frac{\|q[n] - q[n-1]\|^2}{V_{\text{max}}}.

No caso em que a condição μk[n]1\mu_k[n] \leq 1 é atendida, a solução para δ[n]\delta[n] pode ser ajustada de maneira que a alocação de tempo e os requisitos de capacidade sejam atendidos de forma eficiente.

Resumo do Processo de Otimização

O método BCD-LD propõe uma abordagem estruturada e eficiente para resolver o problema de otimização envolvendo agendamento de dispositivos, alocação de tempo e design de trajetórias de UAV. Ao decompor o problema em subproblemas convexos, pode-se utilizar métodos de otimização dual, como a descentralização do subgradiente projetado, para obter soluções ótimas em tempo polinomial. O uso de funções convexas e a simplificação das restrições tornam o processo de otimização mais eficiente, com a garantia de que a solução encontrada é ótima para a configuração dada.

Importância para o Leitor

É crucial que o leitor entenda que a otimização de sistemas complexos, como o agendamento de dispositivos e alocação de tempo, envolve uma combinação de estratégias matemáticas avançadas e técnicas de decomposição de problemas. A abordagem adotada neste método não apenas resolve o problema de maneira eficiente, mas também reduz significativamente a carga computacional, o que é essencial em sistemas com grande número de dispositivos ou limitações de recursos computacionais.

Como funcionam e se treinam redes neurais: do perceptron multicamadas às redes convolucionais

O perceptron multicamadas (MLP) é uma rede neural clássica que aprende a aproximar funções complexas, com múltiplas entradas e saídas, por meio do treinamento em conjuntos de dados rotulados. Este modelo é capaz de aprender funções não lineares, essenciais tanto para classificação quanto para regressão. A grande diferença do MLP em relação à regressão softmax está na presença de uma ou mais camadas intermediárias, denominadas camadas ocultas, que aplicam transformações não lineares entre a entrada e a saída. Cada neurônio numa camada oculta transforma a entrada recebida da camada anterior por meio de uma soma ponderada seguida da aplicação de uma função de ativação não linear, como ReLU, sigmoide ou tanh. Essas funções permitem que a rede capture relações complexas nos dados que simples modelos lineares não conseguem representar.

Matematicamente, um MLP com uma camada oculta e uma saída pode ser representado pela expressão y^=ϕ(mσ(Wx+b1)+b2)\hat{y} = \phi \left( m^\top \sigma(Wx + b_1) + b_2 \right), onde xx é o vetor de entrada, WW e b1b_1 são os pesos e viés da camada oculta, mm e b2b_2 os da camada de saída, enquanto σ\sigma e ϕ\phi são as funções de ativação das camadas oculta e de saída, respectivamente. O treinamento consiste na minimização de uma função de perda, que mede a discrepância entre as previsões da rede e os valores reais. Um exemplo comum é a função de perda quadrática, cuja minimização se torna um problema de otimização para encontrar os melhores pesos e vieses. A retropropagação e algoritmos de otimização padrão, como o gradiente descendente, são empregados para ajustar os parâmetros da rede, aproveitando a diferenciabilidade das funções envolvidas.

As redes neurais convolucionais (CNNs), embora compartilhem muitos princípios com o MLP, possuem uma arquitetura adaptada para lidar com entradas na forma de imagens. Utilizam filtros convolucionais que percorrem localmente a imagem, explorando a estrutura espacial e as correlações locais, reduzindo a complexidade dos parâmetros em comparação com redes totalmente conectadas. Cada filtro produz um mapa de ativação, que destaca características específicas extraídas da imagem, como bordas, texturas ou padrões. A convolução é seguida normalmente por operações de subsampling, como max pooling, que diminuem a resolução dos mapas, aumentando a invariância a pequenas variações e reduzindo a dimensionalidade.

A arquitetura típica de uma CNN consiste em camadas alternadas de convolução e pooling, finalizadas por camadas densas semelhantes às do MLP, que fazem a classificação final. O uso desses blocos permite que a rede aprenda hierarquias de características, das mais simples nas primeiras camadas (como bordas) até as mais complexas nas camadas mais profundas (como objetos ou rostos).

O treinamento das CNNs mantém a ideia fundamental da otimização da função de perda via retropropagação, ajustando filtros e pesos das camadas densas para minimizar erros. A estrutura convolucional torna a rede especialmente eficiente em tarefas de visão computacional, pois incorpora informações espaciais e reduz drasticamente o número de parâmetros treináveis, facilitando a convergência.

Além do entendimento dos modelos e algoritmos, é importante compreender que o sucesso dessas redes depende muito da escolha adequada das funções de ativação, do esquema de inicialização dos pesos, da configuração da arquitetura e dos métodos de otimização empregados. O processo de treinamento é, essencialmente, uma busca no espaço de parâmetros para encontrar uma configuração que generalize bem para dados não vistos, o que requer equilíbrio entre capacidade da rede e risco de sobreajuste. Adicionalmente, técnicas como regularização, normalização e estratégias de otimização avançadas são cruciais para garantir eficiência e robustez no aprendizado.