O uso de templates dinâmicos no Elasticsearch oferece uma série de benefícios, como a correlação de dados, reutilização de mapeamentos e preparação para o futuro. Ao adotar boas práticas, como a utilização da convenção ECS para nomeação de campos, o processo de mapeamento pode ser significativamente mais eficiente. Esse processo não só facilita a integração de novos campos, mas também permite a aplicação automática de regras de mapeamento com base no tipo de dados desses campos. Vejamos como podemos explorar os templates dinâmicos para otimizar essa tarefa.
Um exemplo prático pode ser visto ao trabalharmos com dados relacionados a filmes. Suponhamos que estamos utilizando um índice para armazenar informações sobre filmes e, entre os campos, temos diferentes tipos de ano, como "release_year", "review_year" e "award_year". Para garantir que os novos campos sejam mapeados adequadamente sem a necessidade de intervenção manual a cada novo campo, podemos criar um template dinâmico.
No exemplo abaixo, o campo "year" é definido com o tipo de dado "long", o que, embora funcional, não é o mais eficiente para armazenamento. O objetivo é preparar o mapeamento de forma que qualquer novo campo que termine com "year" seja automaticamente atribuído a um tipo de dado "short". A implementação disso seria feita da seguinte forma:
Com essa configuração, sempre que um novo campo como "review_year" for inserido, ele será automaticamente mapeado para o tipo "short", garantindo um uso mais eficiente de memória.
Em seguida, ao indexar um novo documento com o campo "review_year", podemos verificar que o mapeamento foi atualizado corretamente. A consulta para verificar o mapeamento seria:
Após a execução dessa consulta, podemos confirmar que o campo "review_year" foi mapeado como "short", conforme a nossa configuração.
Além do exemplo apresentado, os templates dinâmicos podem ser utilizados em diferentes cenários, como a aplicação de regras de mapeamento para todos os campos de um determinado tipo, sem a necessidade de se preocupar com o nome do campo. Outro uso interessante é para campos com dados temporais, como métricas numéricas, onde a filtragem de dados pode ser desnecessária, e a agregação é o foco principal. Neste caso, desabilitar o índice para esses campos pode ser uma forma de economizar espaço em disco.
É importante também considerar a definição estratégica de mapeamentos para otimizar o armazenamento, a memória e a velocidade de indexação e pesquisa. A criação de um fluxo de trabalho eficiente para definir novos mapeamentos de índice pode incluir os seguintes passos:
-
Indexar um documento de amostra contendo os campos desejados em um índice temporário.
-
Recuperar o mapeamento dinâmico criado automaticamente pelo Elasticsearch.
-
Modificar e otimizar a definição de mapeamento conforme necessário.
-
Criar o índice com o mapeamento personalizado, seja ele explícito ou dinâmico.
Essa abordagem permite não apenas um controle mais preciso sobre o armazenamento, mas também otimiza a performance do sistema em relação ao volume de dados.
Além disso, ao usar templates dinâmicos, é possível automatizar a criação de novos índices, o que contribui para a consistência e padronização dos dados. Para isso, o uso de templates de índice pode ser muito útil. Eles automatizam o processo de criação de novos índices, garantindo que os mapeamentos e as configurações sejam aplicados de maneira consistente.
Por exemplo, ao criar um template de índice para filmes, podemos definir configurações específicas para os campos "genre", "director" e outros, sem precisar se preocupar com cada índice individualmente. Esse template pode ser combinado com outros templates de componente, como o de "year", para garantir que todos os campos relacionados a "ano" sejam tratados da mesma forma.
Para ilustrar, um template de índice que combina mapeamentos explícitos e dinâmicos poderia ser configurado da seguinte forma:
Com esse template, novos documentos podem ser indexados automaticamente, respeitando as configurações definidas, como no caso do campo "award_year", que será tratado conforme o template dinâmico.
Além de facilitar o processo de mapeamento, o uso de templates dinâmicos permite que novos campos sejam tratados de maneira eficiente, sem a necessidade de reconfiguração manual constante, o que é crucial em ambientes com grandes volumes de dados que estão sempre sendo atualizados ou modificados.
No entanto, ao trabalhar com templates dinâmicos, é crucial monitorar o comportamento do sistema, especialmente em grandes volumes de dados, para evitar problemas como a explosão de mapeamento. A correlação entre os dados deve ser constantemente analisada, e ajustes podem ser necessários para evitar que a estrutura do índice se torne excessivamente complexa e difícil de manter.
Como Enriquecer Dados com Processadores do Elastic Agent Antes da Ingestão no Elasticsearch
Para trabalhar eficazmente com dados no Elastic Stack, é fundamental compreender o papel dos processadores do Elastic Agent. Esses componentes modulares são projetados para manipular e melhorar os dados antes que eles sejam ingeridos no Elasticsearch. Usados corretamente, eles permitem que você realize transformações e enriqueça os dados de maneira eficiente, tudo na origem, sem a necessidade de processamento posterior. Vamos explorar como configurar um processador para enriquecer dados e como ele pode ser utilizado em um fluxo de trabalho do Elastic Stack.
Em primeiro lugar, para começar a usar os processadores, você precisa ter uma instalação do Elastic Stack em funcionamento, incluindo Elasticsearch, Kibana e o Fleet Server. Além disso, é necessário já ter um pipeline de ingestão implementado, como abordado em outra parte do livro, onde discutimos a criação de um pipeline de ingestão para dados. O código relacionado a esse processo pode ser encontrado no repositório GitHub do livro, acessível aqui.
Como Configurar o Processador no Kibana
A configuração de um processador no Kibana é simples, mas requer atenção a alguns detalhes. Para começar, no Kibana, vá até Management | Fleet | Agent Policies. Localize a política que está executando a integração do Apache e clique em View Policy. Em seguida, clique em Edit integration, ao lado da integração do Apache, para acessar a página de configurações da integração.
No campo Collect logs from Apache instances, você verá uma opção para ativar os logs de acesso do Apache. Ative o toggle Apache access logs, colapse a opção Advanced options, e você verá o campo Processors. Aqui, você pode adicionar o seguinte código, conforme mostrado na Figura 5.13 (o snippet do código está disponível aqui). Lembre-se de adaptar os valores para o seu ambiente e os metadados do host.
Após adicionar o código, clique em Save integration no canto inferior direito e aguarde até que as alterações sejam aplicadas aos agentes do Elastic Stack em execução.
Como Visualizar os Dados Enriquecidos
Depois de configurar o processador e salvar a integração, você pode verificar os documentos enviados pelo agente, que agora contêm campos adicionais, ao retornar ao Discover no Kibana. Selecione a visualização de dados logs-* e adicione o filtro event.dataset: apache.access. Expanda o primeiro documento da tabela e verá os campos adicionais que foram incorporados pelos processadores do agente.
Um detalhe importante a ser observado é que os campos adicionados pelos processadores do agente podem não ter um tipo definido, o que é indicado pelo símbolo de interrogação (?) ao lado do nome do campo. Isso ocorre porque nenhum mapeamento explícito foi definido para esses campos. Para corrigir isso, você pode consultar a receita de Definindo os mapeamentos de índice no Capítulo 2.
Como Funcionam os Processadores do Elastic Agent
Os processadores do Elastic Agent são poderosos componentes modulares que operam na origem dos dados. Eles recebem um evento, aplicam uma ação especificada, como parsing, filtragem, transformação ou enriquecimento, e depois passam o evento adiante. Quando múltiplos processadores são definidos em uma lista, eles são executados na ordem especificada, permitindo uma transformação e enriquecimento flexível dos dados, passo a passo, para garantir que os dados sejam otimizados para análise antes mesmo de chegarem à fase de ingestão.
Os processadores do Elastic Agent operam em uma fase inicial no fluxo de processamento de dados, antes de qualquer pipeline de ingestão ou processamento do Logstash. Por isso, as configurações de processadores dentro do Elastic Agent não podem depender ou fazer referência a campos criados ou modificados por estágios posteriores, como os pipelines de ingestão ou Logstash.
Limitações dos Processadores do Elastic Agent
Embora os processadores sejam uma ferramenta poderosa, existem algumas limitações importantes a serem consideradas. Primeiramente, os processadores não possuem a capacidade de enriquecer dados provenientes do Elasticsearch ou de fontes externas. Além disso, eles não podem processar dados depois que estes foram normalizados para o Elastic Common Schema, uma vez que isso ocorre nos pipelines de ingestão.
É importante também ter cuidado ao usar pipelines de ingestão baseados em integrações, para evitar a remoção ou modificação de campos que são esperados por esses pipelines, o que pode causar falhas no processamento. Além disso, como mencionado, é necessário definir os mapeamentos no componente -@custom do template para garantir que os campos sejam aplicados corretamente.
Apesar dessas limitações, os processadores do Elastic Agent continuam sendo uma ferramenta valiosa, especialmente para filtrar eventos na borda antes que os dados entrem no Elasticsearch. Nem todas as integrações suportam processadores, por isso, sempre consulte a documentação oficial do Elastic para confirmar a disponibilidade dessa funcionalidade.
Considerações Finais
Os processadores do Elastic Agent são uma ferramenta eficiente para manipulação de dados na origem, antes de sua ingestão no Elasticsearch. Com o uso correto, eles permitem que você enriqueça dados de maneira otimizada, garantindo um melhor desempenho nas etapas subsequentes de análise. No entanto, é fundamental entender suas limitações, como a impossibilidade de enriquecer dados de fontes externas e a falta de suporte para o Elastic Common Schema em algumas situações. O uso adequado dessa funcionalidade, aliado a um bom conhecimento das capacidades e restrições dos processadores, garantirá o sucesso na implementação de pipelines de ingestão eficientes e flexíveis.
Como Integrar Modelos de Linguagem com Fontes de Conhecimento Externas Usando RAG
A evolução das tecnologias de Inteligência Artificial, especialmente as que envolvem modelos de linguagem (LLMs), trouxe novas perspectivas para a construção de aplicativos que lidam com grandes volumes de dados e conhecimento. Um dos métodos mais eficazes para ampliar as capacidades desses modelos é a integração com fontes de conhecimento externas, proporcionando uma maneira de gerar respostas mais precisas e contextualmente relevantes. Nesse contexto, surgem ferramentas como LangChain, Elasticsearch, Ollama e Streamlit, que, quando combinadas adequadamente, podem resultar em soluções poderosas.
LangChain é uma biblioteca versátil, projetada para integrar modelos de linguagem com fontes externas de dados. Ela facilita a construção de aplicativos complexos ao permitir que esses modelos sejam conectados a diferentes sistemas de armazenamento e mecanismos de busca. Elastic Search, por sua vez, é um motor de busca altamente eficiente, conhecido por suas capacidades de busca vetorial e híbrida, o que melhora substancialmente a recuperação de informações dentro do nosso aplicativo. A integração de Elasticsearch com LLMs por meio de LangChain é o que permite aplicar o conceito de RAG (Retrieve and Generate), ou Recuperação e Geração, que é fundamental para o desempenho dessa abordagem.
O Ollama oferece uma solução de implantação que permite a execução de poderosos LLMs locais, possibilitando a inclusão de modelos de linguagem robustos diretamente em sua aplicação sem depender de servidores externos. Ao integrar Ollama com outros componentes, conseguimos aplicar a geração de respostas por meio de LLMs em dados confidenciais armazenados localmente, sem comprometer a segurança ou a precisão.
Além disso, o Streamlit surge como uma ferramenta útil para criar interfaces de usuário simples e intuitivas, permitindo que a interação com o sistema seja rápida e direta. Ao combinar essas tecnologias, é possível criar um ambiente eficiente e confiável para interação com dados complexos, como no exemplo de uma aplicação de perguntas e respostas que utilizamos para demonstrar o funcionamento do RAG.
A criação de um aplicativo simples de perguntas e respostas, utilizando um conjunto de dados de filmes, pode ilustrar bem os benefícios dessa integração. Inicialmente, ao fazer uma pergunta diretamente para o LLM, como "Qual filme fala sobre uma história de amor e uma joia preciosa a bordo de um grande navio cruzando o Atlântico?", o modelo não consegue identificar corretamente a resposta, o que é esperado dado que ele não tem acesso a um banco de dados específico. Esse é o limite dos modelos de linguagem quando utilizados sozinhos, sem a capacidade de recuperar informações relevantes do contexto.
Ao introduzir o conceito de RAG, e usar o Elasticsearch como mecanismo de recuperação de dados, conseguimos melhorar substancialmente as respostas do sistema. O processo funciona da seguinte maneira: a consulta feita ao LLM é acompanhada pela recuperação de documentos relevantes de uma base de dados (como o Elasticsearch), que são então usados pelo modelo para gerar uma resposta mais precisa. No exemplo, a aplicação de QA (Question Answering) passa a fornecer a resposta correta sobre o filme, baseada nas informações presentes no banco de dados de filmes.
Além de demonstrar a eficácia do RAG na melhoria das respostas de sistemas baseados em LLMs, este exemplo também ilustra como a combinação de ferramentas pode ser aplicada em situações mais específicas, como quando lidamos com dados confidenciais. Imagine, por exemplo, que estamos trabalhando com informações sobre um filme ainda não lançado e apenas conhecido por um número restrito de pessoas. Em uma consulta direta ao LLM, a resposta será imprecisa, pois o modelo não tem acesso a essa informação privada. No entanto, ao realizar a mesma consulta dentro da aplicação de perguntas e respostas que utiliza o Elasticsearch, obtemos a resposta correta sobre o filme desconhecido, uma vez que essa informação foi indexada no banco de dados.
Este exemplo prático nos mostra a importância de como a combinação de ferramentas adequadas pode melhorar substancialmente o desempenho e a aplicabilidade dos modelos de linguagem. A implementação de RAG, que integra a recuperação de informações e a geração de respostas, oferece um meio eficiente de trabalhar com dados privados e confidenciais, sem comprometer a qualidade das respostas.
Para quem deseja construir uma aplicação robusta com LLMs, como esta, alguns pontos são essenciais para garantir o sucesso da integração. Primeiramente, a escolha do mecanismo de recuperação de dados é crucial. No nosso caso, o Elasticsearch se destaca por suas capacidades de busca semântica e de vetores, permitindo a indexação de grandes volumes de dados e a recuperação rápida e precisa de informações. Segundo, é fundamental garantir que o modelo de linguagem utilizado seja capaz de processar essas informações recuperadas de maneira eficaz, como é o caso do Mistral 7B, que permite a execução local de modelos poderosos.
Além disso, a configuração adequada de cada ferramenta no ambiente de desenvolvimento é fundamental. Instalar corretamente o Ollama para rodar os LLMs localmente, configurar o Elasticsearch para otimizar a recuperação dos dados e utilizar o Streamlit para construir uma interface de usuário intuitiva são passos essenciais para garantir o bom funcionamento do sistema. Cada um desses componentes desempenha um papel específico e complementar, o que reforça a importância de uma integração bem planejada e executada.
Por fim, ao projetar sistemas que utilizam LLMs com fontes externas de dados, é crucial entender que a qualidade da recuperação de dados impacta diretamente na qualidade das respostas geradas. O modelo de linguagem sozinho, embora poderoso, pode não ser suficiente para garantir precisão em contextos complexos. A implementação do RAG, que combina a força do modelo de linguagem com a capacidade de recuperação de dados, surge como uma solução ideal para superar essas limitações.
Como Configurar os Componentes do Elastic Stack com Terraform e Criar Busca entre Clusters
A utilização do Terraform para provisionar recursos no Elastic Cloud tem se mostrado uma prática eficiente e altamente automatizável para equipes de desenvolvimento e operações. O objetivo é executar um plano Terraform que criará um ambiente do Elastic Stack na nuvem. A seguir, detalhamos como proceder para realizar esta configuração com o auxílio do Terraform, além de explicar o funcionamento por trás dessa integração e a importância do uso dessa ferramenta na gestão da infraestrutura do Elastic Stack.
Para começar, é necessário fazer o download dos arquivos relevantes do repositório GitHub. O primeiro passo consiste em acessar o repositório oficial e baixar os arquivos main.tf e terraform.tfvars, que contêm, respectivamente, a configuração principal e as variáveis de ambiente necessárias para a execução do Terraform. Após o download, abra os arquivos em seu editor preferido, insira sua chave de API e salve o arquivo.
Em seguida, no diretório em que os arquivos foram baixados, execute o comando terraform init para instalar as dependências necessárias para que o Terraform funcione corretamente. Esse passo prepara o ambiente, garantindo que todas as bibliotecas e módulos necessários sejam configurados.
Para validar a configuração antes de aplicá-la, utilize o comando terraform plan. Isso permite que você visualize o que será alterado no ambiente, uma etapa essencial para garantir que a infraestrutura será provisionada como esperado. O Terraform exibirá uma saída com as ações que serão executadas, o que deve ser cuidadosamente verificado antes da execução.
Após confirmar que a configuração está correta, o próximo passo é aplicar o plano utilizando o comando terraform apply. O Terraform pedirá sua confirmação para prosseguir. Ao digitar "yes", o processo de provisionamento será iniciado, e a configuração será aplicada ao Elastic Cloud. Esse processo pode levar alguns minutos, e o console exibirá a saída referente ao progresso da implementação.
Uma vez que o plano tenha sido aplicado, você verá as informações finais no console. O password do Elastic Stack estará disponível no arquivo .tfstate sob o diretório de saídas. Com isso, será possível acessar a instância provisionada no Elastic Cloud e verificar que o deploy foi realizado com sucesso.
Se, posteriormente, for necessário destruir os recursos criados, o comando terraform apply --destroy pode ser utilizado. Isso inicia o processo de remoção das instâncias, e o Terraform pedirá confirmação antes de proceder. Após alguns minutos, a infraestrutura será destruída, e a execução será finalizada.
Como Funciona
O provedor Terraform para o Elastic Cloud facilita o provisionamento automatizado de recursos na Elastic Cloud, incluindo clusters do Elasticsearch, instâncias do Kibana e integrações. Esse provedor atua como uma ponte entre a linguagem de configuração declarativa do Terraform e a API do Elastic Cloud, permitindo que desenvolvedores e equipes de operações definam a infraestrutura do Elastic Stack utilizando código.
Ao especificar o estado desejado dos recursos na configuração do Terraform, é possível aplicar mudanças de forma sistemática, garantindo que a infraestrutura esteja sempre em conformidade com o estado definido. Manter o código Terraform em controle de versão também fornece visibilidade sobre as mudanças feitas ao longo do tempo, facilitando o gerenciamento e a auditoria das alterações realizadas.
Expansão com Busca entre Clusters
Uma característica importante do Elastic Stack é a possibilidade de configurar a busca entre clusters (Cross-Cluster Search - CCS), permitindo que usuários consultem múltiplos clusters simultaneamente e obtenham uma visão agregada de dados de diversas fontes. Essa funcionalidade é útil em cenários como isolamento de dados, agregação de dados, gestão eficiente de recursos e análise de dados combinados.
A configuração do CCS exige a criação de uma relação de confiança entre clusters. No exemplo descrito, será criado um novo cluster chamado "new-team-deployment", que atuará como um cluster remoto para o cenário CCS. Esse processo utiliza novamente o Terraform para provisionar o novo cluster e estabelecer a confiança com o cluster principal. Após a configuração, será possível utilizar o CCS para combinar dados de diferentes fontes e simplificar o processo de monitoramento e análise.
Considerações Importantes
É fundamental que o leitor entenda a importância do uso do Terraform não apenas para provisionamento, mas também para o gerenciamento contínuo da infraestrutura. A configuração da Elastic Cloud por meio de Terraform oferece uma abordagem de infraestrutura como código (IaC), permitindo que recursos sejam gerenciados de maneira eficiente e reproduzível.
Além disso, a implementação de funcionalidades como a busca entre clusters (CCS) amplia a capacidade analítica do Elastic Stack, possibilitando uma análise mais profunda e integrada dos dados. A utilização de Terraform para gerenciar essas funcionalidades não só facilita a configuração, mas também torna o processo de escalabilidade e manutenção mais ágil.
Para quem busca avançar nesse processo, é importante entender como o Terraform pode ser utilizado não só para provisionar e destruir clusters, mas também para configurar recursos adicionais, como regras de alerta, pipelines de ingestão e templates de índice. Essas configurações avançadas são oferecidas por outros provedores Terraform, como o Elastic Stack Provider, e ajudam a personalizar ainda mais a infraestrutura do Elastic Stack.
Além disso, o uso do Terraform em ambientes multi-cloud é uma prática crescente. Ao utilizar Terraform em plataformas como o Google Kubernetes Engine (GKE), é possível expandir ainda mais a flexibilidade e a resiliência da infraestrutura, oferecendo uma experiência híbrida ou multi-cloud de forma eficiente.
Como Funciona o Monitoramento do Elastic Stack e Como Criar Visualizações Personalizadas para Seus Dados
A principal vantagem de monitorar o Elastic Stack utilizando as próprias ferramentas da Elastic é que os dados de monitoramento são armazenados como índices regulares, permitindo análises personalizadas. Como demonstrado no exemplo de como construir visualizações personalizadas para dados de monitoramento, essa abordagem permite explorar diversos aspectos das operações e do uso de seus clusters. É possível, por exemplo, analisar o volume de dados ingeridos diariamente, a quantidade de dados consultados ou identificar os intervalos de tempo mais comuns em consultas. Todas essas percepções podem ser obtidas apenas utilizando os dados de monitoramento disponíveis.
O funcionamento do Stack Monitoring pode ser entendido ao dividir seu processo em algumas etapas principais: coleta de dados, envio e armazenamento, análise e visualização, e alertas.
A coleta de dados é realizada pelo Metricbeat e pelo Filebeat, que são configurados para coletar dados operacionais detalhados. O Metricbeat coleta métricas de cada componente, como o uso da CPU, a utilização de memória e a saúde do nó, enquanto o Filebeat coleta logs que fornecem insights sobre eventos operacionais. Esses Beats foram projetados para trabalhar de forma integrada com o Elastic Cloud, garantindo que os dados sejam capturados e transmitidos para análise de forma eficiente. Também é possível utilizar o Elastic Agent, a partir da versão 8.5, para coletar eventos de monitoramento da stack.
Após a coleta, os dados são enviados para o cluster dedicado de monitoramento dentro do Elastic Cloud. A separação dos dados de monitoramento dos dados de produção assegura que as atividades de monitoramento não impactem a performance do ambiente de produção. Os dados são armazenados em índices no Elasticsearch, o que os torna acessíveis para análise e visualização. Quando o Elastic Stack é executado no local (on-premise), também é considerado uma boa prática isolar o cluster de monitoramento, garantindo que o desempenho da produção não seja afetado.
A análise e visualização dos dados coletados são realizadas principalmente através do Kibana, que oferece uma interface especializada de Stack Monitoring. Esta interface fornece aos usuários um painel abrangente, que visualiza a saúde, o desempenho e os logs dos componentes do Elastic Stack. A partir dessa interface, os usuários podem explorar métricas específicas, visualizar tendências históricas e identificar padrões ou anomalias que possam indicar problemas ou oportunidades para otimização.
O framework de alertas do Elasticsearch é uma parte integral do Stack Monitoring, permitindo que os usuários definam alertas baseados em condições específicas nos dados de monitoramento. Esses alertas podem notificar os usuários sobre potenciais problemas, como uma queda repentina no desempenho ou a indisponibilidade de um nó, possibilitando uma resposta rápida para garantir a estabilidade e a confiabilidade do Elastic Stack.
A segurança no Stack Monitoring está completamente integrada ao modelo de segurança geral do Elastic Cloud. O acesso aos dados de monitoramento e às funcionalidades é controlado por meio do controle de acesso baseado em funções (RBAC), garantindo que apenas usuários autorizados possam visualizar ou manipular as configurações e os dados de monitoramento.
Além disso, é recomendável realizar algumas ações para otimizar o monitoramento do Elastic Stack: revisar regularmente os painéis de saúde e desempenho para antecipar potenciais problemas, configurar alertas para gerenciar proativamente o ambiente, e utilizar métricas e logs detalhados para realizar uma análise de causa raiz (RCA) de quaisquer problemas operacionais. Também é possível monitorar o Logstash por meio da aplicação de Stack Monitoring, utilizando integrações do Logstash para Elastic Agents. Ao implantar um Elastic Agent na infraestrutura onde o Logstash está em funcionamento, será possível coletar dados de monitoramento e enviá-los para o cluster de monitoramento.
Para aprimorar ainda mais o monitoramento, é possível criar visualizações personalizadas para os dados de monitoramento. A criação dessas visualizações permite monitorar indicadores-chave de desempenho (KPIs) adicionais, ajudando a entender melhor os valores operacionais e de negócios do seu deployment, além de fornecer mais insights para resolução de problemas.
O processo para criar uma visualização personalizada começa com a criação de uma "data view" para os índices de monitoramento. Em seguida, no Kibana, é possível criar uma visualização utilizando o editor de Lens, onde é possível configurar os tipos de visualização, como tabelas, para rastrear alterações diárias de armazenamento por índice. A personalização desses relatórios pode ser feita com base nas métricas que mais interessam ao seu caso, como o número de valores exibidos ou o intervalo de tempo das métricas.
Essas visualizações customizadas são úteis não apenas para a análise de dados em tempo real, mas também para gerar relatórios históricos que podem fornecer insights valiosos para otimizações de performance. O Kibana oferece diversas opções de personalização, e essas visualizações podem ser salvas e integradas aos painéis existentes para uma visão mais abrangente do estado do seu Elastic Stack.
Por fim, se você estiver utilizando o Terraform, pode configurar rapidamente a implantação de monitoramento em sua configuração com as configurações de Observabilidade. Essa integração facilita o gerenciamento do ambiente e assegura que as métricas de monitoramento estejam sempre sendo capturadas e analisadas de maneira eficaz.
Como a Limitação de Recursos e o Gerenciamento de Clusters Afetam a Confiabilidade e o Desempenho dos Sistemas
Como montar e cobrir bolos complexos: técnicas essenciais para estabilidade e acabamento perfeito

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский