Nos próximos anos, é evidente que o número de sistemas de Resolução Online de Disputas (ODR) crescerá significativamente, criando uma competição crescente entre os próprios provedores de ODR e as entidades certificadoras nacionais. Em países como a Coreia do Sul, sistemas de ODR já estão plenamente operacionais. Caso os provedores de ODR adotem Inteligência Artificial (IA) – como é esperado – os dispositivos da Lei de IA serão acionados, especialmente no que tange a sistemas de IA de alto risco. As obrigações de diligência previstas nos Capítulos II e III, que tratam de provedores, implementadores, distribuidores e importadores, bem como as possíveis isenções que possam reduzir a carga regulamentar, serão implementadas por meio de algoritmos. Este cenário traz novas complicações, especialmente se a variante escolhida para ODR for considerada uma IA generativa.
A revolução tecnológica trazida pela IA generativa, com modelos como o GPT, está impactando profundamente as práticas jurídicas e os processos legais, ampliando as possibilidades de automação em áreas que antes eram limitadas. O projeto CLAUDETTE, que visa automatizar a avaliação de contratos de consumo e políticas de privacidade, exemplifica o uso crescente de IAs para tarefas legais, algo que se expandirá com a chegada dos modelos de linguagem de grande escala (LLMs). No entanto, a automatização de tarefas legais, especialmente aquelas relacionadas à análise de textos complexos, não deve ser vista de forma unânime como positiva. Embora traga a promessa de redução de custos e maior eficiência, também apresenta o risco de ampliação do uso indevido de tecnologias, especialmente por agentes mal-intencionados que podem se beneficiar das facilidades que essas novas ferramentas proporcionam.
Importante destacar que, apesar da empolgação em torno das novas possibilidades da IA generativa, nem todos os processos legais serão adequados para automação. Além disso, existe uma tendência humana, histórica, de superestimar os efeitos das inovações tecnológicas no curto prazo e subestimá-los no longo prazo. Isso implica que nem todas as expectativas de automação se concretizarão no futuro próximo, mas sem dúvida a paisagem do direito e da tecnologia legal mudará substancialmente nas próximas décadas. O impacto potencial da IA no campo jurídico não pode ser negligenciado, e os desafios regulatórios ainda estão longe de serem resolvidos.
O impacto dos modelos de IA na profissão jurídica também é evidente quando observamos dados de estudos realizados nos Estados Unidos e na Europa. A adoção de IAs, como o ChatGPT, está alterando a forma como os advogados conduzem suas atividades diárias, desde a pesquisa até a redação de documentos e a análise de informações legais. A estimativa da Goldman Sachs sugere que cerca de 44% das tarefas legais nos Estados Unidos podem ser automatizadas por IA. Isso se traduz em uma maior eficiência, mas também em novos dilemas éticos e regulatórios que exigem consideração cuidadosa. Casos como o de advogados de Nova York, multados por usarem citações falsas geradas por IA, trazem à tona questões cruciais sobre a responsabilidade dos profissionais do direito ao utilizar essas tecnologias.
Além disso, o impacto da IA não está restrito apenas ao mercado de trabalho jurídico, mas também à educação jurídica. Ferramentas baseadas em IA estão sendo cada vez mais usadas por estudantes de direito, e até mesmo o GPT-4 demonstrou capacidade para passar no exame da Ordem dos Advogados (Bar Exam) nos Estados Unidos, um feito que sublinha a potencial transformação da profissão.
A revolução gerada pela IA generativa nos modelos de linguagem pode facilitar a automação de uma série de tarefas, tornando processos como revisão de contratos e documentos muito mais rápidos e acessíveis. No entanto, a redução de custos e o aumento da eficiência trazem consigo uma necessidade urgente de regulamentação e monitoramento ético. Em um futuro próximo, será imperativo que tanto os profissionais do direito quanto os reguladores considerem cuidadosamente os efeitos da IA nas práticas jurídicas, especialmente no que se refere à transparência, à responsabilidade e à segurança jurídica.
Não obstante, o caminho da integração da IA no direito não é uma estrada sem obstáculos. O uso indiscriminado de tecnologias de IA no campo jurídico pode dar origem a um aumento das práticas fraudulentas e à disseminação de informações falsas. Em um cenário de conformidade, onde a geração de textos pode ser automatizada, o risco de manipulação do sistema e da criação de documentos falsificados é uma preocupação real que precisa ser abordada de maneira rigorosa. O controle da qualidade das informações geradas por IA, como também o monitoramento da transparência dos processos de automação, serão questões centrais na regulação dos sistemas de IA na prática jurídica.
Ao mesmo tempo, é fundamental que os advogados e demais profissionais da área jurídica não vejam a IA como uma substituição, mas como uma ferramenta para aprimorar suas atividades. A IA tem o potencial de acelerar processos e reduzir o custo das operações jurídicas, mas é essencial que sua implementação seja acompanhada de uma reflexão ética e regulatória que preserve os direitos fundamentais dos indivíduos e a integridade dos processos legais.
Como as Ferramentas de IA e os Modelos de Linguagem Grande (LLMs) Estão Transformando os Serviços Jurídicos?
Os Modelos de Linguagem Grande (LLMs) têm gerado um debate crescente sobre a forma como as ferramentas de inteligência artificial podem ser integradas ao fornecimento de serviços jurídicos, uma vez que são capazes de gerar respostas específicas para perguntas complexas em linguagem natural. Porém, a questão fundamental permanece: até que ponto essas ferramentas podem ser consideradas como prestadoras de serviços jurídicos, e qual é o impacto da sua utilização em relação às normas existentes sobre a prática da profissão? A utilização de LLMs, como o ChatGPT, em atividades legais levanta uma série de problemas regulatórios e éticos, uma vez que sua operação não depende de decisões humanas e é baseada em um conjunto preestabelecido de algoritmos e dados.
A regulamentação sobre serviços jurídicos, especialmente no contexto da legislação alemã (RDG), estipula que atividades relacionadas a "assuntos concretos de outros" devem ser restritas a advogados licenciados. No entanto, surge a dúvida sobre o grau de envolvimento da inteligência artificial nesses processos. Por exemplo, se um usuário faz uma pergunta jurídica específica a um LLM, a resposta gerada por essa IA está intrinsecamente ligada a um "assunto concreto", o que poderia qualificar essa interação como uma atividade de consultoria jurídica, algo que deveria ser regulado de forma distinta da simples disseminação de informações gerais. Em um cenário onde LLMs fornecem respostas que não podem ser facilmente discernidas como errôneas por um leigo, a ausência de regulamentação adequada para essas ferramentas levanta questões sobre a proteção dos consumidores.
A questão também está longe de ser resolvida em outros países, como os Estados Unidos, onde a regulamentação da prática jurídica ainda depende largamente de uma qualificação humana, como a aprovação em exames de ordem. Mesmo que uma ferramenta de IA fosse utilizada por um advogado licenciado, isso não garantiria que o serviço prestado fosse de alta qualidade. O que determina a qualidade de um serviço legal gerado por IA não é a competência do usuário, mas a qualidade do software e dos dados utilizados para treiná-lo. Em um mundo cada vez mais digital, onde as ferramentas de IA se tornam cada vez mais sofisticadas, seria necessário que a regulamentação jurídica evoluísse para abarcar essas novas formas de prestação de serviços. Em particular, a criação de mecanismos alternativos de aprovação e certificação para softwares jurídicos seria uma medida importante para garantir a segurança e a qualidade do serviço prestado.
Dada a natureza dos serviços jurídicos, a regulamentação tradicional, que se baseia em competências individuais adquiridas em instituições de ensino e passagens por exames rigorosos, pode não ser mais suficiente para garantir que o serviço legal prestado por IA seja seguro e de qualidade. Além disso, a questão da responsabilidade jurídica também se coloca como um grande desafio. Quem seria responsável se o LLM fornecesse uma resposta errada que prejudicasse um cliente? O fornecedor do software, o advogado que o utilizou ou a própria IA? Esses aspectos precisam ser discutidos profundamente pelos órgãos reguladores.
Para garantir que a tecnologia seja utilizada de maneira ética e segura, uma série de grupos tem trabalhado em diretrizes que orientam o uso de IA no setor jurídico. No Brasil, por exemplo, o Conselho Federal da Ordem dos Advogados do Brasil (OAB) ainda não tem uma regulamentação específica para o uso de IA em serviços jurídicos, mas algumas iniciativas internacionais, como a Task Force on Responsible Use of Generative AI for Law, estão ajudando a construir um modelo que prioriza a responsabilidade ética e profissional no uso dessas ferramentas. A partir de 2023, várias associações de advogados, incluindo as da Califórnia e Nova York, começaram a publicar diretrizes sobre o uso de LLMs, mas todas essas diretrizes ainda não têm força vinculante.
Essas diretrizes visam proteger tanto os profissionais do direito quanto os consumidores, fornecendo princípios de uso adequado das ferramentas. Contudo, elas não substituem a necessidade de uma regulamentação legal clara sobre as ferramentas de IA. O uso de IA em serviços jurídicos exige uma adaptação dos códigos de conduta profissional, uma vez que não está claro como essas ferramentas devem ser utilizadas sem comprometer a qualidade do serviço ou violar as normas de responsabilidade legal.
Além disso, a distinção entre "informação" e "aconselhamento jurídico" precisa ser revista à luz dessas novas tecnologias. As ferramentas de IA estão cada vez mais aptas a gerar recomendações específicas, baseadas em dados e modelos preexistentes, mas sem o componente humano do julgamento ético e profissional que normalmente acompanha as decisões jurídicas.
Em um futuro não muito distante, será necessário avaliar profundamente como os sistemas de IA, como os LLMs, se encaixam nas regulamentações existentes, sem comprometer a integridade e a justiça dos serviços jurídicos. A necessidade de uma legislação adaptativa, que reconheça as vantagens da IA sem perder de vista a segurança e os direitos dos consumidores, será uma das questões mais complexas e urgentes para os reguladores em todo o mundo.
Como as Agências Federais dos EUA e a União Europeia Estão Implementando a IA Generativa na Administração Pública
A implementação da inteligência artificial generativa em agências federais e administrativas é um tema que, nos últimos anos, tem gerado debates intensos sobre a interseção entre inovação tecnológica, governança pública e valores éticos. Tanto os documentos regulatórios dos Estados Unidos quanto os da União Europeia oferecem uma visão sobre possíveis cenários para operacionalizar o avanço da IA generativa na administração pública. Por um lado, essas documentações detalham os mecanismos para integrar soluções desenvolvidas por players privados, enfatizando a importância da adaptação de marcos regulatórios e o fortalecimento de estruturas de governança para facilitar a aquisição e o uso dessas tecnologias.
Nos Estados Unidos, ordens executivas indicam a relevância de revisar as regulamentações sobre compras públicas, sugerindo uma adaptação contínua da estrutura regulatória para incorporar soluções desenvolvidas por empresas privadas. O governo federal também busca promover a modernização tecnológica por meio do financiamento de projetos inovadores, particularmente os que envolvem IA generativa, com um foco especial em tecnologias de grande escala, como modelos de linguagem, ferramentas de geração de código e geradores de imagens baseados em prompts. Nesse contexto, a administração americana alinha suas políticas à indústria nacional, favorecendo soluções privadas e promovendo um tipo de política industrial que visa fortalecer a liderança dos EUA na área de IA.
Por outro lado, a União Europeia adota uma abordagem mais cautelosa e menos clara em alguns aspectos, em parte devido à limitada quantidade de documentos analisados até o momento. No entanto, os esforços regulatórios europeus enfatizam o modelo de governança de IA aberta, priorizando sistemas que favoreçam o acesso público e cumpram com menos obrigações de conformidade, uma estratégia que contrasta com a dependência dos Estados Unidos em relação ao setor privado. As diretrizes internas da UE se mostram cuidadosas ao explorar o uso de ferramentas de IA generativa de fácil acesso na internet, destacando os riscos associados ao uso indiscriminado dessas tecnologias. A tendência de grandes volumes de dados e recursos computacionais necessários para os modelos de linguagem sugere que a dependência de fornecedores externos será uma realidade, mesmo com as reservas expressas nos documentos internos.
No que diz respeito aos valores éticos e legais, tanto os EUA quanto a União Europeia compartilham uma preocupação comum com o papel da IA generativa como apoio às equipes de funcionários públicos. Para a União Europeia, a IA generativa deve melhorar a eficiência dos processos administrativos e judiciais, além de favorecer a justiça, promovendo consistência nas decisões judiciais e ampliando o acesso à transparência, especialmente para cidadãos com deficiência. A perspectiva humana está no centro das preocupações da Comissão Europeia, que evita o uso de sistemas de IA incompatíveis com os valores fundamentais europeus, como segurança, saúde e direitos humanos.
Nos Estados Unidos, a ordem executiva federal destaca a necessidade de avaliar e desmantelar sistemas de IA que não estejam em conformidade com os direitos civis, uma medida que reflete o compromisso com a justiça social e a não discriminação. As ordens executivas estaduais, como a da Califórnia e a da Pensilvânia, também oferecem uma série de diretrizes que abrem caminho para uma implementação responsável da IA generativa. A transparência, a precisão e a responsabilidade são valores centrais nas regulamentações de tecnologia, juntamente com a necessidade de uma adaptação contínua para lidar com os riscos emergentes da IA. Além disso, destaca-se a importância de garantir a equidade no uso dessas tecnologias, evitando que a IA favoreça ou desfavoreça injustamente determinados grupos sociais. A implementação de ferramentas de IA generativa deve ser feita de forma equitativa, respeitando os direitos dos indivíduos, sem discriminação com base em fatores como idade, sexo, raça, etnia ou orientação sexual.
No entanto, embora os valores de transparência e responsabilidade sejam fundamentais na regulamentação da IA generativa, sua implementação pode gerar dificuldades e mal-entendidos no contexto administrativo. Por exemplo, a transparência exigida nas documentações técnicas e nos processos de rastreamento pode não corresponder ao entendimento legal de transparência, que, no direito administrativo, se refere ao processo de abertura mínima, com acesso a documentos e publicações de atos administrativos. Portanto, a implementação de IA nas administrações públicas precisa equilibrar não só os avanços tecnológicos, mas também os direitos civis e as expectativas sociais.
Para uma implementação eficaz e ética da IA generativa, é necessário que governos adotem uma abordagem mais ampla que considere não apenas as diretrizes e regulamentações, mas também a contínua avaliação dos impactos sociais dessas tecnologias. A adaptação e a formação contínua das agências públicas, em sintonia com as inovações tecnológicas e os princípios legais e éticos, são essenciais para o sucesso dessa transformação.
Quais são os riscos associados aos Modelos de Linguagem (LLMs) e como a legislação pode lidar com esses desafios?
O surgimento de modelos de linguagem como o ChatGPT trouxe à tona uma série de benefícios, mas também trouxe preocupações éticas e riscos que não podem ser ignorados. Além de suas capacidades impressionantes de gerar textos, imagens, áudios e vídeos que podem ser praticamente indistinguíveis das produções humanas, esses modelos têm o potencial de amplificar uma série de problemas existentes na sociedade e criar novos desafios. Entre os riscos mais notáveis, encontra-se o fato de que as notícias falsas geradas por inteligência artificial (IA) podem ser mais convincentes para os seres humanos do que aquelas produzidas por fontes tradicionais de desinformação. Alguns estudiosos destacam que as informações geradas por IA podem gerar uma percepção de maior credibilidade, o que pode ser explorado de maneira maliciosa para disseminar desinformação em grande escala.
Além disso, a sobrecarga de confiança nos modelos de linguagem é outro risco relevante. Usuários que superestimam as capacidades desses sistemas podem se envolver em interações prejudiciais, tratando as respostas da IA como verdades absolutas ou utilizando-a para fins nocivos. Como exemplo, o uso de IA em fraudes de larga escala ou golpes personalizados tem se tornado uma realidade crescente, e isso levanta a questão de até onde os modelos de linguagem podem ser responsabilizados por tais usos indevidos.
Dentro do contexto jurídico, questões de propriedade intelectual, como o uso não autorizado de obras protegidas por direitos autorais para treinar esses modelos, estão gerando uma série de contendas legais. Autores e criadores de conteúdo têm argumentado que seus trabalhos foram ingeridos e utilizados para treinar sistemas como o ChatGPT sem a devida autorização, um problema que pode ser ainda mais complexo, pois as leis de propriedade intelectual variam significativamente de um país para outro. O caso do GDPR, com suas rígidas normas sobre a proteção de dados pessoais, também se aplica aqui, uma vez que muitos dados utilizados para treinar esses modelos podem ter sido coletados sem o consentimento explícito dos indivíduos.
Esse cenário de incertezas legais e éticas está criando um terreno fértil para debates sobre o papel da autorregulação das empresas de tecnologia. Enquanto algumas tentam se regular de forma voluntária, a eficácia dessas políticas é questionada por especialistas que apontam a falta de fiscalização e a necessidade de uma abordagem legal mais robusta. A crescente pressão para regulamentar a IA em nível global é um reflexo da preocupação com os riscos que essa tecnologia representa. Já em 2023, o governo chinês adotou medidas temporárias para controlar o uso de IA generativa, e o governo dos EUA publicou uma ordem executiva que também visava conter os riscos dessa tecnologia. Na União Europeia, a Regulação (EU) 2024/1689, aprovada em julho de 2024, é um exemplo de uma tentativa legislativa de lidar com os modelos de IA generativa de forma eficaz.
Essas ações legislativas, no entanto, não são isentas de críticas. Embora representem um esforço significativo para regulamentar a IA, elas enfrentam o desafio de se manterem atualizadas com os rápidos avanços tecnológicos. A regulamentação precisa ser flexível o suficiente para acompanhar o desenvolvimento contínuo desses sistemas, sem sufocar a inovação. Isso levanta uma questão fundamental: como encontrar um equilíbrio entre a promoção do desenvolvimento tecnológico e a mitigação dos riscos associados à IA?
Além disso, é importante compreender que a regulamentação da IA não deve ser vista apenas como uma tarefa das empresas ou dos governos. Existe uma crescente necessidade de envolver a sociedade civil e as comunidades de pesquisa no debate sobre como essa tecnologia deve ser governada. Somente com a colaboração de múltiplos atores será possível criar um quadro legal e ético que minimize os danos potenciais sem inibir os benefícios. A IA tem um enorme potencial de transformação em diversos setores, desde a educação até a saúde, mas seu uso inadequado pode causar danos significativos.
O conceito de "aprendiz de feiticeiro", evocando a famosa obra de Goethe, ilustra bem a situação atual. Assim como o aprendiz que invoca poderes que não consegue controlar, os desenvolvedores de IA e até mesmo os legisladores podem se ver em uma situação em que as consequências de suas próprias criações ou regulações fogem ao seu controle. Isso ressalta a importância de uma governança responsável e proativa, que não apenas identifique os riscos, mas também antecipe e se prepare para os problemas que possam surgir.
No fundo, é crucial que as políticas públicas não só lidem com os danos imediatos da IA, mas também antecipem suas implicações a longo prazo. O desafio de regular a IA de forma eficaz é tão grande quanto os próprios benefícios que ela oferece. Os legisladores precisam balancear o desejo de promover a inovação com a necessidade de proteger direitos fundamentais, como a privacidade e a liberdade de expressão, evitando que a tecnologia se torne um instrumento de controle excessivo ou de amplificação de desigualdades.
Como Singapura Lidera a Governança da IA e o Que Isso Significa para a ASEAN
O modelo de governança de inteligência artificial (IA) adotado por Singapura destaca-se por sua abordagem pragmática, flexível e orientada para a colaboração entre o governo, a indústria e a sociedade. Este modelo vem se consolidando como referência regional no Sudeste Asiático, especialmente no contexto da ASEAN, cuja diversidade econômica, institucional e cultural exige estruturas adaptativas e contextualmente sensíveis.
O sucesso do modelo singapurense repousa em dois pilares fundamentais: primeiro, a sua capacidade de ajustar diretrizes regulatórias sem comprometer o ritmo da inovação; segundo, a construção de um ecossistema de confiança em torno da IA, no qual a transparência, a responsabilização e a ética não são apenas metas discursivas, mas requisitos operacionais. A estratégia do país evita regulamentações rígidas e verticais, priorizando frameworks maleáveis que podem ser adotados por diferentes setores com níveis variados de maturidade tecnológica.
Este equilíbrio entre promoção da inovação e mitigação de riscos foi reconhecido internacionalmente, com Singapura assumindo papéis centrais em fóruns multilaterais como o GPAI, o WEF e as Nações Unidas. A liderança do país na formulação do ASEAN Guide on AI Governance and Ethics reforça sua posição como articulador regional, promovendo padrões que dialogam com as boas práticas da União Europeia, em particular os princípios do AI Act.
Apesar disso, é necessário reconhecer os limites da replicabilidade deste modelo. As profundas disparidades entre os Estados-membros da ASEAN — em termos de capacidade institucional, infraestrutura digital, cultura regulatória e maturidade do setor privado — tornam inviável uma simples transposição do modelo singapurense. A efetividade da governança da IA, portanto, exige um olhar situado, que leve em conta as especificidades locais, ao mesmo tempo em que busca harmonização mínima para garantir interoperabilidade e proteção transfronteiriça.
A abordagem de Singapura se sustenta sobre uma governança por meio de instrumentos voluntários e frameworks experimentais, como o Model AI Governance Framework e o AI Verify Toolkit, que permitem testes e validações em contextos reais antes da adoção em escala. Essa estratégia de “soft governance” mostra-se eficaz não apenas na regulação, mas também na construção de consenso social e na preparação da sociedade civil para os desafios e oportunidades da IA. O cidadão é chamado a corresponsabilizar-se pelo futuro digital, por meio da alfabetização tecnológica, da requalificação profissional e da participação ativa nos debates sobre ética e uso responsável da IA.
A confiança pública emerge como elemento-chave para a consolidação da estratégia nacional de IA, sendo tratada como ativo estrutural para a realização da Smart Nation. Desde 2018, Singapura compreendeu que a legitimidade social da IA está condicionada não apenas à sua eficácia técnica, mas à forma como os riscos são comunicados, distribuídos e gerenciados em rede.
No futuro próximo, é provável que a trajetória regulatória da IA no país continue a priorizar a governança cooperativa, baseada em parcerias multissetoriais, inovação institucional e engajamento internacional. A postura de “primeiro em mover” (first-mover) — visível nas iniciativas como SEA-LION e nos investimentos em pesquisa aplicada — permite a Singapura não apenas acompanhar, mas moldar os rumos da governança global da IA. O país demonstra que a regulação eficaz pode nascer da experimentação controlada, desde que aliada a capacidades tecnológicas robustas e à vontade política de coordenar esforços regionais.
Além disso, o engajamento internacional de Singapura tem um papel estratégico: atrair talentos globais, compartilhar metodologias regulatórias e fomentar capacidades institucionais em países vizinhos. Esta diplomacia tecnológica revela a compreensão de que nenhuma nação conseguirá navegar sozinha o impacto transformador da IA generativa (GenAI). A interdependência digital impõe novos pactos regulatórios, com ênfase na interoperabilidade de valores, regras e infraestruturas.
Importa compreender que a aparente lentidão na adoção de regulações mais rígidas não decorre de omissão, mas de uma escolha estratégica. Singapura tem os recursos, o conhecimento e a governança necessária para adotar um modelo incremental e calibrado. Quando — e se — o país decidir instituir uma regulação horizontal mais abrangente, é quase certo que esta será fruto de um processo acumulativo, sustentado por evidências e alinhado aos interesses públicos e econômicos da nação.
O caso de Singapura ilustra uma forma de governança que não antagoniza inovação e responsabilidade. Pelo contrário, transforma o próprio processo de inovação em campo regulado, participativo e sensível às dinâmicas sociais e éticas da transformação digital
Como os Elétrons Quentes de Metais Plasmônicos Melhoram a Extração de Urânio
Como garantir a proteção adequada dos vasos de pressão e equipamentos downstream em sistemas de processo?
Como a Compressão de Grade e o Design de Bocal de Comprimento Mínimo Influenciam a Performance de Jatos Supersônicos
Ciclo de Atividades "Salão Pedagógico": Círculos Comunitários de Educadores "Aprendendo Juntos"
Plano de Prevenção de Acidentes de Trânsito Infantil para o Ano Letivo de 2018-2019
Ministério da Saúde do Território de Krasnoyarsk PORTARIA Nº 915 - LICENÇAS MÉDICAS 06 de outubro de 2025
O Mundo Mágico da Arte: Uma Jornada Pela Beleza, Inspiração e Amor à Pátria

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский