A aplicação do Regulamento Geral sobre a Proteção de Dados (GDPR) aos modelos de inteligência artificial generativa revela um conjunto de tensões fundamentais entre os princípios do direito europeu à privacidade e à proteção de dados e a lógica técnica que estrutura o funcionamento desses sistemas. O escopo do GDPR, definido em seu Artigo 1º, é explícito: trata-se da proteção dos direitos e liberdades fundamentais das pessoas singulares no que diz respeito ao tratamento de dados pessoais. No entanto, a natureza extensiva e opaca do processamento de dados nos modelos generativos desafia esse enquadramento legal.

A definição de “tratamento” adotada pelo GDPR é intencionalmente ampla, abarcando qualquer operação realizada com dados pessoais, desde a coleta até a eliminação. Assim, todos os estágios do ciclo de vida de um modelo de IA – coleta de dados, treinamento, aplicação – estão, em tese

Como o Acesso a Conjuntos de Dados Jurídicos pode Impactar a Concorrência no Setor de Legal Tech

O setor de Legal Tech, que envolve o uso de tecnologias avançadas para transformar a prática jurídica, está sendo moldado pela aplicação de modelos de Inteligência Artificial Generativa (GenAI). No entanto, o impacto dessa tecnologia na concorrência e na inovação tem gerado questões importantes sobre o acesso e a utilização de conjuntos de dados jurídicos exclusivos. Empresas que controlam esses dados podem ter uma vantagem competitiva significativa, especialmente se forem capazes de restringir o acesso a esses dados, limitando a capacidade de concorrentes de inovar e competir. O ponto crucial reside na questão de saber se tais práticas prejudicam a competição, excluindo concorrentes ou criando barreiras de entrada no mercado.

Embora a posse de conjuntos de dados exclusivos não seja, por si só, um problema, o uso desses dados para restringir o acesso de outros pode ser visto como abuso de posição dominante, especialmente em jurisdições como a União Europeia. O Artigo 102 do Tratado sobre o Funcionamento da União Europeia (TFUE) proíbe práticas que abusem de uma posição dominante no mercado, e a questão do acesso a dados essenciais pode ser um ponto crítico para avaliação dessa concorrência desleal. Nos Estados Unidos, o Sherman Act pode também ser invocado quando o comportamento de uma empresa prejudica a competição, especialmente quando essa prática envolve a utilização de dados proprietários e GenAI para criar uma vantagem injusta sobre concorrentes.

A tensão entre o direito de autor e as leis antitruste torna-se evidente nesse contexto. A legislação de copyright concede aos proprietários de conjuntos de dados (como os editores jurídicos) direitos exclusivos sobre o uso e distribuição desses dados, o que serve como incentivo para a criação e manutenção de bancos de dados valiosos. Porém, essa proteção da propriedade intelectual precisa ser equilibrada com a preservação da concorrência no mercado. Quando a recusa em compartilhar dados protegidos por copyright resulta em um efeito anticompetitivo, como a criação de barreiras à inovação, as autoridades de concorrência podem investigar e até mesmo considerar isso um abuso de poder no mercado.

Em alguns casos, os princípios da "doutrina das facilidades essenciais" podem ser aplicados. Isso ocorre quando o acesso a um conjunto de dados específico é considerado indispensável para que os concorrentes operem ou inovem no mercado. A aplicação desse princípio, embora rara, pode ser justificada quando a recusa ao acesso prejudica significativamente a competição, prejudicando o desenvolvimento tecnológico e a oferta de novos serviços, que poderiam beneficiar os consumidores.

Outro ponto de consideração no mercado de GenAI é a prática de "data scraping", ou coleta de dados na web. Este processo consiste em usar algoritmos para extrair informações de sites e pode ser uma prática anticompetitiva, especialmente quando realizada de forma a substituir o tráfego ou a receita publicitária dos sites originais. Embora o scraping seja frequentemente considerado uma prática cinza do ponto de vista legal, pois intersecta com direitos de propriedade intelectual, termos e condições de sites, e a Diretriz de Bases de Dados da União Europeia, ele pode ser argumentado que o scraping prejudica os concorrentes ao reduzir a necessidade de acessar o site original, retirando-lhe visitantes e, consequentemente, sua receita.

Em mercados como o de GenAI, onde grandes modelos de linguagem (LLMs) e modelos de base (foundation models) são componentes centrais das inovações tecnológicas, as implicações do acesso aos dados e do scraping se tornam ainda mais relevantes. Esses modelos podem funcionar como plataformas que permitem a desenvolvedores independentes criar produtos que dependem desses dados e modelos para operar. Empresas como a OpenAI e Meta têm investido no fornecimento de APIs e na disponibilização de seus modelos para outros desenvolvedores. No entanto, o uso restrito desses modelos ou dados para criar um ambiente competitivo desleal pode resultar em práticas prejudiciais à inovação e ao avanço tecnológico.

O problema central em qualquer um desses cenários é a delimitação entre a proteção legítima da propriedade intelectual e a preservação de um mercado competitivo e dinâmico. Em contextos como o de GenAI no setor de Legal Tech, o acesso a dados jurídicos cruciais para o desenvolvimento de novas tecnologias de inteligência artificial pode ser considerado um fator decisivo para a manutenção da competição saudável e da inovação.

O Impacto da Inteligência Artificial na Governança Corporativa: Uma Nova Abordagem para Conselhos e Tomada de Decisões

Há cerca de uma década, os especialistas em direito corporativo dos Estados Unidos, Stephen Bainbridge e M. Todd Henderson, propuseram uma nova perspectiva sobre o papel dos conselhos corporativos. Eles sugeriram a inclusão de "fornecedores de serviços para o conselho" (BSPs, na sigla em inglês), ou seja, agências especializadas, que poderiam fornecer serviços de direção ao invés de indivíduos. A ideia era aumentar a funcionalidade e a responsabilidade do conselho, ao mesmo tempo em que traria mais transparência e uma avaliação de governança corporativa mais eficiente. Isso, segundo os autores, resultaria em uma maior força reputacional das decisões do conselho e, em última instância, em uma governança corporativa mais robusta. A proposta foi bem recebida na época, mas com o avanço da Inteligência Artificial (IA) no ambiente corporativo, podemos considerar que o momento para sua implementação talvez tenha finalmente chegado.

O crescimento da IA, em especial a IA gerativa, representa uma oportunidade significativa para repensar a governança corporativa. Um uso adequado da IA pode permitir uma supervisão mais eficiente, análise de dados mais aprofundada e uma gestão de riscos mais precisa, especialmente em contextos onde a complexidade e a velocidade das decisões corporativas aumentam a cada dia. No entanto, a implementação de IA no conselho de administração precisa ser cuidadosamente monitorada, principalmente sob o ponto de vista legal, técnico e reputacional.

A ideia de utilizar BSPs, conforme proposta por Bainbridge e Henderson, é especialmente relevante neste novo contexto. Empresas multinacionais de grande porte, bem como entidades de menor porte, que carecem de consultores sofisticados, poderiam se beneficiar significativamente de uma especialização mais profunda, reunindo especialistas humanos e até ferramentas de IA “provadas” para tomar decisões mais informadas. Em um cenário ideal, seria vantajoso ter apenas um BSP por conselho para evitar conflitos e impasses; em casos de transações complexas ou conflitantes, a contratação de uma segunda opinião de outro BSP poderia ser uma solução viável. A chave para o sucesso dessa abordagem seria garantir que qualquer IA utilizada no processo de tomada de decisões estivesse sob a supervisão de profissionais humanos responsáveis, que poderiam monitorar e controlar tanto a IA quanto as decisões humanas.

Entretanto, essa inovação traz consigo uma necessidade urgente de atualização nos códigos de ética e conduta das corporações. A governança corporativa precisará incorporar princípios éticos e regulatórios mais rígidos para lidar com os dilemas que surgem com a IA, tanto do ponto de vista técnico quanto legal. A União Europeia, por exemplo, tem se mostrado proativa nesse aspecto, com o desenvolvimento de diretrizes éticas focadas na criação de uma IA confiável, transparente e alinhada com os princípios de bem-estar social e ambiental, responsabilidade e respeito à privacidade. Essas diretrizes, em breve, deverão ser integradas aos documentos corporativos fundamentais, como códigos de ética e indicadores de desempenho, para garantir que a IA seja utilizada de forma ética e responsável dentro das empresas.

De acordo com as diretrizes da União Europeia para uma IA confiável, que são fortemente baseadas nas recomendações da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), é imperativo que as empresas garantam que qualquer sistema de IA em suas organizações esteja alinhado com os princípios de transparência, robustez técnica, proteção à privacidade e diversidade. A abordagem centrada no ser humano, que promove uma IA responsável e sustentável, não é mais apenas uma recomendação, mas uma exigência crescente para o cumprimento das normas de boa governança corporativa, especialmente em um cenário global.

A integração dessas diretrizes no processo de governança corporativa terá um impacto profundo na maneira como as decisões empresariais são tomadas. Com a expectativa de um aumento significativo no uso de produtos de IA gerativa nas corporações, a questão da "IA confiável" se tornará um elemento central nas discussões sobre boas práticas corporativas e padrões globais de governança. Nesse contexto, será fundamental que os líderes corporativos integrem as recomendações da OCDE sobre a utilização de IA, de modo a garantir que a tomada de decisões estratégicas respeite tanto as normas de governança quanto as questões éticas e legais.

Por fim, o uso crescente da IA gerativa impactará diretamente os deveres tradicionais dos diretores e executivos nas empresas. Ao tomar decisões corporativas estratégicas, esses líderes precisarão estar cada vez mais atentos aos efeitos que a IA pode ter na dinâmica de suas responsabilidades fiduciárias e estatutárias. A IA não só afetará a forma como as decisões são tomadas, mas também poderá transformar as abordagens tradicionais de análise de risco, planejamento estratégico e interação com as partes interessadas. As empresas que souberem integrar essas ferramentas de maneira ética e eficiente terão uma vantagem competitiva, mas também uma responsabilidade considerável em termos de supervisão e governança.

Como as Inovações em IA Estão Desafiando as Fronteiras da Prática Jurídica e a Regulação de Serviços Legais

Nos últimos anos, a interseção entre a inteligência artificial (IA) e o campo jurídico tem gerado intensos debates sobre a adequação das legislações existentes às novas realidades tecnológicas. Em diversas jurisdições, as autoridades têm enfrentado a difícil tarefa de determinar como regular as atividades automatizadas que se aproximam da prática legal, sem comprometer os princípios fundamentais do direito, como o acesso à justiça e a proteção do consumidor.

Nos Estados Unidos, por exemplo, o caso DoNotPay ilustra bem a tensão entre inovação tecnológica e as práticas legais tradicionais. A DoNotPay, uma empresa que utiliza IA para fornecer aconselhamento jurídico automatizado sobre questões como multas de trânsito e reembolsos, tentou expandir seus serviços em 2023, propondo que sua IA assistisse clientes diretamente em tribunais por meio de um fone de ouvido Bluetooth. Essa tentativa de substituir parcialmente o advogado foi rapidamente interrompida devido à ameaça de ações legais por parte das associações de advogados. O risco, segundo essas entidades, era que a prática da advocacia fosse descaracterizada e que a DoNotPay estivesse praticando o que é denominado "Unauthorized Practice of Law" (UPL, ou prática não autorizada de direito).

A questão da UPL tem sido central nas discussões sobre IA no campo jurídico. Em muitos países, a prática do direito é reservada exclusivamente aos advogados licenciados, e qualquer atividade que envolva aconselhamento jurídico ou representação de clientes em tribunais é estritamente regulamentada. No entanto, o crescente uso de sistemas automatizados, como o que a DoNotPay tentou implementar, levanta questões sobre o que constitui efetivamente uma "atividade jurídica". O aumento das tecnologias de IA, que podem fornecer conselhos baseados em dados e modelos probabilísticos, complica ainda mais essa delimitação.

A situação se torna ainda mais complexa quando analisamos as diferenças entre as soluções baseadas em regras, como os geradores de contratos automatizados, e as soluções baseadas em aprendizado de máquina, como os Modelos de Linguagem de Grande Escala (LLMs). Um exemplo significativo ocorreu na Alemanha, onde o software Smartlaw, desenvolvido para gerar contratos personalizados, foi inicialmente banido por um tribunal regional de Colônia. A alegação era de que a criação de contratos, mesmo por meio de um sistema automatizado, ainda constituía uma atividade jurídica e, portanto, necessitaria de um advogado para sua execução legalmente válida. Contudo, a decisão foi posteriormente revertida por tribunais superiores, que argumentaram que a utilização de templates não se configurava como uma atividade jurídica no sentido da legislação alemã.

Essa distinção entre os diferentes tipos de serviços automatizados é fundamental para entender o potencial e as limitações da IA na área jurídica. Enquanto sistemas baseados em templates, como o Smartlaw, geram documentos seguindo regras predefinidas, os LLMs, como o GPT, têm a capacidade de gerar texto com base em padrões e probabilidades, sem seguir um caminho fixo. Isso levanta a questão: um LLM pode ser considerado um "serviço jurídico"? A resposta ainda não está clara, mas a principal argumentação contra a classificação de LLMs como prática jurídica é que sua automação é tão avançada que as ações do sistema não podem ser atribuídas diretamente a uma pessoa ou entidade responsável. Além disso, os usuários geralmente não buscam esses sistemas com a expectativa de receber serviços jurídicos, o que, segundo alguns especialistas, pode excluir os LLMs da definição de "serviço jurídico" sob as legislações existentes.

No entanto,

Como a Inteligência Artificial Generativa Está Moldando os Padrões Internacionais: Desafios e Oportunidades

A inteligência artificial generativa, particularmente os modelos de grande escala, emergiu como uma tecnologia revolucionária, impulsionada pela capacidade de criar conteúdo de forma autônoma em diversas áreas, como texto, imagens, música e até mesmo código. Contudo, enquanto os impactos desta tecnologia são amplamente discutidos, a questão dos padrões internacionais e regulamentações permanece ainda em estágios iniciais. A questão central não é se devemos regular ou não, mas como devemos equilibrar a regulamentação pública com a dinâmica do setor privado, onde grandes empresas dominam o desenvolvimento desses sistemas. A transformação digital e as rápidas inovações tecnológicas que envolvem a IA generativa demandam uma nova abordagem na criação de normas e padrões globais.

No nível internacional, as discussões sobre a padronização da IA generativa estão em estágios iniciais e informais. Organizações como a ISO/IEC estão apenas começando a explorar possíveis direções para a regulamentação, sem sequer esboçar rascunhos de padrões concretos. Em grande parte, os programas de trabalho dessas entidades foram estabelecidos entre 2018 e 2021, antes da verdadeira explosão do interesse por IA generativa. O impacto dessa nova tecnologia nas prioridades e nos esforços já existentes é claro: a sobrecarga de temas em andamento está retardando a adaptação de padrões que atendam às demandas dessa área emergente.

No nível nacional, mais de cinquenta países possuem comitês espelhos que acompanham a padronização da ISO/IEC e CEN-CENELEC, mas ainda não houve uma adaptação significativa para os novos desafios impostos pela IA generativa. A padronização costuma seguir o ritmo da maturação e estabilidade das tecnologias, algo que não se aplica à IA generativa, cuja evolução continua a uma velocidade impressionante. Embora modelos de fundação como os grandes modelos de linguagem (LLMs) estejam começando a atingir uma certa estabilidade, outras áreas, como as metodologias de treinamento e os modelos de uso, continuam a evoluir de maneira rápida e imprevisível.

Um fator que dificulta ainda mais a criação de padrões específicos para IA generativa é o fato de que os principais especialistas da indústria, que poderiam contribuir significativamente para esses esforços, estão empregados nas grandes corporações como OpenAI, Google, Meta, entre outras. Estas empresas, focadas em consolidar posições dominantes no mercado, não priorizam o envolvimento de suas equipes de IA em trabalhos de padronização, o que atrasa a criação de regulamentações e frameworks globais.

Embora a criação de padrões formais esteja atrasada, várias iniciativas têm surgido para criar estruturas de governança para a IA generativa fora dos tradicionais processos de padronização. Um exemplo recente é o "Model AI Governance Framework for Generative AI", lançado em Singapura, que oferece uma abordagem sobre como regulamentar o uso ético e responsável da IA generativa. Além disso, o trabalho da OCDE e de outros fóruns internacionais busca operacionalizar códigos de conduta, como o estabelecido durante o processo do G7 de Hiroshima. No entanto, é ainda cedo para realizar uma análise significativa sobre a padronização da IA generativa, embora seja possível prever que ela abarcará questões como métodos de teste e métricas de desempenho, consumo de recursos e licenciamento padronizado para o uso de conteúdo da internet.

Além disso, a necessidade de estabelecer padrões vai além da própria tecnologia de IA. A IA generativa permite a criação de conteúdos em uma escala inimaginável até recentemente, o que inclui a geração de "humanos digitais" ou bots que podem agir como influenciadores, jornalistas ou revisores de produtos. Quando mal utilizada, essa tecnologia pode gerar uma avalanche de conteúdo indesejado, como fake news ou enganação em massa, que são difíceis de detectar e controlar. Nesse sentido, será necessário criar frameworks robustos que ajudem a manter a integridade digital e a confiança no conteúdo gerado, evitando manipulações maliciosas.

Importante destacar que, além dos desafios técnicos e operacionais de padronização, a questão da confiança digital e da identidade será central. A IA generativa não só altera a forma como produzimos conteúdo, mas também coloca em questão a autenticidade das fontes e a transparência das informações. Em 2021, um grupo de trabalho europeu dentro do programa StandICT publicou um relatório detalhado com recomendações para padronizar a confiança e as identidades digitais, um tema que se torna ainda mais relevante à medida que a IA generativa avança.

Por fim, espera-se que, nos próximos anos, uma pluralidade de novos padrões seja criada para abordar as necessidades dessa tecnologia emergente. Os mecanismos de regulamentação e padronização, como os estabelecidos pela União Europeia e em outros contextos globais, devem ser complementados para formar uma abordagem integrada que permita à IA generativa atingir seu potencial de forma ética, segura e sustentável.