O debate sobre a interseção entre inteligência artificial generativa e as legislações de não discriminação na União Europeia tem ganhado relevância à medida que sistemas de IA começam a ser utilizados em uma variedade de contextos. Quando o conteúdo gerado artificialmente por modelos de IA de uso geral assume uma natureza discriminatória, surgem questões cruciais sobre a necessidade de restringir a proteção da liberdade de expressão, ou se o direito fundamental à livre expressão deve prevalecer, permitindo a circulação desses conteúdos, mesmo que infrinjam a legislação anti-discriminação existente.

A jurisprudência do Tribunal de Justiça da União Europeia (TJUE) no caso NH v. Associazione Avvocatura per i diritti LGBTI – Rete Lenford oferece algumas pistas para refletirmos sobre este ponto. Embora o caso em questão não tenha envolvido tecnologias emergentes, mas sim declarações homofóbicas feitas por um advogado durante um programa de rádio, ele nos ajuda a compreender a postura do TJUE frente à liberdade de expressão e às limitações impostas pelas leis de não discriminação. O tribunal começou reconhecendo que a liberdade de expressão é um direito fundamental, essencial para uma sociedade democrática e pluralista, conforme estipulado no artigo 11 da Carta dos Direitos Fundamentais da União Europeia. Contudo, essa liberdade não é absoluta, e o exercício da mesma pode ser sujeito a restrições.

O TJUE reafirma que as limitações à liberdade de expressão devem ser compatíveis com a necessidade de garantir os direitos de pessoas pertencentes a grupos protegidos pela legislação de não discriminação. No caso, a Corte determinou que as limitações impostas pela Diretiva 2000/78/CE são proporcionais e necessárias para proteger os direitos no âmbito do emprego e da ocupação para aqueles que pertencem a categorias protegidas por motivos como orientação sexual. Este posicionamento nos leva a questionar como se aplicaria essa lógica a sistemas de IA generativa, especialmente quando grandes corporações, responsáveis pelo desenvolvimento desses modelos, se veem confrontadas com a possibilidade de seus produtos gerarem conteúdo discriminatório.

De fato, as empresas que criam esses modelos de IA podem estar ainda mais sujeitas a obrigações rigorosas do que um advogado em um escritório de advocacia individual, pois elas operam em um contexto globalizado e possuem um impacto muito mais abrangente. Assim, não parece plausível que o TJUE considere de forma diferente o caso de um modelo de IA desenvolvido por uma grande corporação, comparado com a situação de um indivíduo, como no exemplo de um advogado discriminador.

Essas considerações levam à conclusão de que, dentro da União Europeia, as empresas que desenvolvem modelos de IA devem garantir a compatibilidade de seus produtos com as leis anti-discriminação. Caso contrário, elas poderão ser responsabilizadas legalmente, já que um simples aviso, como o que foi utilizado pelo Google em seu modelo Bard, alertando que a IA pode exibir informações imprecisas ou ofensivas, não seria suficiente para eximir a empresa de responsabilidade.

Porém, um ponto interessante que se coloca é o fato de que os sistemas de IA generativa, ao serem projetados para evitar discriminação contra grupos protegidos, podem, inadvertidamente, gerar conteúdos que sejam indesejáveis para aqueles que não pertencem a essas categorias protegidas. Isso ocorre, por exemplo, em interações onde modelos como o ChatGPT demonstram uma abordagem diferente ao tratar de ideologias políticas ou contextos históricos. Quando solicitada a fornecer argumentos a favor de diferentes regimes políticos, como o comunismo ou o Estado Novo português, a IA tende a responder com entusiasmo em relação a alguns sistemas, enquanto trata outros de forma mais "contundente" ou "controversa". Da mesma forma, ao ser questionada sobre afirmações ideológicas, o modelo apresenta uma resposta mais favorável a certas posturas, como o esquerdismo, e mais neutra ou fria a outras, como o direitismo.

Isso demonstra uma tendência de esses sistemas, ao buscarem evitar discriminação, acabarem por criar novos tipos de polarizações e estigmatizações. Embora isso possa ser visto como uma tentativa de evitar ofensas a grupos específicos, ele também reflete um potencial enviesamento que precisa ser tratado com cautela. Afinal, ao gerar conteúdo, esses modelos podem não apenas reforçar estigmas, mas também causar frustrações em indivíduos que pertencem a categorias não protegidas.

Além disso, vale ressaltar que a simples geração de conteúdo com base em prompts ou questionamentos não equivale a uma expressão individual ou liberdade de expressão, como discutido por alguns estudiosos. A IA gera respostas com base em vastos bancos de dados e algoritmos predefinidos, e, portanto, a responsabilidade sobre as respostas geradas deve recair sobre os desenvolvedores desses sistemas. Isso levanta uma questão ética importante: até que ponto as empresas podem ser responsabilizadas por conteúdos gerados por suas IA, especialmente quando esse conteúdo pode ser visto como discriminatório, ofensivo ou politicamente enviesado?

Esses elementos tornam evidente a complexidade do campo de IA generativa e a necessidade de abordagens regulatórias cuidadosas, que equilibram a liberdade de expressão com a proteção contra discriminação. O fato de grandes corporações estarem criando sistemas com um impacto potencialmente global também implica a necessidade de uma legislação mais robusta e detalhada, que não apenas preveja as consequências jurídicas para práticas discriminatórias, mas também busque evitar o desenvolvimento de tecnologias que inadvertidamente perpetuem preconceitos ou favoreçam determinados grupos em detrimento de outros.

Como a Inteligência Artificial Generativa Redefine a Proteção de Segredos Comerciais?

A ascensão da inteligência artificial generativa não apenas impacta o modo como conteúdos são produzidos, mas também modifica profundamente a lógica tradicional de proteção de ativos intelectuais, especialmente os segredos comerciais. Ao contrário de patentes ou direitos autorais, que requerem divulgação ou formalização, os segredos comerciais dependem da confidencialidade e da vigilância constante por parte de seus detentores. Neste novo cenário, os provedores de IA se veem compelidos a recorrer intensivamente a essa modalidade de proteção para salvaguardar seus modelos, algoritmos, dados de treinamento e softwares proprietários.

A legislação de segredos comerciais não exige que o conhecimento protegido tenha sido criado por meios específicos, o que torna essa proteção particularmente atraente para empresas que desenvolvem modelos de IA generativa. No entanto, a manutenção desse tipo de proteção enfrenta obstáculos significativos. Quando os dados de treinamento são coletados de fontes públicas ou disponibilizados por terceiros, a compatibilidade com o regime de segredo comercial se torna frágil. O mesmo ocorre com modelos oferecidos em código aberto, cuja acessibilidade pública mina o caráter confidencial necessário à preservação legal do segredo.

Mesmo sistemas disponibilizados ao público por meio de interfaces comerciais — como assistentes baseados em IA — apresentam riscos. Usuários ou concorrentes podem realizar engenharia reversa, extraindo, por meio de interações meticulosamente formuladas, informações sobre o funcionamento interno do sistema. Embora os termos de uso possam tentar proibir essas práticas, sua eficácia jurídica é limitada e frequentemente contestada. Isso coloca os provedores de IA diante de uma tensão entre a necessidade de abertura para adoção comercial e a urgência de sigilo para proteção legal.

A natureza não registrada dos segredos comerciais implica a adoção contínua de medidas técnicas, contratuais e organizacionais para impedir a apropriação indevida. Isso inclui a identificação clara do que constitui um segredo, o treinamento de funcionários, o monitoramento de acessos e a estruturação de acordos de confidencialidade. Essa complexidade eleva o custo de manutenção e dificulta a sua licenciamento, o que tende a reforçar a concentração de mercado.

Empresas que não conseguem ou não desejam enfrentar essas barreiras optam, frequentemente, por adquirir concorrentes, acelerando assim um movimento de consolidação do setor de IA generativa. Menos atores, mais poderosos, emergem. Com isso, reduz-se a circulação aberta de inovações tecnológicas, e a diversidade de soluções tende a minguar. O paradoxo se instala: ao mesmo tempo em que a IA gera um surto criativo inédito, o regime jurídico vigente empurra o mercado para o fechamento e a concentração.

A consequência mais inquietante desse panorama é que a proteção via segredo comercial — em vez de estimular a inovação descentralizada — pode tornar-se um vetor de estagnação. A dificuldade de licenciar tecnologias protegidas pelo sigilo impede que soluções se difundam, desacelerando o ritmo de avanço técnico e tornando os ecossistemas de inovação reféns de poucos controladores. A incapacidade de aplicar as estruturas de propriedade intelectual do século XX aos desafios do século XXI torna-se evidente, exigindo um redesenho no

Como a Governança Global pode Responder aos Desafios Emergentes da IA: Lições do HCoC

O impacto das decisões da Inteligência Artificial Generativa (GenAI) está se expandindo rapidamente para diversas áreas, como direitos autorais, propriedade intelectual e até processos judiciais. À medida que a IA começa a desempenhar um papel cada vez mais importante na tomada de decisões judiciais, a criação de mecanismos específicos de apelação para os danos causados por conteúdos gerados por IA pode ser uma questão relevante a ser considerada. O Código de Conduta de Hiroshima (HCoC) pode desempenhar um papel fundamental ao incentivar os desenvolvedores e os implementadores da GenAI a fornecer mecanismos adequados de resolução de disputas, beneficiando usuários e a sociedade em geral. Além disso, uma possível mudança na responsabilidade sobre a prova de danos ou de vínculos causais pode ser discutida, oferecendo meios rápidos e acessíveis para a resolução de disputas.

A abordagem do HCoC é dirigida principalmente aos desenvolvedores de sistemas avançados de IA. No entanto, para promover uma responsabilidade compartilhada no ecossistema da IA, seria prudente expandir seu alcance para incluir outros atores da cadeia de valor da GenAI, como os implementadores e usuários desses sistemas. O foco deve ser no modo como a responsabilidade e a responsabilidade civil podem ser distribuídas entre as partes envolvidas, de forma a garantir que todos os envolvidos sejam responsáveis pelas suas respectivas funções em possíveis danos causados. Ao abordar esses aspectos, o HCoC pode se transformar em uma ferramenta poderosa para uma abordagem mais coesa e eficaz da governança da GenAI, com impacto global.

À medida que sistemas avançados de GenAI ultrapassam fronteiras nacionais e começam a exercer influência global, torna-se fundamental a criação de uma arquitetura de governança internacionalmente interoperável. Isso visa maximizar os impactos positivos da IA e, ao mesmo tempo, proteger os princípios fundamentais que atravessam as fronteiras nacionais. A adesão das nações do G7 ao HIGP e ao HCoC, com o apoio de mais de quarenta países, evidencia o compromisso internacional de avançar no desenvolvimento de IA centrada no ser humano, protegendo direitos individuais e reforçando a confiança nos sistemas de IA. O apoio coletivo de potências democráticas no processo reforça a importância desses acordos, sinalizando passos decisivos para moldar o futuro da governança da IA.

No entanto, para que a promessa do Quadro Abrangente se realize de maneira plena, é preciso continuar o desenvolvimento do HCoC como um instrumento prático. Embora o HCoC esteja alinhado com as políticas do G7, ainda carece de especificidades materiais para oferecer uma orientação eficaz na implementação prática. Para tanto, é essencial que se desenvolvam discussões substantivas sobre várias questões-chave. Uma delas é a necessidade de uma terminologia comum que permita a interpretação consistente de termos relacionados à IA em diferentes países. Além disso, o HCoC deve oferecer diretrizes robustas para a gestão de riscos ao longo de todo o ciclo de vida da IA, desde as responsabilidades pré-mercado até as atualizações pós-mercado, além de categorizar de maneira clara os riscos associados aos sistemas avançados de IA.

Outro aspecto importante é o incentivo à transparência e à comunicação com as partes interessadas. A governança da IA precisa promover um engajamento harmonizado entre todas as partes envolvidas, criando padrões consistentes de transparência. O HCoC também deve fornecer passos mais concretos para garantir a preservação dos valores democráticos e dos direitos humanos no contexto do desenvolvimento e da implantação da IA. Mais do que uma mera recomendação, é preciso transformar esses valores em práticas objetivas e acionáveis.

A potencialidade do HCoC vai além do seu escopo atual. O G7 poderia usar esse documento colaborativo para explorar áreas críticas, como o desenvolvimento de considerações especiais para o uso governamental de IA, a harmonização de práticas regulatórias (mecanismos de certificação, metodologias de supervisão e auditoria), o fomento à responsabilidade compartilhada dentro do ecossistema de IA e o estabelecimento de mecanismos eficazes de reparação para danos causados pela IA. Com isso, o HCoC poderia evoluir para um instrumento robusto e influente para a governança global da IA.

Um HCoC fortalecido pode servir como um ponto de referência valioso não apenas para as nações do G7, mas também para um público internacional mais amplo que busca enfrentar os desafios do desenvolvimento responsável e da implantação da IA. Esse alinhamento internacional ajudaria a garantir que o poder da GenAI fosse aproveitado para o benefício de todos, mitigando os riscos potenciais e preservando valores humanos essenciais.