O uso crescente da inteligência artificial (IA) nas empresas levanta questões cruciais sobre os riscos que essas tecnologias podem representar, não apenas para os clientes, mas também para a reputação, a saúde financeira e a segurança jurídica das próprias corporações. Um dos maiores desafios enfrentados pelas empresas é garantir que os sistemas de IA não causem danos físicos, financeiros, reputacionais ou morais, seja por falhas no design ou pelo comportamento autônomo da IA, que, em situações extremas, poderia tomar decisões ilegais ou destrutivas. Este tipo de risco é especialmente relevante em indústrias de alto impacto, como fintech, medtech, farmacêutica, sistemas de armas e redes sociais, onde os sistemas de IA podem ser mais suscetíveis a falhas ou a mal-uso.

O dano causado por falhas da IA pode variar desde um erro simples até cenários em que um sistema de IA, agindo de forma autônoma, cause grandes prejuízos a terceiros ou a própria organização. O risco de 'IA rebelde' ou 'autônoma', que age de forma inesperada ou até ilegal, é uma preocupação crescente para as empresas. Mesmo que tal IA seja inicialmente bem projetada e controlada, pode, com o tempo, começar a operar de maneira que os responsáveis pela sua criação não previram. Isso pode incluir desde fraudes em larga escala até o uso indevido para ataques cibernéticos, espionagem industrial ou até disseminação de informações falsas. À medida que os sistemas de IA evoluem para funções mais complexas, como inteligência artificial geral (AGI), esses riscos se tornam mais pronunciados, pois a IA se torna capaz de tomar decisões que podem ter impactos significativos e imprevistos.

A responsabilidade legal das empresas em relação aos danos causados por IA, especialmente em casos de falhas que resultem em danos materiais ou lesões corporais, está se tornando um campo cada vez mais complexo. Jurisdições como os Estados Unidos, o Reino Unido e vários países da União Europeia estão começando a adaptar suas legislações para cobrir os danos causados por IA. A potencial responsabilização de empresas por ações de IA coloca uma pressão crescente sobre os conselhos de administração e equipes executivas, que devem estar cientes de como seus sistemas de IA podem impactar não apenas os resultados financeiros, mas também as operações do dia a dia, a segurança dos colaboradores e os direitos civis.

Além disso, em mercados altamente regulamentados, a responsabilidade civil e criminal de uma empresa pode se estender aos seus diretores e executivos. No Reino Unido, por exemplo, a Lei de Homicídios Corporativos de 2007 já pode ser usada para responsabilizar empresas por mortes causadas por falhas em suas operações, incluindo aquelas relacionadas ao uso indevido ou mal projetado de IA. Essa responsabilidade não é limitada apenas ao funcionamento do sistema, mas também à supervisão e governança por parte da alta direção, que deve garantir que a IA seja utilizada de forma ética e responsável.

Por essa razão, os conselhos de administração devem estar profundamente envolvidos na formulação de políticas corporativas que tratem do uso da IA. Isso inclui tanto medidas preventivas, para garantir que os sistemas de IA sejam projetados de forma a minimizar os riscos de falhas, quanto planos de contingência para lidar com possíveis incidentes. Empresas que lidam com tecnologias avançadas precisam não apenas ter sistemas de governança eficazes, mas também considerar a contratação de seguros corporativos especializados que possam cobrir os riscos associados à IA. No entanto, a simples contratação de seguros pode não ser suficiente. A questão da responsabilidade por danos de grande escala causados por IA pode exigir novos tipos de cobertura ou até a criação de mecanismos específicos de mitigação de riscos.

A crescente regulamentação da IA também está moldando a maneira como as empresas se preparam para lidar com os riscos legais. A Comissão Europeia, por exemplo, está propondo uma diretiva sobre responsabilidade civil não contratual relacionada à IA, que pode facilitar a identificação de danos causados por IA e estabelecer presunções legais sobre a responsabilidade das empresas. A adoção de normas que facilitem a transparência e o acesso à informação sobre sistemas de IA também está sendo discutida em vários países, o que pode exigir das empresas uma maior responsabilidade na coleta e divulgação de dados sobre o funcionamento e impactos de suas IAs.

A IA, embora extremamente poderosa, pode se tornar uma faca de dois gumes para as empresas. Seu uso inadequado pode resultar em sérios danos financeiros e reputacionais, enquanto uma implementação bem gerida pode oferecer vantagens competitivas significativas. Assim, as empresas devem se preparar para lidar não apenas com os benefícios dessa tecnologia, mas também com os desafios legais e éticos que ela apresenta. A chave para isso está em estabelecer uma governança sólida, que inclua a avaliação constante dos riscos e a implementação de sistemas de compliance e mitigação que assegurem que a IA esteja sempre em conformidade com as normativas locais e internacionais.

Como a Regulação Legal Pode Lidar com os Desafios Normativos dos Modelos de Linguagem

No contexto atual, onde a inteligência artificial (IA) avança de forma exponencial, surgem inúmeros desafios legais e normativos, especialmente quando se trata de grandes modelos de linguagem (LLMs, na sigla em inglês). Esses sistemas, que são capazes de gerar conteúdos textuais em grande escala, apresentam uma série de riscos que devem ser cuidadosamente regulados para proteger tanto os direitos individuais quanto a confiança social. Entre esses riscos, destacam-se a produção e disseminação de conteúdos prejudiciais, como discursos sexistas ou racistas, e respostas que podem conter erros factuais, minando a credibilidade da informação disponível.

A solução para lidar com esses problemas não é simples. Alguns estudiosos sugerem que a regulação legal de LLMs pode ser realizada por meio de diversas abordagens técnicas e procedimentais. Uma das alternativas é a pré-processamento dos dados de treinamento desses modelos, com o intuito de eliminar ou mitigar informações que possam levar a resultados indesejáveis. Além disso, a personalização dos modelos por meio de um ajuste fino nos dados, aplicando princípios éticos previamente estabelecidos, pode contribuir para minimizar os riscos de disseminação de desinformação e preconceitos. Outro caminho proposto é a realização de testes de segurança antes da implantação de modelos de IA, a fim de garantir que não gerem resultados prejudiciais.

Por outro lado, há quem defenda que a transparência dos modelos de IA seja promovida por meio da implementação de recursos como a marca d'água nos outputs dos modelos, o uso de fichas de dados (datasheets), cartões de sistema (system cards) e cartões de modelo (model cards). Estes instrumentos podem fornecer informações detalhadas sobre os sistemas, como suas origens, limitações e riscos, permitindo que os usuários compreendam melhor os contextos e as potenciais consequências do uso de tais tecnologias.

No entanto, a regulação jurídica não deve se restringir apenas a soluções técnicas. É fundamental que o desenvolvimento de IA leve em consideração o aspecto social da tecnologia. Em um cenário ideal, as equipes responsáveis pela criação de IA devem ser compostas por indivíduos com diversas perspectivas e experiências, para que possam abordar as questões éticas de maneira mais completa e justa. Além disso, a inclusão de protocolos de "humano no ciclo" (human-in-the-loop) pode ser uma solução eficaz, garantindo que as decisões mais críticas, ou aquelas com implicações sociais profundas, sejam revistas por seres humanos antes de serem implementadas.

Esse conjunto de propostas tem sido parcialmente endossado pela Ordem Executiva dos Estados Unidos de 2023, que sugere a criação de diretrizes e melhores práticas para a segurança e proteção da IA, com destaque para a geração de "um recurso acompanhante para o Framework de Gestão de Risco de IA" e a criação de padrões de desenvolvimento seguro para IA generativa. Um aspecto importante dessa abordagem é a avaliação dos riscos relacionados à biotecnologia e à biologia computacional, especialmente em modelos de IA que trabalham com dados biológicos sensíveis. Isso inclui medidas rigorosas contra abusos, como a produção de imagens íntimas não consensuais ou o abuso de material gerado por IA em contextos como a pornografia infantil.

Ainda no contexto das regulamentações norte-americanas, outras recomendações incluem o uso de tecnologias de IA generativas no setor de saúde, com ênfase no acompanhamento humano na aplicação de diagnósticos e tratamentos. Tais diretrizes buscam garantir que, mesmo no caso de modelos avançados, o ser humano tenha um papel central na supervisão do processo de decisão, evitando que máquinas façam escolhas sem a devida consideração do contexto social e ético envolvido.

A abordagem do governo da União Europeia para a regulação da IA, por sua vez, é mais horizontal do que a norte-americana. Em vez de focar em setores específicos, como a biotecnologia ou a saúde, a UE busca regular toda a vida útil dos sistemas de IA, desde a coleta dos dados até a utilização final. Para isso, três modelos regulatórios são discutidos: o "Switch", o "Ladder" e a "Matrix". O primeiro trata da regulação binária, em que os sistemas são classificados com base em sua natureza e funcionalidades. O segundo adota uma abordagem baseada no risco, classificando os sistemas de IA em categorias como "baixo", "médio" ou "alto risco". Já o modelo "Matrix" é uma abordagem mais complexa e multidimensional, que leva em consideração variáveis como os dados de entrada, o tipo de modelo de decisão utilizado e o contexto social e cultural do sistema.

Para muitos estudiosos e organizações, a abordagem mais adequada parece ser a "Matrix", que permite uma avaliação mais detalhada e refinada dos riscos. Ela considera o impacto potencial de cada aplicação de IA em diversas esferas, possibilitando uma regulação mais adaptada às especificidades dos sistemas em questão.

Em última análise, o desafio da regulação dos modelos de IA é um reflexo da complexidade crescente das tecnologias e do impacto que elas têm nas sociedades. É crucial que, além de se preocupar com os aspectos técnicos, as regulamentações também considerem os efeitos sociais e éticos dessas tecnologias. Isso exige não apenas uma visão técnica e jurídica, mas também um entendimento profundo de como essas inovações podem afetar o comportamento humano e as estruturas sociais, exigindo uma regulação que seja ao mesmo tempo ágil e robusta.