O dever dos diretores de uma empresa de exercer julgamento independente é um princípio central na governança corporativa. Este dever exige que os diretores tomem decisões com base em seu próprio discernimento, sem seguir cegamente as opiniões de outros, incluindo sistemas de inteligência artificial (IA). Em essência, a função de um diretor é tomar decisões para o benefício da empresa, e essa obrigação é tanto ética quanto legal. O que se espera de um diretor é que ele tome suas próprias decisões, levando em consideração os melhores interesses da empresa.

Embora o dever de julgamento independente não proíba que um diretor se baseie em conselhos ou informações de terceiros, incluindo ferramentas de IA avançada, a responsabilidade última pela decisão é sempre do diretor. A utilização de sistemas de IA generativa para aconselhamento e apoio na tomada de decisões-chave, portanto, se alinha com esses princípios. No entanto, a simples delegação de uma decisão a um sistema de IA, sem reflexão crítica, não exime o diretor de sua responsabilidade. O diretor deve ser capaz de refletir e compreender as informações fornecidas por esses sistemas, seja um especialista humano ou uma ferramenta de IA generativa qualificada.

A questão da “explicabilidade” dos sistemas de IA surge como um grande desafio nesse contexto. A IA generativa, que é construída por meio de modelos numéricos treinados em grandes volumes de dados, pode fornecer saídas que não são facilmente explicáveis. Ou seja, mesmo quando um modelo de IA gera previsões baseadas em dados de entrada claros, não é sempre evidente por que ele chegou a uma determinada conclusão. Isso é particularmente problemático quando uma ferramenta de IA fornece resultados contraditórios ou difíceis de justificar, algo que pode ser interpretado como uma falha de julgamento, especialmente em ambientes corporativos onde a transparência é crucial.

É aqui que a questão da "explicabilidade" se torna crítica. Em caso de disputa ou fiscalização, um diretor pode ser desafiado a explicar a razão por trás de uma decisão tomada com base em um sistema de IA, que pode ter problemas de transparência ou fornecer respostas contraditórias. O risco de depender cegamente de um sistema de IA sem uma compreensão clara de seu funcionamento pode expor o diretor a responsabilidades legais ou regulatórias. A IA, embora poderosa, não pode substituir a análise crítica e o julgamento do diretor.

Em transações financeiras e outros contextos complexos, como fusões e aquisições, é cada vez mais esperado que os diretores utilizem ferramentas de IA para coletar dados, realizar due diligence e até mesmo aconselhar sobre o valor de transações. No entanto, isso não diminui a necessidade de o diretor manter um nível de vigilância sobre o processo, garantindo que o conselho esteja completamente informado e tenha uma compreensão clara do processo de tomada de decisão. A IA pode ser uma ferramenta útil, mas não pode substituir a responsabilidade do diretor de aplicar sua própria experiência e julgamento na avaliação de todas as informações disponíveis.

O risco da IA se torna mais tangível quando se considera a possibilidade de “caixas pretas”, onde a lógica por trás de uma decisão é opaca ou impossível de explicar. Isso levanta questões sobre como justificar, legal e eticamente, uma decisão tomada com base em uma ferramenta de IA que não consegue fornecer uma explicação clara e coerente. Embora a IA possa ser treinada para fazer previsões precisas, suas limitações em termos de transparência podem criar desafios significativos para os diretores na hora de justificar uma decisão para acionistas, órgãos reguladores ou tribunais.

Portanto, à medida que as ferramentas de IA, como os sistemas generativos, se tornam mais comuns na governança corporativa, será essencial que as empresas estabeleçam uma estrutura de governança robusta que inclua a supervisão humana e a validação das decisões feitas por IA. Em muitas indústrias, especialistas em tecnologia, advogados, consultores financeiros e representantes de acionistas precisarão trabalhar juntos em equipes multidisciplinares para garantir que as decisões baseadas em IA atendam aos padrões legais e de melhores práticas.

Além disso, a questão de como mitigar os riscos relacionados ao uso de IA, como falhas no modelo ou decisões imprevistas, será uma prioridade. O uso de IA para realizar tarefas complexas, como mapeamento de relacionamentos financeiros ou verificação de dados, pode transformar a forma como os diretores executivos tomam decisões. Porém, é necessário que as ferramentas sejam auditáveis e transparentes, permitindo que o diretor explique como e por que uma decisão foi tomada, especialmente quando se trata de transações significativas.

O uso de IA generativa, embora promissor, deve ser tratado com cautela. A explicabilidade, a auditabilidade e a transparência são essenciais para que essas ferramentas se tornem parte integrante de uma governança corporativa eficiente e ética. À medida que as ferramentas de IA se tornam mais sofisticadas, será necessário um esforço contínuo para garantir que os diretores permaneçam responsáveis por suas decisões, mesmo quando estas forem auxiliadas por tecnologia.

Como a Administração Pública Deve Lidar com Sistemas de Inteligência Artificial Generativa?

A integração de sistemas de inteligência artificial generativa na administração pública levanta questões significativas sobre a natureza da responsabilidade, a transparência e a conformidade legal. A União Europeia, por meio de suas regulamentações, destaca a necessidade de uma abordagem cuidadosa, separando as situações em que a IA é considerada de alto risco e as em que não o é, oferecendo assim um quadro regulatório que visa equilibrar inovação e proteção dos direitos fundamentais.

No caso de uma administração pública desenvolver um modelo de IA generativa para realizar atividades que não sejam classificadas como de alto risco, ela atua como fornecedora desse sistema e, portanto, deve cumprir uma série de obrigações. Uma das principais exigências é garantir que os resultados gerados pela IA sejam identificáveis e marcados de forma que possam ser lidos por máquinas e reconhecidos como produtos artificiais ou manipulados. Isso é particularmente importante para que os cidadãos, ao interagirem com a IA, saibam claramente que estão lidando com uma máquina, a menos que a interação seja evidente. Esse tipo de transparência é um dos pilares do regulamento da União Europeia, que busca não apenas proteger os direitos dos cidadãos, mas também garantir que os funcionários públicos, ao usar tais sistemas, saibam exatamente como estão sendo impactados pelas decisões assistidas por IA.

Além disso, as administrações devem ser transparentes quanto ao conteúdo do modelo de IA que utilizam, oferecendo um resumo detalhado dos dados que foram usados para treiná-lo. Isso inclui informações sobre as coleções ou conjuntos de dados usados, permitindo que o público e as autoridades de supervisão possam avaliar a qualidade e os riscos dos modelos. No caso de o sistema ser específico para a administração pública, como no caso de um modelo personalizado ou uma interface de IA generativa integrada, a administração também deve ter acesso à documentação técnica detalhada sobre o modelo e seus conjuntos de dados, a menos que o modelo esteja sob uma licença de acesso aberto.

Porém, as administrações públicas também podem atuar como implantadoras de sistemas de IA generativa, ou seja, ao adotar esses sistemas em suas atividades. Nesse contexto, deve haver uma obrigação de divulgar que o conteúdo foi gerado ou manipulado artificialmente. No entanto, essa obrigação de transparência pode ser dispensada em situações específicas, como quando o uso é autorizado por lei, ou quando um ser humano revisa o conteúdo gerado ou assume o controle editorial.

Ainda assim, o maior desafio surge quando esses sistemas de IA generativa começam a influenciar ou até mesmo a tomar decisões que afetam direitos fundamentais, como condições de trabalho, acesso a serviços públicos essenciais e benefícios. Nesse caso, a IA é considerada de alto risco, o que implica em um conjunto mais rigoroso de obrigações para as administrações. Um desses requisitos é a implementação de um sistema de gestão de riscos para monitorar e mitigar os riscos aos quais a IA pode contribuir, especialmente no que diz respeito à proteção dos direitos fundamentais dos cidadãos. Além disso, deve haver a adoção de salvaguardas no que diz respeito à preparação e governança dos dados, como a detecção de vieses, garantindo que os sistemas de IA não reproduzam ou ampliem discriminações ou injustiças.

Essas medidas também incluem a necessidade de manter a documentação técnica atualizada e garantir que a ferramenta seja precisa, robusta e segura, de modo a evitar falhas que possam prejudicar o funcionamento dos serviços públicos. Para enfrentar esses desafios, a União Europeia também promove uma abordagem experimental, permitindo que as administrações testem as soluções de IA em ambientes controlados, conhecidos como “caixas de areia regulatórias”. Esse modelo oferece um espaço seguro para que as administrações experimentem e compreendam melhor as oportunidades e riscos emergentes relacionados ao uso da IA.

A abordagem experimental, promovida pela Comissão Europeia e pelas instituições jurídicas da União, segue uma estratégia em duas fases: a primeira fase é exploratória, onde as administrações implementam e testam soluções de IA em seus serviços. A segunda fase ocorre quando os resultados positivos são confirmados e a solução pode ser expandida para uma implementação em larga escala. Essa estratégia é observada em diversas iniciativas, como o GPT Lab da Direção-Geral de Tradução e o GPT@JRC do Centro Comum de Pesquisa da Comissão Europeia, que exploram o uso de IA em contextos administrativos reais.

Em termos de regulamentação, a União Europeia e os Estados Unidos seguem caminhos semelhantes, com um enfoque preventivo. No entanto, as diferenças são notáveis: enquanto a União Europeia adota um ato legislativo com um conjunto de regras bem definido, os Estados Unidos preferem uma abordagem mais flexível, com ordens executivas e medidas delegadas que exigem que as agências federais implementem mais de 150 ações diferentes. A principal diferença, no entanto, está na ênfase da União Europeia na experimentação controlada por meio das "caixas de areia regulatórias", que permitem uma avaliação cuidadosa e informada dos riscos e benefícios da IA antes de sua implementação em grande escala.

Além disso, a regulação de IA não deve ser vista apenas como um conjunto de medidas punitivas. A verdadeira chave para o sucesso reside na criação de uma estrutura de governança dedicada à IA dentro da administração pública, uma estrutura que não só garanta a conformidade com as normas legais, mas que também promova uma cultura de inovação responsável. A versatilidade da tecnologia de IA generativa, por sua natureza, apresenta desafios para os reguladores, que devem se adaptar continuamente às mudanças e inovações que surgem no campo da IA.

A implementação eficaz de IA generativa na administração pública exige uma visão equilibrada, onde a inovação tecnológica seja promovida sem comprometer os valores fundamentais da justiça, da transparência e dos direitos dos cidadãos. A regulamentação deve ser vista como um processo dinâmico, onde as autoridades públicas estão constantemente avaliando os impactos da IA, não apenas em termos de eficiência, mas também em relação aos impactos sociais e éticos de suas decisões.

Como a China Está Estruturando sua Regulação de IA: Abordagens Verticais e Horizontais

A regulação da inteligência artificial (IA) tem sido um desafio para governos ao redor do mundo, especialmente considerando o impacto e a velocidade com que novas tecnologias estão sendo desenvolvidas. A China tem adotado uma abordagem distinta em relação à regulação da IA, que merece uma análise mais profunda. Em vez de criar uma estrutura legislativa ampla para regular todos os tipos de tecnologias emergentes, o país tem adotado uma abordagem "vertical", focada em regulamentar áreas específicas e emergentes da IA, como as tecnologias de recomendação algorítmica e a síntese profunda de informações. Esta estratégia se distancia de abordagens horizontais, como a do Regulamento de IA da União Europeia, que tenta englobar todos os usos da IA em uma legislação única e ampla.

As regulamentações chinesas são predominantemente setoriais, ou seja, elas abordam de maneira mais específica os riscos e as necessidades de segurança das diferentes aplicações de IA. Um exemplo disso são as "Medidas Interinas para a Gestão de Serviços de IA Generativa", publicadas em julho de 2023, que entram em vigor em agosto do mesmo ano. Essas medidas tratam de questões essenciais relacionadas à segurança do conteúdo gerado pela IA, como a disseminação de desinformação, o risco de discriminação algorítmica e as questões éticas envolvendo o uso de dados pessoais. Tais regulamentações são conhecidas como "regulamentações departamentais", o que significa que têm uma autoridade inferior em relação a leis nacionais mais amplas, mas são ferramentas importantes na implementação de políticas públicas relacionadas à IA.

A flexibilidade da abordagem vertical chinesa permite que novas regulamentações sejam rapidamente implementadas e ajustadas. Por exemplo, o processo de elaboração e aprovação das "Medidas Interinas" levou apenas três meses, o que contrasta com os longos períodos de tramitação que leis mais abrangentes, como aquelas discutidas pelo Congresso Nacional Popular, podem levar. Esta agilidade é uma das vantagens dessa abordagem, permitindo que o governo reaja de forma mais eficaz aos novos desenvolvimentos da tecnologia de IA.

Apesar de sua velocidade e especificidade, a abordagem vertical também apresenta desafios, especialmente quando se trata de garantir que todas as áreas da IA sejam regulamentadas de forma eficaz e não sejam deixadas à margem. A ausência de um marco regulatório global para a IA, como o Regulamento de IA da União Europeia, pode levar a um cenário de regulamentação fragmentada, onde diferentes setores da IA têm níveis de regulamentação desiguais, podendo criar lacunas ou sobreposições regulatórias.

A regulamentação de IA na China não se limita apenas ao controle do conteúdo gerado, mas também abrange os aspectos técnicos relacionados à segurança da informação e à privacidade. Por exemplo, o Comitê Técnico de Padronização de Segurança da Informação lançou, em março de 2024, o "Conjunto de Requisitos Básicos de Segurança para o Serviço de IA Generativa". Este conjunto de normas técnicas visa assegurar que os provedores de serviços de IA sigam requisitos de segurança rigorosos, incluindo a realização de avaliações de segurança para proteger dados sensíveis e evitar o uso indevido de IA. Embora tais normas não tenham o poder de uma lei formal, elas funcionam como instrumentos cruciais para garantir que as regulamentações sejam implementadas de maneira eficaz.

Um ponto essencial das regulamentações chinesas é o foco na segurança do conteúdo gerado pela IA. A IA generativa, como os modelos de linguagem como o ChatGPT, tem o potencial de disseminar informações falsas ou até mesmo enganar os usuários. Isso se deve à capacidade desses sistemas de criar conteúdo convincente e realista a partir de grandes quantidades de dados. O risco é que esse conteúdo gerado possa ser utilizado para propagar fake news, realizar ataques de desinformação ou mesmo influenciar a opinião pública de maneira indevida. As regulamentações chinesas visam mitigar esses riscos, exigindo que os provedores de serviços de IA implementem medidas para verificar a veracidade e a segurança do conteúdo gerado.

Além disso, as regulamentações de IA na China também abordam as questões éticas envolvendo o uso de dados pessoais e a privacidade dos cidadãos. O uso de IA em contextos como a recomendação de conteúdo em plataformas digitais pode levantar preocupações sobre a coleta excessiva de dados pessoais e o uso indevido dessas informações. A regulamentação visa proteger os direitos dos indivíduos, estabelecendo limites claros sobre como os dados podem ser usados, armazenados e compartilhados, garantindo a privacidade e a segurança.

A abordagem vertical, embora eficaz em lidar com questões específicas de forma rápida, também tem suas limitações. Ao focar em tecnologias e aplicações específicas, pode ser mais difícil lidar com questões globais e interconectadas que transcendem fronteiras nacionais e setoriais. Por exemplo, uma regulamentação que trata apenas de IA generativa pode não abordar as implicações mais amplas da IA, como o impacto no emprego, na economia ou na estrutura social. Além disso, a rápida evolução da tecnologia pode exigir uma atualização constante das regulamentações para acompanhar as inovações.

Por fim, a China ainda está em processo de experimentação com suas regulamentações de IA. O uso de termos como "provisório" ou "interino" nas regulamentações sugere que essas medidas podem ser ajustadas ou substituídas por instrumentos legais mais robustos no futuro. A dinâmica da regulação da IA na China está em constante evolução, o que implica que as autoridades continuarão a testar novas abordagens e ajustes para garantir que o país esteja preparado para lidar com os desafios que surgem com o desenvolvimento de novas tecnologias.

Como a Governança Internacional do GenAI Está Moldando o Futuro da Inteligência Artificial?

Nos últimos anos, o campo da inteligência artificial (IA) passou por um progresso sem precedentes. Entre as inovações, a IA gerativa (GenAI) se destaca como uma força transformadora, permitindo que máquinas criem textos, imagens, músicas e códigos originais com uma sofisticação notável. Esse avanço não só abriu novas possibilidades para expressão criativa e resolução de problemas em diversos setores econômicos e indústrias, como também intensificou os debates sobre o desenvolvimento responsável e a governança da IA.

O crescente poder da IA gerativa tem forçado uma reflexão profunda sobre como regulá-la e gerenciá-la de maneira eficaz, levando a um movimento crescente em direção à colaboração internacional. Em especial, o Processo de Hiroshima da Cúpula do G7, iniciado em 2023, emerge como uma tentativa significativa de estabelecer normas globais que visem garantir que o uso de sistemas de IA, especialmente os avançados como o GenAI, esteja alinhado com princípios de direitos humanos, justiça e segurança global.

O desenvolvimento de uma estrutura internacional para a governança da IA gerativa tem se mostrado urgente. O Processo de Hiroshima, por exemplo, contém um conjunto abrangente de políticas e diretrizes acordadas pelas nações do G7, projetadas para proteger os direitos individuais e fomentar a confiança no uso da IA. Estas diretrizes são um marco na tentativa de alinhar a evolução da tecnologia com valores fundamentais como a democracia, a justiça, a diversidade e a não discriminação.

Um dos marcos mais significativos desse movimento foi o lançamento do "Grupo de Amigos do Processo de Hiroshima" em maio de 2024, que reúne 49 países e regiões, predominantemente membros da Organização para Cooperação e Desenvolvimento Econômico (OCDE). Este grupo busca promover a cooperação internacional para garantir o acesso global a uma IA gerativa segura, protegida e confiável.

Além disso, o crescente número de documentos e iniciativas internacionais, como a Convenção-Quadro do Conselho da Europa sobre Inteligência Artificial e Direitos Humanos, a Declaração de Bletchley, assinada por 29 países após a Cúpula de Segurança da IA em 2023, e o Relatório Final do Corpo Consultivo da ONU sobre Governança da IA para a Humanidade, publicado em 2024, refletem o entendimento crescente de que a IA, se não for devidamente regulamentada, pode representar riscos significativos, tanto para os direitos individuais quanto para a segurança global.

Essa crescente ênfase na regulamentação internacional é crucial, considerando o impacto profundo que a IA gerativa já tem em diversos aspectos da sociedade. Ferramentas de GenAI estão facilmente acessíveis por meio de plataformas gratuitas e serviços em nuvem, quebrando as barreiras de entrada e permitindo que tanto grandes corporações quanto pequenos empreendedores, e até criadores individuais, desenvolvam e utilizem essas tecnologias. O fácil acesso a essas ferramentas coloca desafios não apenas em termos de controle e regulamentação, mas também quanto ao impacto social, econômico e cultural dessas inovações.

Ao mesmo tempo, é fundamental que as políticas internacionais não se limitem apenas à regulamentação. Elas também devem focar na promoção de um desenvolvimento equitativo da IA, garantindo que os benefícios dessa tecnologia sejam distribuídos de forma justa entre as nações, evitando que as potências tecnológicas monopolizem o progresso e as oportunidades associadas à IA. A colaboração global deve ser orientada por princípios que respeitem a diversidade cultural, a soberania nacional e a equidade no acesso aos recursos.

As nações, então, precisam pensar não só nas implicações imediatas, mas também nas consequências a longo prazo da implementação de sistemas de IA generativa. É importante que os sistemas de governança incluam mecanismos transparentes de responsabilidade, assegurando que as decisões tomadas por IA sejam auditáveis e estejam em conformidade com as normas internacionais de direitos humanos.

A IA gerativa é uma tecnologia poderosa que está moldando a forma como criamos, interagimos e entendemos o mundo digital. A regulamentação eficaz dessa tecnologia não pode ser vista como um obstáculo, mas como um caminho para maximizar seu potencial de forma responsável e inclusiva, garantindo que ela beneficie a sociedade como um todo.