Vários estados norte-americanos têm avançado significativamente na institucionalização de políticas públicas para regular e promover o uso responsável da inteligência artificial generativa. Órgãos governamentais em estados como Nova Jersey, Califórnia, Pensilvânia, Oklahoma e Oregon foram incumbidos, por ordens executivas estaduais, de desenvolver estruturas de governança, diretrizes de aquisição, programas de treinamento e mecanismos de avaliação dos impactos sociais da IA. Tais iniciativas ilustram a crescente preocupação com o uso ético e equitativo dessas tecnologias, principalmente no tocante às comunidades vulneráveis.
No caso de Nova Jersey, por exemplo, o gabinete de inovação foi encarregado de criar programas de capacitação para servidores públicos e de propor políticas de implementação que não apenas facilitem o uso da IA, mas que também o orientem segundo princípios éticos e de responsabilidade social. Simultaneamente, órgãos de tecnologia da informação foram mobilizados para avaliar ferramentas emergentes e estratégias de aplicação para aprimorar a prestação de serviços públicos com base em IA.
A abordagem tem sido multifacetada: alguns estados exigem a coleta sistemática de dados sobre novas tecnologias; outros impõem obrigações formais de atualização contínua dos conhecimentos dos funcionários públicos. Em muitos casos, há uma clara intenção de adotar uma abordagem holística em relação à IA generativa — cobrindo desde o design e desenvolvimento até a aquisição e implementação desses sistemas em nível institucional.
No plano federal, a trajetória foi marcada por descontinuidade política. A ordem executiva 14110, assinada pelo presidente Biden em outubro de 2023, estabelecia diretrizes abrangentes para o uso seguro e responsável de IA no governo federal. Contudo, sua revogação em janeiro de 2024 pelo presidente Trump, por meio da nova ordem “American Leadership in AI”, eliminou a base legal de todas as ações executivas que dela derivavam. Essa decisão lançou o cenário federal em uma zona de incerteza jurídica, comprometendo diretrizes previamente estabelecidas, como as orientações da OPM (Office of Personnel Management) e o memorando da OMB (Office of Management and Budget), ambos cruciais na definição de práticas de uso e governança de IA nos departamentos e agências federais.
A nova ordem executiva substituta adota uma retórica centrada na supremacia americana em IA, com critérios vagos que priorizam competitividade econômica, segurança nacional e "florescimento humano". Ainda que seja improvável que o governo federal abandone completamente a regulação da IA, nota-se uma inflexão: a abordagem preventiva, que dominava o discurso anterior e priorizava a análise de risco antes da adoção tecnológica, pode ser atenuada em favor de estratégias mais experimentais ou orientadas por interesses de segurança e mercado.
Ainda assim, o aparato regulatório construído anteriormente permanece relevante. A orientação da OPM, por exemplo, contém diretrizes claras de natureza “comando-e-controle”, como a proibição do uso de informações não públicas em interfaces abertas de IA, a obrigação de revisão humana de conteúdos gerados por IA e o respeito às salvaguardas contra saídas ofensivas ou enganosas. Tais princípios reforçam a ideia de que, mesmo sem uma proibição generalizada, o uso da IA deve ser constantemente monitorado, validado e integrado a estruturas institucionais de responsabilidade.
A dimensão da segurança nacional continua sendo um eixo organizador dessas políticas. O Departamento de Defesa, por exemplo, testava ferramentas de IA generativa para acelerar processos de aquisição federal, enquanto agências como a Agência de Proteção Ambiental restringiam radicalmente o uso da IA devido a preocupações com segurança da informação e privacidade.
É fundamental compreender que o cenário atual nos EUA é marcado por uma tensão entre diferentes modelos regulatórios — o modelo coercitivo, baseado em normas rígidas; o preventivo, centrado na avaliação de riscos; e o experimental, que favorece a inovação controlada. A coexistência desses modelos, ainda que instável, revela os dilemas enfrentados por governos que buscam regular tecnologias em rápida evolução sem comprometer a inovação ou os direitos civis.
Além disso, é necessário reconhecer que a ausência de um marco legal federal robusto e estável fragiliza as políticas públicas e abre espaço para abordagens descoordenadas entre os estados. Isso amplia as desigualdades regionais na implementação da IA e compromete a efetividade de princípios como transparência, prestação de contas e justiça algorítmica.
A importância de criar capacidades institucionais internas nos governos — desde centros de competência em IA até programas de alfabetização digital para servidores públicos — é inegociável. Só assim será possível mitigar riscos, garantir a interoperabilidade entre entes federativos e assegurar que o uso da IA generativa se dê de forma alinhada aos valores democráticos, sociais e constitucionais que sustentam o setor público.
A Influência da Inteligência Artificial na Autenticidade e na Origem das Obras Criativas
No contexto atual da inteligência artificial (IA), o debate sobre a autenticidade e a origem das obras criativas geradas por máquinas está em ascensão. Em particular, a questão sobre como distinguir entre conteúdos genuinamente humanos e aqueles gerados ou manipulados por IA tornou-se um ponto central nas discussões sobre ética, transparência e regulação. Um exemplo claro desse fenômeno é o uso de "deepfakes", em que conteúdos falsificados ou manipulados são criados de tal forma que aparentam ser autênticos e verdadeiros para o observador. A legislação europeia, como o Regulamento de Inteligência Artificial (AIA) da União Europeia, busca estabelecer normas para lidar com essas questões, exigindo que qualquer conteúdo gerado ou manipulado por IA seja claramente rotulado como tal.
A proposta de regulamentação do AIA, ainda em evolução, introduz um conceito de "origem" para a IA, que exige que as plataformas e sistemas de IA revelem quando seus conteúdos são artificialmente gerados ou manipulados. No entanto, este regulamento também reconhece que existem exceções, principalmente no campo da expressão artística, onde a liberdade criativa precisa ser preservada. Assim, a exigência de transparência sobre a origem do conteúdo gerado por IA não se aplica em situações onde o uso da IA se destina a funções assistivas para a edição de obras de arte, sem realizar uma transformação substancial dos dados de entrada.
A questão da "transformação substancial" é central para entender como a IA pode ser vista no processo criativo. No caso de obras de arte geradas por IA, uma distinção simples entre criações feitas por humanos e aquelas assistidas por IA é insuficiente. A IA pode ser usada apenas para editar ou modificar levemente um trabalho, sem alterar substancialmente sua natureza. Por exemplo, o uso de IA para ajustar detalhes de uma imagem ou de um texto não deve ser considerado uma criação completamente nova, mas uma modificação que mantém a autoria original. A regulamentação da União Europeia reconhece esse ponto e isenta da rotulagem de "conteúdo artificial" os casos em que a IA desempenha um papel secundário, apenas auxiliando no processo de criação.
Entretanto, surge a dúvida sobre onde traçar a linha entre o que constitui uma "modificação substancial" e o que é apenas uma alteração superficial. A regulamentação atual não fornece uma definição clara desse limite, o que deixa espaço para diferentes interpretações. Isso levanta a questão de como uma obra criada com IA, que depende de múltiplas instruções detalhadas do usuário, deve ser classificada. Se uma obra foi gerada após um processo intenso de interação entre o criador humano e a máquina, deve ela ser considerada como resultado de uma colaboração entre ambos, ou como algo inteiramente "gerado por IA"?
Para entender melhor essa questão, pode-se recorrer ao conceito de regras de origem geográfica, como aquelas aplicadas a bens e serviços em acordos comerciais internacionais. Nesse contexto, um produto não é considerado originário de um país apenas porque passa por ele no final do processo de produção, mas sim onde ocorre a transformação substancial que resulta em um produto novo. Quando aplicamos essa ideia ao campo da arte gerada por IA, é possível argumentar que uma obra deve ser considerada "criação humana" apenas quando a intervenção do humano é significativa o suficiente para alterar substancialmente o produto final.
Embora o conceito de transformação substancial seja útil, ele não resolve todas as questões relacionadas ao uso de IA na criação artística. A linha entre o que é uma transformação substancial e o que é uma simples modificação técnica continua a ser nebulosa. A regulamentação, ao exigir que os conteúdos gerados por IA sejam claramente rotulados, está tentando estabelecer um padrão que permita uma distinção mais clara, mas a falta de uma definição precisa sobre "transformação substancial" impede uma aplicação uniforme dessa norma.
Além disso, é essencial que se reconheça o impacto da IA sobre os processos criativos, não apenas no sentido de autoria, mas também na forma como ela altera a experiência do público. A IA não é apenas uma ferramenta de criação; ela tem o potencial de mudar a maneira como percebemos a arte e a autoria, ao criar novas formas de colaboração entre humanos e máquinas. O papel da IA na arte exige um entendimento mais profundo das interações entre a tecnologia e a criatividade humana, e isso vai além da simples questão de origem e autoria.
A ideia de que uma obra de arte gerada por IA pode ser "autêntica" ou "verdadeira" depende de como entendemos o processo criativo como um todo. Se considerarmos a criatividade como um produto exclusivamente humano, qualquer obra assistida por IA pode ser vista como um produto híbrido, que deve ser rotulado de forma clara, de acordo com a regulamentação vigente. No entanto, se expandirmos nossa compreensão da criatividade para incluir a colaboração com máquinas, a fronteira entre o que é considerado humano e o que é considerado máquina se torna cada vez mais difícil de traçar.
Por fim, o desenvolvimento da IA, especialmente em áreas como a arte, exige um repensar profundo sobre o que significa criar, sobre a autenticidade da criação e sobre a relação entre homem e máquina. O direito à liberdade artística, conforme estabelecido pela Carta dos Direitos Fundamentais da União Europeia, deve ser protegido, mas ao mesmo tempo, a transparência sobre o uso de IA é fundamental para garantir que o público tenha plena consciência da natureza do conteúdo que consome.
Como a Governança de IA Está Moldando o Futuro da Tecnologia
A ascensão das Inteligências Artificiais Generativas (GenAI) tem sido marcada por um impressionante aumento no investimento em capital de risco, que cresceu 425% de 2020 a meados de 2023, revelando a crença do mercado no potencial transformador dessa tecnologia. A integração acelerada da GenAI em setores variados como medicina, finanças, transporte e outros, ilustra a capacidade da tecnologia de se infiltrar em diversos mercados, embora os horizontes de aplicação e os cenários de integração total ainda permaneçam incertos. No entanto, com a adoção em larga escala de GenAI, surgiram novos desafios que ampliaram os riscos associados à sua utilização. A acessibilidade que impulsionou sua popularização também trouxe consigo riscos inéditos para um público maior, incluindo questões relacionadas à privacidade de dados, resultados tendenciosos devido a discriminações nos dados de treinamento, a erosão dos direitos de propriedade intelectual, o uso indevido por agentes privados e públicos, e preocupações éticas e democráticas sobre o conteúdo manipulado. A possibilidade de a GenAI se infiltrar ainda mais em mercados de forma cada vez mais complexa levanta questões regulatórias urgentes que exigem a contribuição de múltiplos agentes, incluindo formuladores de políticas, líderes da indústria e a sociedade civil. Em suma, o impacto profundo e abrangente da democratização dos benefícios e riscos da GenAI gerou uma nova onda de debate sobre governança, voltada para a adaptação a essa tecnologia que evolui rapidamente.
A governança de IA tem sido uma preocupação crescente desde os avanços no aprendizado profundo no início dos anos 2010. A adoção de IA disparou em uma miríade de setores, o que rapidamente trouxe à tona uma série de riscos potenciais. De acidentes fatais envolvendo veículos autônomos a práticas discriminatórias em processos de contratação, os impactos reais do desenvolvimento da IA tornaram-se cada vez mais evidentes. Além disso, a manipulação de mercados financeiros por meio de negociações algoritmas e a disseminação de desinformação nas redes sociais ampliam as preocupações sociais mais amplas relacionadas à IA. Diante da crescente conscientização sobre os riscos da IA na metade dos anos 2010, governos nacionais (inclusive os membros do G7), organizações internacionais, empresas de tecnologia e organizações sem fins lucrativos lançaram uma onda de publicações de políticas e diretrizes.
Exemplos notáveis incluem as Diretrizes de Ética para IA Confiável da União Europeia (UE) de 2019, a Recomendação sobre Inteligência Artificial da Organização para Cooperação e Desenvolvimento Econômico (OCDE) de 2019, e a Recomendação sobre a Ética da Inteligência Artificial da Organização das Nações Unidas para a Educação, Ciência e Cultura (UNESCO) de 2021. Essas publicações destacam a importância de alinhar o desenvolvimento da IA com valores fundamentais, como direitos humanos, democracia e sustentabilidade, além de princípios-chave como equidade, privacidade, segurança, transparência, explicabilidade e responsabilidade. Embora esses valores e princípios forneçam uma base crucial, a implementação deles em padrões viáveis para os sistemas de IA continua a ser um desafio, e resolver essa questão exige orientações concretas.
Diversas iniciativas têm sido implementadas em diferentes níveis de governança para superar esse desafio. No nível nacional, exemplos incluem o Quadro de Gestão de Riscos de IA (RMF) dos Estados Unidos, publicado pelo Instituto Nacional de Padrões e Tecnologia (NIST) em janeiro de 2023, e as Diretrizes de Governança de IA para Operadores Empresariais do Japão, publicadas em abril de 2024. Em níveis supranacional e internacional, esforços como as já mencionadas Diretrizes de Ética para IA Confiável da UE (2019), as Recomendações sobre IA da OCDE (2019) e a Recomendação de Ética de IA da UNESCO (2021) oferecem estruturas de alto nível para orientar o desenvolvimento e a governança responsáveis da IA. Organizações não governamentais como a Organização Internacional de Normalização (ISO) também têm contribuído para esse movimento, emitindo padrões internacionais sobre governança de IA, como o padrão de sistema de gestão de IA (ISO/IEC 42001:2023), publicado em dezembro de 2023. O Human Rights, Democracy, and the Rule of Law Assurance Framework (HUDERAF), proposto pelo Alan Turing Institute ao Comitê Ad Hoc sobre Inteligência Artificial do Conselho da Europa, é outro exemplo significativo de gestão de riscos da IA e envolvimento dos stakeholders.
Embora essas abordagens compartilhem uma direção comum, muitas das diretrizes publicadas para o desenvolvimento responsável de IA não possuem força legal vinculante, sendo exemplos de “soft law”. Embora o cumprimento desses documentos ajude as empresas a estabelecer estratégias de prevenção de riscos e medidas de responsabilidade antecipada, não há garantias ou mecanismos de execução para garantir a adesão a esses padrões. Portanto, para avançar em um compromisso mais forte com a governança de IA — especialmente no que diz respeito a sistemas de IA de alto risco — tem havido um movimento ativo em direção a um compromisso mais concreto com a governança de IA.
Além disso, a questão da supervisão humana em sistemas autônomos continua sendo um ponto central de debate. A IA pode ser capaz de realizar tarefas com alta eficiência, mas a ausência de um mecanismo robusto de controle humano pode levar a consequências inesperadas ou até catastróficas. A responsabilidade por ações da IA precisa ser claramente atribuída para garantir que os impactos sociais e econômicos não sejam deixados ao acaso.
Como o Processo de Hiroshima e o Quadro Abrangente Moldam o Futuro da Governança da IA Avançada
O Processo de Hiroshima (HAIP), lançado pelo G7 sob a presidência do Japão em maio de 2023, busca estabelecer uma base comum para o desenvolvimento e o uso responsável da Inteligência Artificial (IA). Diante da rápida evolução das tecnologias de IA, especialmente as mais avançadas, como modelos fundacionais e sistemas geradores, a intenção é promover a criação de uma IA segura, confiável e que beneficie toda a humanidade. A flexibilidade do quadro abrangente, que evita definições rígidas sobre o que constitui a "IA mais avançada", visa garantir que ele possa se adaptar ao ritmo acelerado das inovações.
Esse quadro se organiza em quatro elementos principais, com o intuito de guiar o desenvolvimento ético da IA no cenário global. O primeiro desses elementos é o Relatório da OCDE em direção a um entendimento comum do G7 sobre IA gerativa, que serve como análise dos riscos e oportunidades das tecnologias de IA avançada. O segundo elemento, as Diretrizes Internacionais para Todos os Ator da IA (HIGP), apresenta doze princípios gerais que devem ser seguidos por todos os envolvidos no design, desenvolvimento, implantação e uso de sistemas de IA. O terceiro elemento, o Código de Conduta Internacional para Organizações que Desenvolvem Sistemas de IA Avançada (HCoC), oferece um conjunto de diretrizes detalhadas para desenvolvedores de IA, alinhadas aos princípios do HIGP. Por fim, o quarto elemento foca na cooperação baseada em projetos, incluindo colaborações internacionais em áreas como autenticação de conteúdo e rotulagem de conteúdos gerados por IA.
O HIGP, com seus doze princípios fundamentais, busca estabelecer uma base sólida para governança responsável da IA. Esses princípios estão divididos em três categorias principais: gestão de riscos e governança, engajamento com as partes interessadas e considerações éticas e sociais. A primeira categoria enfoca a identificação e mitigação de riscos associados à IA, assegurando que os riscos sejam reduzidos a níveis aceitáveis para todos os envolvidos. A segunda categoria trata da transparência e da prestação de contas, essencial para garantir que as organizações responsáveis pela IA se comuniquem claramente com todas as partes interessadas. A última categoria destaca a importância de alinhar o desenvolvimento e o uso da IA com os padrões éticos e os valores sociais globais.
No que diz respeito à governança de IA, o HCoC detalha ações práticas para organizações que desenvolvem IA avançada. Em relação à gestão de riscos, ele recomenda a implementação de testes rigorosos ao longo de todo o ciclo de vida da IA, incluindo práticas como a "red-teaming", que visa identificar falhas de segurança e confiança. Além disso, a gestão de vulnerabilidades e o monitoramento pós-implantação são aspectos cruciais, com a recomendação de sistemas de feedback de vulnerabilidade, como sistemas de recompensa (bug bounty). Também se destaca a importância da transparência organizacional, com a divulgação de políticas de governança e a comunicação clara com os usuários sobre as medidas de privacidade e mitigação de riscos.
Outro aspecto fundamental abordado pelo HCoC é a autenticação de conteúdo. Com o crescimento da IA geradora de conteúdo, como textos, imagens e vídeos, torna-se essencial que as organizações desenvolvam métodos para autenticar conteúdos gerados por IA, como, por exemplo, o uso de marcas d'água digitais. O código também sublinha a necessidade de proteger dados pessoais e propriedade intelectual, além de garantir a integridade dos dados, minimizando viéses e respeitando as normas legais e regulatórias.
Para a IA alcançar seu potencial máximo de forma responsável, o engajamento contínuo com as partes interessadas é imprescindível. A transparência das organizações, que deve ser uma prioridade, não se limita à divulgação de informações sobre os recursos da IA, mas também inclui a responsabilidade por suas ações e impactos sociais. O envolvimento das partes interessadas, como governos, empresas, sociedade civil e pesquisadores, é essencial para garantir que o desenvolvimento da IA atenda às necessidades e expectativas da sociedade, sem comprometer princípios éticos ou gerar danos sociais.
Além disso, ao implementar políticas de governança para IA avançada, é importante que as organizações considerem o impacto global da IA, incluindo seu potencial para resolver desafios globais, como mudanças climáticas, saúde pública e desigualdades sociais. A IA não deve ser vista como uma ferramenta apenas para otimização de processos ou lucro, mas como um vetor para melhorias substantivas na qualidade de vida global. Isso exige um compromisso com a pesquisa e o desenvolvimento responsável, promovendo inovações que atendam às necessidades do mundo real e que não comprometam os valores éticos fundamentais.
A colaboração internacional também se revela uma característica essencial no processo de governança da IA. A natureza global das tecnologias de IA demanda que os países e as organizações colaborem de maneira eficaz na criação de padrões e na troca de melhores práticas. A criação de uma estrutura internacional coesa e harmonizada é crucial para mitigar os riscos e promover um uso ético e seguro da IA. O trabalho conjunto, compartilhando conhecimentos, desafios e soluções, permitirá um futuro mais promissor, onde os benefícios da IA são distribuídos de forma equitativa.
A senescência celular no cérebro envelhecido pode ser revertida?
Como Gerenciar Complicações Durante a Re-Esternotomia em Pacientes com Anomalia de Taussig-Bing
Como o Nacionalismo e o Populismo Estão Moldando o Comércio Global
Como construir agentes autônomos que realmente entendem o varejo?
Como Criar e Utilizar Templates de Busca no Elasticsearch: Aplicações e Benefícios

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский