Nos últimos anos, o desenvolvimento de sistemas de inteligência artificial generativa tem avançado rapidamente, alimentado pela coleta massiva de dados, muitas vezes de fontes protegidas por direitos autorais. Esse fenômeno desencadeou uma corrida pela obtenção de material para treinamento, onde empresas de tecnologia estão adquirindo grandes volumes de dados, muitas vezes sem a devida verificação da titularidade dos direitos autorais. Essa busca incessante por melhorar os modelos de IA tem gerado questões complexas em relação ao uso e à reprodução de obras protegidas por direitos autorais, o que levanta dúvidas jurídicas ainda não resolvidas.

O processo de treinamento de modelos de IA generativa envolve a coleta de dados de fontes online e offline, com o objetivo de compilar informações que permitam à IA prever e gerar novos conteúdos. Durante esse processo, é necessário realizar uma série de transformações digitais nas obras coletadas, de modo que a IA não apenas armazene essas obras, mas as utilize para criar novos conteúdos com base em padrões e probabilidades extraídas dos dados. Dessa forma, embora a IA não combine diretamente as obras originais em suas produções, ela as utiliza para aprender a estrutura, o conteúdo e as probabilidades de como certos elementos podem aparecer ou ser combinados.

No entanto, a inclusão de obras protegidas por direitos autorais nos dados de treinamento levanta questões sobre a legalidade da reprodução desses materiais. O ato de coletar dados para treinamento de IA pode ser considerado uma violação dos direitos de reprodução, uma vez que envolve a cópia das obras para um fim específico, sem a devida licença. A difícil questão que surge aqui é a de como tratar essa cópia dentro de um modelo de IA, especialmente quando a obra não é diretamente reproduzida, mas sim utilizada para ensinar o sistema a gerar algo novo a partir dos padrões extraídos. Mesmo que os materiais usados para treinar a IA não sejam "literalmente copiados", o aprendizado da IA é baseado em uma série de vetores e pesos que podem refletir essas obras de maneira indireta, mas ainda assim, potencialmente identificável.

Além disso, a reprodução de conteúdos em larga escala pelas IAs pode levar à criação de modelos que, em certos casos, "memorizam" partes do conteúdo de treinamento. Em situações em que a IA é alimentada com um grande volume de dados de uma obra icônica ou amplamente distribuída, como uma fotografia famosa ou um artigo jornalístico muito conhecido, a IA pode gerar uma saída que se aproxima consideravelmente do original. Essa reprodução, ainda que transformada digitalmente, pode ser considerada uma violação de direitos autorais se o conteúdo resultante for suficientemente semelhante ao material treinado.

Outro aspecto importante desse debate é a dificuldade de comprovar a violação de direitos autorais. Em muitos casos, a IA é treinada utilizando conjuntos de dados privados e proprietários, e isso pode dificultar a identificação das obras utilizadas. Mesmo que um autor ou titular de direitos autorais perceba que sua obra foi incorporada ao treinamento de uma IA, pode ser praticamente impossível provar que essa obra específica foi usada, já que o material de treinamento é muitas vezes armazenado de forma dispersa ou não documentada adequadamente. Além disso, embora as empresas de IA aleguem que os modelos não memorizam o conteúdo, o risco de que a IA reproduza material protegido por direitos autorais nunca pode ser totalmente descartado.

Outro fator relevante diz respeito ao processo legal em torno da regulamentação do uso de dados para treinamento de IA. Embora a legislação sobre direitos autorais já aborde questões como o uso de cópias para gravações de performances musicais ou retransmissões de sinais de televisão, ela não prevê um quadro claro para a utilização de material digital em processos de treinamento de IA. Isso deixa os desenvolvedores e as empresas de IA em uma situação delicada, onde a falta de uma legislação específica sobre IA os coloca em um limbo jurídico, sem um parâmetro claro para o uso ético e legal dos dados.

Além disso, a questão da licença obrigatória surge como uma possível solução. No entanto, para que um modelo de licenciamento fosse imposto legalmente, seria necessário revisar a legislação existente e expandi-la para incluir o uso de dados em IA, o que representa um desafio significativo. Com a vastidão e a natureza global da coleta de dados para treinamento, um sistema de licenciamento privado seria extremamente difícil de implementar, pois envolveria negociações complexas e de alto custo entre as partes envolvidas.

Por fim, é essencial compreender que, além da questão da violação de direitos autorais, a evolução da IA também levanta preocupações sobre o impacto social e econômico. A dependência de grandes volumes de dados de autoria não licenciada pode criar um ambiente em que o valor do trabalho intelectual original seja desvalorizado, prejudicando os criadores e autores que dependem dos direitos sobre suas obras. Isso reflete uma tensão crescente entre a inovação tecnológica e a proteção dos direitos dos indivíduos sobre suas criações.

Como o Digital Markets Act Pode Regular a Inteligência Artificial Gerativa

Os modelos de inteligência artificial gerativa (GenAI) ainda não estão na lista de "gatekeepers" ou "serviços de plataformas essenciais" (CPSs) do Digital Markets Act (DMA) da União Europeia, e, portanto, não estão diretamente sujeitos às suas regulamentações. No entanto, há uma possibilidade de que as tecnologias por trás da GenAI possam ser incluídas entre os serviços essenciais e, consequentemente, serem regulamentadas de acordo com as normas do DMA. A regulamentação do DMA visa criar mercados mais justos e concorrenciais no setor digital, mas o papel da inteligência artificial nesse contexto ainda está em processo de definição.

O DMA, adotado pelo Parlamento Europeu e pelo Conselho da União Europeia em setembro de 2022, foi elaborado para garantir uma maior competição e transparência nas plataformas digitais, principalmente aquelas que detêm um poder significativo sobre o mercado. Este regulamento aplica-se principalmente a "gatekeepers", empresas que controlam plataformas digitais amplamente utilizadas, e às suas práticas comerciais. A natureza do DMA implica que, caso a GenAI seja incorporada nas operações dessas plataformas, ela também será impactada por essas regulamentações, especialmente em aspectos que envolvem concorrência, uso de dados e transparência.

Atualmente, seis "gatekeepers" foram designados, como empresas de renome mundial: Alphabet, Amazon, Apple, ByteDance, Meta e Microsoft, com algumas adições recentes, como o Booking.com. Estas empresas, com sua imensa base de usuários, têm acesso a vastos volumes de dados que, se mal geridos, podem criar barreiras para a entrada de novos competidores e afetar a concorrência de maneira injusta. Se, por exemplo, o Google utilizasse GenAI em sua plataforma de busca, a tecnologia relacionada, como seu modelo de pesquisa multitarefa, seria regulamentada pelo DMA. O mesmo ocorreria se a Meta implementasse IA generativa em serviços como o Instagram, com ferramentas de edição de imagem baseadas em IA.

Ainda que o DMA tenha estabelecido uma lista de serviços essenciais, essa lista não é fixa e pode ser revista. Qualquer nova tecnologia digital, como as plataformas de inteligência artificial gerativa, poderá ser avaliada através de investigações de mercado e, se necessário, ser incluída na lista de serviços essenciais. Esse processo garante que o DMA se mantenha relevante e adaptado às mudanças do mercado digital. Importante ressaltar que o DMA não se preocupa em regular o uso da IA dentro de um único serviço, mas sim em como as grandes plataformas utilizam dados através de múltiplos serviços para dominar o mercado e reduzir a concorrência.

Entre os principais critérios que justificam a regulação dos serviços essenciais estão a presença de economias de escala em grande escala, efeitos de rede fortes, e a dependência significativa de usuários e empresas. A ideia é garantir que plataformas que dominam o mercado, como as redes sociais ou motores de busca, não abusem de seu poder para manipular resultados ou prejudicar a competição. No entanto, a ausência de fornecedores de serviços de nuvem na lista de CPSs destaca uma lacuna, dado que a infraestrutura digital de muitas empresas depende de serviços de computação em nuvem. Embora esses serviços de nuvem não estejam regulados pelo DMA, eles estarão sujeitos a outras regulamentações, como o novo Regulamento de Dados da União Europeia, que visa melhorar o acesso e o uso de dados de forma justa.

Embora o DMA não use explicitamente o termo "inteligência artificial", existem vários aspectos da regulamentação que afetam o uso de IA generativa. Entre esses aspectos estão as exigências para criar sistemas de classificação justos, a necessidade de transparência na forma como as plataformas classificam e indexam os resultados de pesquisa, a regulamentação de dados de treinamento de IA e o direito de acesso a esses dados. A proibição de práticas como a autopromoção de produtos próprios nas plataformas, sem considerar a igualdade de condições com produtos de terceiros, é uma das medidas-chave para combater o favoritismo nas classificações.

Essas medidas de transparência buscam minimizar a assimetria de informações entre plataformas, usuários finais, empresas usuárias e as autoridades reguladoras. Para isso, a União Europeia implementou diversas regulamentações, como o Regulamento P2B e a Diretiva de Direitos do Consumidor, que exigem uma maior clareza na forma como os dados são tratados, acessados e compartilhados. As plataformas também precisam ser mais transparentes em relação ao uso de dados para anúncios, o que inclui a obrigatoriedade de fornecer dados agregados de alto nível para que os anunciantes possam avaliar o desempenho de suas campanhas publicitárias.

Por fim, uma das questões centrais do DMA é garantir que os dados obtidos de usuários comerciais não sejam usados para competir contra esses mesmos usuários. Isso inclui o uso de dados coletados para treinar modelos de IA sem o consentimento explícito dos usuários comerciais, bem como a proibição de usar dados de plataformas para melhorar a personalização de anúncios, a menos que os usuários finais consintam de forma clara e informada. Dessa forma, o DMA busca criar um ambiente mais equilibrado, onde empresas menores possam competir de forma mais justa, e onde a inovação não seja sufocada pelo domínio das grandes plataformas.

A implementação dessas regulamentações não apenas visa impedir práticas anti-competitivas, mas também fomentar um mercado mais transparente e acessível, onde dados possam ser usados de forma ética e inovadora. Além disso, as medidas do DMA incentivam a interoperabilidade entre plataformas e serviços de terceiros, permitindo que os usuários possam escolher entre diferentes opções e utilizar serviços que atendam melhor às suas necessidades, sem serem forçados a adotar soluções exclusivas de grandes plataformas.

Como a Inteligência Artificial Generativa Desafia os Limites da Regulação e Governança Global?

Nos últimos anos, os avanços na tecnologia da inteligência artificial (IA) gerativa têm remodelado a forma como entendemos a criação, o conhecimento e a interatividade entre humanos e máquinas. A IA generativa, que é capaz de criar textos, imagens, músicas e até mesmo simular comportamentos humanos, apresenta enormes possibilidades, mas também desafios significativos para a sociedade. O impacto dessa tecnologia não é limitado ao campo da ciência da computação; ele se estende à ética, economia, direitos humanos, regulação e governança global.

A criação de modelos generativos mais sofisticados, como os grandes modelos de linguagem, trouxe à tona a necessidade urgente de desenvolver abordagens mais responsáveis e éticas. A questão central não é apenas a inovação técnica, mas como garantir que esses avanços não venham a comprometer valores fundamentais como a privacidade, a autonomia e a justiça social. A falta de uma regulação eficaz e uma compreensão ampla sobre os efeitos dessas tecnologias pode resultar em sérias consequências, desde a manipulação da opinião pública até a disseminação de informações errôneas e preconceituosas.

No cenário da União Europeia, a IA generativa é analisada através de um enfoque legal e regulatório rigoroso, mas muitas vezes incompleto. A Diretriz de Responsabilidade de Inteligência Artificial, por exemplo, ainda enfrenta lacunas significativas no que diz respeito à proteção contra discriminação, danos à privacidade e riscos ambientais, como apontado por especialistas como Ugo Pagallo e Teresa Rodriguez de las Heras Ballell. A regulação em termos de responsabilidade civil também se mostra um grande desafio, principalmente quando se trata de determinar a responsabilidade pelos outputs gerados por modelos de IA, especialmente quando esses outputs causam danos. Esse cenário evidencia a dificuldade de se aplicar normas tradicionais de responsabilidade jurídica a tecnologias que operam de maneira descentralizada e em grande escala.

Além disso, há uma crescente preocupação com os impactos econômicos da IA generativa. No mercado da arte, por exemplo, há uma crescente ameaça de "seleção não natural", onde obras criadas por algoritmos podem minar o valor das criações humanas. Jerome De Cooman, ao analisar essas mudanças sob a ótica de uma "seleção darwiniana", alerta para o risco de uma distorção dos mercados criativos e uma erosão das noções tradicionais de valor e propriedade intelectual.

Outro aspecto relevante que se destaca nas discussões sobre IA generativa são as implicações para a segurança e a manipulação da informação. O uso de modelos generativos para criar deepfakes, por exemplo, levanta questões sobre a confiança nas fontes de informação. Stefano Faraoni e outros especialistas apontam a necessidade urgente de criar um arcabouço legal que proteja a autonomia do indivíduo em um cenário em que algoritmos podem alterar ou até mesmo substituir a percepção da realidade.

O papel das diferentes abordagens nacionais e internacionais na governança da IA generativa é igualmente complexo e multifacetado. No contexto da China, o controle sobre o conteúdo gerado por IA é rigorosamente supervisionado pelo governo, com medidas específicas para proteger a segurança e evitar a disseminação de conteúdos nocivos, ao mesmo tempo em que busca promover o crescimento da indústria. Em contraste, países como Cingapura adotam uma abordagem mais colaborativa, enfatizando a importância da confiança pública e da transparência nas políticas de IA. A União Europeia, por sua vez, está empenhada em equilibrar a regulação rigorosa com o incentivo à inovação tecnológica, embora ainda enfrente desafios consideráveis em relação à rápida evolução da IA.

Uma das questões centrais que emerge dessas diferentes abordagens é a necessidade de uma coordenação global. O desenvolvimento de normas e práticas compartilhadas, como as promovidas pelo G7 e outras organizações internacionais, é essencial para garantir que os benefícios da IA generativa sejam maximizados enquanto os riscos sejam minimizados. A governança internacional de IA deve ir além de simples diretrizes e regulamentações, mas deve envolver uma estrutura dinâmica que acompanhe as rápidas mudanças dessa tecnologia.

Por fim, o impacto da IA generativa sobre direitos como a proteção de dados pessoais e a propriedade intelectual não pode ser subestimado. A coleta e o uso de grandes volumes de dados pessoais para treinar modelos de IA colocam em risco a privacidade dos indivíduos. Ao mesmo tempo, a criação de conteúdos por IA levanta novas questões sobre quem detém os direitos autorais das obras geradas. As leis de proteção de dados, como a GDPR na União Europeia, ainda enfrentam desafios ao lidar com as complexidades da IA generativa, e talvez seja necessário revisitar essas regulamentações para refletir as realidades tecnológicas do presente e do futuro.

A evolução da IA generativa exige, portanto, uma abordagem integrada e global, que não apenas promova a inovação tecnológica, mas que também garanta que seus impactos sejam cuidadosamente geridos para preservar os direitos humanos, a liberdade de expressão, a equidade e a confiança pública.