A manipulação comportamental (CM) através de tecnologias de Inteligência Artificial (IA) surge como um tema controverso, especialmente no que tange à sua regulação e aos danos que pode causar. O recente ajuste no Artigo 5 (1) da proposta de Lei de Inteligência Artificial da União Europeia (AIA) exige que o dano causado pela manipulação seja significativo para que a IA em questão seja considerada proibida. No entanto, o que se entende por "dano significativo"? E até que ponto um dano menor pode ainda assim afetar a autonomia mental e a autodeterminação dos indivíduos? O exemplo de dispositivos como o cigarro eletrônico ilustra bem esse dilema: embora o impacto econômico possa ser mínimo, o efeito psicológico sobre os usuários pode ser substancial, prejudicando a tomada de decisão e a liberdade de escolha.

Este dilema se aprofunda ainda mais quando se considera que a IA pode ser usada para distorcer comportamentos não apenas em nível individual, mas também em grupos. A primeira versão da proposta do Artigo 5 tratava da manipulação e distorção comportamental em massa, afetando coletivos com características semelhantes. No entanto, a versão mais recente expande esse conceito, incluindo tanto indivíduos quanto grupos, e introduz a ideia de vulnerabilidades específicas, como idade, deficiência ou condições socioeconômicas. A distinção entre manipulação em nível individual e em nível coletivo parece agora menos clara, o que gera incertezas sobre a efetiva proteção dos indivíduos vulneráveis.

Ao abordar essas questões, o Artigo 5 (1) não apenas discute a manipulação no sentido tradicional, mas também questiona as implicações dessa manipulação em um contexto mais amplo, onde fatores como vulnerabilidades cognitivas e sociais são explorados. A manipulação se aproveita de "atalhos" no processo decisório, afetando o Sistema 1 da mente humana – aquele que responde automaticamente e sem esforço, muitas vezes levando a decisões que não são completamente conscientes ou informadas. Esse aspecto da manipulação não é trivial, pois pode afetar até mesmo as decisões mais cotidianas, como aquelas relacionadas a compras ou interações sociais, com impactos psicológicos profundos.

A introdução de um requisito de dano significativo no Artigo 5 (1) levanta ainda outra questão crucial: é possível prever, ex ante, que uma tecnologia de IA causará danos substanciais? O texto sugere que a detecção de manipulação e a imposição de proibições devem ocorrer apenas após a ocorrência do dano, ou seja, com um foco ex post. Esse modelo de regulação pode ser problemático, pois implica que a IA manipuladora seja criada e utilizada antes que as consequências sejam avaliadas. Isso é análogo a esperar que uma arma de fogo seja usada antes de proibi-la, o que pode ser uma abordagem excessivamente reativa e inadequada em um contexto tão dinâmico e perigoso como o das tecnologias manipulativas.

O Artigo 5 (1) (b) amplia a discussão ao incluir sistemas de IA que exploram vulnerabilidades, distorcendo materialmente o comportamento de indivíduos ou grupos de pessoas. No entanto, a ausência de uma definição clara de "manipulação" e a falta de referência a vieses cognitivos nas vulnerabilidades torna difícil distinguir entre as duas versões da regulamentação. A manipulação e a exploração das vulnerabilidades cognitivo-psicológicas, como a tendência a seguir o comportamento de outros ou a propensão a certos vieses cognitivos, são aspectos fundamentais na compreensão de como a IA pode ser usada para influenciar comportamentos.

Além disso, o Artigo 5 (1) (g) trata da utilização de sistemas de categorização biométrica, uma tecnologia crescente que usa dados biométricos para inferir características psicológicas, comportamentais ou sociais de um indivíduo. No entanto, essa abordagem parece limitada, já que não proíbe a categorização de indivíduos com base em seus filtros cognitivos ou viéses psicológicos. Isso levanta preocupações sobre a possibilidade de uso indevido dessas tecnologias para fins manipulativos. Embora a Lei busque evitar que informações sensíveis, como raça ou crenças religiosas, sejam inferidas a partir dos dados biométricos, ela não aborda suficientemente as implicações mais amplas do uso de IA para categorizar e manipular comportamentos.

É importante destacar que, apesar da regulamentação proposta pela União Europeia, o conceito de manipulação comportamental e seus efeitos ainda são de difícil definição. A linha entre a manipulação psicológica sutil, como a que ocorre em interações cotidianas, e a manipulação explícita, com danos mais evidentes, não é fácil de traçar. O que se torna claro é que o impacto da IA sobre a autonomia e o comportamento humano não pode ser subestimado, e é fundamental que a regulação se antecipe às potenciais ameaças que essas tecnologias podem representar para a liberdade individual e a justiça social.

Como os Artistas Podem Garantir a Autenticidade de Suas Obras em um Mercado Saturado por IA?

A introdução de sistemas de Inteligência Artificial (IA) no campo da arte tem provocado uma revolução no processo de criação artística, trazendo consigo uma série de questões sobre a autenticidade das obras. Um dos maiores desafios dessa nova era é como garantir que as obras de arte sejam reconhecidas como genuinamente humanas em um mercado onde a IA pode gerar imagens e textos indistinguíveis das produções feitas por artistas tradicionais. Nesse contexto, o conceito de uma "regra de origem de baixo para cima" surge como uma possível solução.

A ideia central da regra de origem de baixo para cima é a criação de sinais claros e explícitos que possam indicar a origem humana da obra. Isso implica em documentar o processo de criação de forma que se evidencie o envolvimento humano, de maneira semelhante ao que ocorre quando um restaurador de arte revela as intervenções feitas em uma peça antiga. A transição para uma arte que sinalize sua origem humana exige uma abordagem criativa que vá além das tradicionais formas de autenticação, como a assinatura de um artista.

A adoção dessa abordagem não cabe apenas aos reguladores e instituições, mas também aos próprios artistas. De fato, como propõe a teoria econômica do "sinalizador", artistas podem adotar estratégias para diferenciar suas obras das geradas por IA. De acordo com Michael Spence, um sinal eficaz precisa ser credível, acessível e mais oneroso para quem oferece produtos de baixa qualidade do que para os que oferecem produtos de qualidade superior. Para obras de arte, um exemplo prático disso seria o uso de registros de vídeo ou fotografias do processo criativo. Isso permitiria aos compradores ver com clareza o desenvolvimento da obra e identificar sua origem humana, criando uma forma de "sinal" que valida a autenticidade da peça. Este conceito não é novo. Já em 1896, quando o Museu do Louvre adquiriu a Tiara de Saïtapharnès, especialistas questionaram sua origem. Foi somente quando o ourives Israel Rouchomowsky apresentou fotos de estúdio e detalhes minuciosos da composição que conseguiu provar sua autoria e restaurar a credibilidade da peça.

Entretanto, essa abordagem pode não ser viável para todas as formas de arte. No caso de escritores, por exemplo, seria absolutamente inútil filmar um autor digitando em um teclado, já que a origem do conteúdo não seria validada de maneira significativa. Para esses casos, outras formas de verificação poderiam ser mais eficazes. Uma possibilidade que está sendo explorada é a marca d'água digital, que poderia ser incorporada diretamente nos textos gerados pela IA. Essa marca seria invisível ao olho humano, mas detectável por algoritmos, oferecendo uma solução técnica para a questão da autenticidade.

No entanto, ainda resta a dúvida de quão confiável será a adesão voluntária a um sistema de notificação que indique se uma obra foi criada por IA. O risco de engano continua sendo um desafio, uma vez que a indistinguibilidade entre produções humanas e automáticas tende a incentivar práticas desonestas. Para lidar com isso, seria necessário um sistema técnico robusto, no qual as IA pudessem, automaticamente, incluir essas marcas d'água em suas produções, impedindo que o conteúdo gerado fosse confundido com o trabalho de um artista humano. Embora seja possível que usuários mais experientes consigam remover essas marcas, a maioria dos consumidores não teria essa capacidade, o que poderia garantir uma maior confiança na autenticidade dos produtos.

É possível que a ascensão das IAs no campo artístico crie uma demanda por especialistas em arte digital, que seriam capazes de autenticar a origem de uma obra, identificando e avaliando a presença de marcas d'água ou sinais semelhantes. Esse cenário pode remeter ao fenômeno da "destruição criativa", um conceito que, historicamente, surge quando novas tecnologias desafiam estruturas existentes. Da mesma forma que o aumento de falsificações de obras artísticas gerou a necessidade de especialistas para autenticar peças, a proliferação de arte gerada por IA exigirá o surgimento de especialistas que possam distinguir e autenticar a arte feita por humanos.

Esse novo tipo de connoisseurship, que poderá envolver também uma compreensão técnica das ferramentas de IA, poderia, paradoxalmente, resultar em uma valorização maior da arte feita por humanos. Assim como os preços das obras de arte aumentam quando um especialista valida sua autenticidade, a crescente percepção da distinção entre arte gerada por humanos e por IA pode, no longo prazo, elevar o valor das criações humanas, colocando-as em uma posição de maior prestígio no mercado.

Esse fenômeno traz consigo implicações econômicas e culturais significativas. Por um lado, pode incentivar a inovação no campo da arte, exigindo que os artistas se adaptem a novas formas de validar suas obras. Por outro, também pode resultar em uma pressão crescente sobre o mercado para adotar formas mais rigorosas de autenticação e regulação, em um contexto em que o valor da arte se torna cada vez mais dependente de sua origem.