O uso de sistemas de Inteligência Artificial Generativa (GenAI) tem evoluído de maneira impressionante, principalmente no contexto do comércio eletrônico, onde são usados para personalizar a experiência de compra e influenciar o comportamento dos consumidores. Esses sistemas de recomendação, alimentados por algoritmos sofisticados, são projetados para melhorar a interação do usuário com plataformas digitais, gerando sugestões que atendem aos gostos, interesses e comportamentos passados. Contudo, o poder dessa personalização traz consigo desafios significativos, especialmente do ponto de vista legal e ético.

A personalização gerada pela GenAI, enquanto potencializa a satisfação do usuário e a interação com plataformas digitais, levanta sérias questões legais. Uma das preocupações centrais refere-se à manipulação do comportamento do consumidor. Os sistemas de recomendação, alimentados pela GenAI, podem explorar vieses cognitivos e gatilhos emocionais para direcionar os usuários a comportamentos específicos, muitas vezes sem que eles se deem conta. Por exemplo, uma plataforma de e-commerce pode destacar produtos que geram margens de lucro mais altas, influenciando o consumidor a tomar decisões de compra que beneficiam mais a plataforma do que o próprio consumidor. Essa forma de manipulação pode enfraquecer a autonomia do usuário, uma vez que suas escolhas são fortemente moldadas pela orientação estratégica da IA, e não por decisões genuinamente informadas.

A legislação atual, como a UCPD (Diretiva de Práticas Comerciais Desleais da União Europeia), proíbe práticas comerciais que sejam enganosas ou agressivas. Caso as ferramentas de GenAI explorem vulnerabilidades do consumidor, por exemplo, manipulando emoções através de interações personalizadas, essas práticas podem ser consideradas agressivas e violar as normas de proteção ao consumidor. A recente introdução do Artigo 27 da Lei dos Serviços Digitais (DSA), que visa garantir a transparência dos sistemas de recomendação, também é uma tentativa de iluminar os mecanismos por trás dessas sugestões automatizadas. A intenção é garantir que os usuários compreendam melhor como as recomendações são geradas e por que determinados conteúdos são apresentados a eles.

Além disso, os provedores de ferramentas de GenAI precisam oferecer informações transparentes e precisas sobre o funcionamento dessas recomendações, incluindo a divulgação clara de que as sugestões vêm de sistemas de IA e não de uma análise humana. Se esses sistemas forem projetados de forma a manipular indevidamente as escolhas dos consumidores, induzindo-os a tomar decisões que não fariam se estivessem plenamente informados, isso poderia distorcer os processos de decisão do consumidor de maneira prejudicial.

Outro exemplo de como a GenAI está moldando o comportamento do consumidor é o uso de assistentes virtuais baseados em IA no comércio eletrônico. Esses assistentes, movidos por IA generativa, são capazes de oferecer recomendações personalizadas e transformar a experiência de compra online. Ao analisar preferências dos consumidores, eles podem orientar de forma precisa sobre quais produtos se alinham melhor com as necessidades de cada um. Esses assistentes também são capazes de gerar respostas em linguagem natural, permitindo uma interação mais fluida e contextual com os usuários, o que aumenta a confiança do consumidor no processo de compra. No entanto, mesmo com essa sofisticação, é importante lembrar que esses assistentes não são infalíveis. Sua eficácia depende da qualidade dos dados com os quais foram treinados, e, como qualquer sistema de IA, podem refletir vieses ou limitações.

Além disso, os assistentes virtuais possuem um potencial significativo para manipular o comportamento do consumidor, o que levanta questões sobre ética, privacidade e governança de dados. Se um assistente virtual, por exemplo, fornecer informações imprecisas ou exercer uma persuasão excessiva para influenciar decisões de compra, isso pode ser considerado enganoso. Em certos casos, como quando esses assistentes simulam interações românticas para explorar vulnerabilidades emocionais, essas práticas podem ser classificadas como agressivas, o que é proibido por lei.

Por último, a regulamentação jurídica da UE em relação à IA gerativa abrange uma variedade de aspectos, incluindo a criação de conteúdo, sistemas de recomendação e assistentes virtuais. O Regulamento Geral de Proteção de Dados (GDPR) é um exemplo importante, pois exige transparência, proteção de dados e consentimento do usuário. No entanto, é fundamental que os consumidores, ao interagir com essas tecnologias, mantenham um olhar crítico e estejam cientes de que nem todas as interações com sistemas de IA serão imparciais ou desinteressadas. A possibilidade de manipulação por meio da personalização excessiva exige uma vigilância constante sobre as práticas comerciais no ambiente digital.

O entendimento da interação entre GenAI e o comportamento do consumidor deve ser visto também em sua perspectiva evolutiva. O mercado está constantemente mudando, e com ele as ferramentas digitais. A evolução desses sistemas trará mais desafios relacionados à privacidade, ao consentimento e à manipulação psicológica. Portanto, além das regulamentações, é necessário que os consumidores desenvolvam uma conscientização sobre o uso de IA, sendo críticos e informados sobre os impactos que essas tecnologias podem ter em suas escolhas diárias.

Como as Regras Éticas e Profissionais se Aplicam ao Uso de IA no Direito?

A rápida evolução das tecnologias de inteligência artificial (IA), como os Modelos de Linguagem de Grande Escala (LLMs), tem trazido novos desafios para a profissão jurídica. Embora as regras éticas e de conduta profissional, como as estabelecidas pela American Bar Association (ABA) e pelo Conselho das Ordens de Advogados da Europa (CCBE), não regulamentem diretamente o uso de IA, elas fornecem diretrizes importantes sobre como os advogados devem lidar com essas novas tecnologias, assegurando que os princípios fundamentais de responsabilidade e diligência sejam mantidos.

Em primeiro lugar, os advogados têm uma série de deveres fiduciários para com seus clientes, que incluem a obrigação de manter a confidencialidade das informações, agir com diligência e garantir a competência no uso de novas tecnologias. A IA, especialmente os LLMs, representa uma ferramenta poderosa, mas que exige uma abordagem cuidadosa. A primeira consideração é o dever de competência: o advogado deve ter um entendimento suficiente da tecnologia que está utilizando. Isso significa não apenas saber como operar ferramentas de IA, mas também entender suas limitações, como o risco de gerar resultados imprecisos ou distorcidos, e como mitigar esses riscos.

Outro ponto crucial é o dever de cuidado fiduciário e lealdade ao cliente. Ao utilizar IA, o advogado não deve simplesmente aceitar o que a ferramenta gera, mas deve revisar criticamente os resultados. A IA, sendo uma tecnologia que está em constante evolução, pode ser mais eficaz que o profissional humano em determinadas tarefas, mas ainda está longe de ser infalível. Quando um advogado utiliza IA para revisar ou redigir contratos, por exemplo, ele precisa garantir que os resultados sejam precisos e que não haja contradições ou falhas jurídicas que possam prejudicar os interesses do cliente. Caso contrário, a falha em verificar a precisão dos resultados pode ser considerada uma violação do dever de cuidado fiduciário.

Além disso, a obrigação de supervisão e responsabilidade também se aplica ao uso de IA. Embora a IA possa processar grandes volumes de dados de maneira rápida e eficiente, ela não substitui a necessidade de supervisão humana. O advogado deve sempre exercer controle sobre as decisões geradas pela IA, especialmente quando estas envolvem decisões complexas e de alto risco para o cliente. O dever de notificação e consentimento é igualmente importante, pois o cliente precisa estar ciente de que a IA está sendo utilizada em seu caso, compreendendo os benefícios e riscos dessa escolha.

Em relação à conformidade regulatória, os advogados devem também observar as leis e regulamentos que governam o uso de IA nas jurisdições em que atuam. Isso inclui respeitar os direitos de terceiros e garantir que a IA não seja usada de maneira que infrinja a privacidade ou outros direitos fundamentais.

As implicações éticas do uso de IA não se limitam apenas à diligência e à precisão na execução das tarefas. A utilização de IA pode transformar o conceito de responsabilidade profissional. Quando um erro ocorre devido ao uso incorreto da IA, a responsabilidade ainda recai sobre o advogado, que não pode se eximir da falha alegando que o sistema gerou o erro. Portanto, a tecnologia deve ser uma ferramenta a mais no arsenal do advogado, mas sempre sob sua supervisão e responsabilidade final.

No entanto, as regras de conduta éticas não podem ser vistas como uma proibição ao uso de IA, mas sim como um convite a uma utilização responsável e informada. Embora o uso de LLMs e IA ainda não seja amplamente exigido em muitas jurisdições, pode-se prever que, com o tempo, a integração dessas ferramentas nas práticas jurídicas será cada vez mais uma exigência para garantir a competência profissional. O não uso de IA, quando ela pode ser benéfica para o cliente, pode ser visto, em alguns casos, como uma falha em cumprir com os padrões de cuidado e diligência exigidos.

Portanto, é essencial que os advogados não apenas se adaptem às novas tecnologias, mas também se mantenham informados sobre as evoluções da IA e suas implicações legais e éticas. Eles devem estar preparados para lidar com as limitações dessas ferramentas, validar as informações que elas geram e garantir que o cliente esteja sempre em primeiro lugar, em conformidade com as exigências da profissão. Isso implica não só a utilização responsável da IA, mas também uma abordagem ética que garanta que a tecnologia seja um complemento à prática jurídica, e não um substituto da diligência e do julgamento profissional.

Como os Advogados Devem Lidar com o Uso de LLMs: Competência Profissional e Deveres Éticos

No contexto atual, em que tecnologias de Inteligência Artificial (IA) estão cada vez mais presentes, os advogados se deparam com novas questões éticas e práticas no exercício de suas funções, especialmente no que tange ao uso de Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês). A introdução dessas ferramentas, que permitem automatizar e melhorar certos aspectos do trabalho jurídico, exige dos profissionais uma competência técnica e ética para garantir que o uso dessas tecnologias não comprometa a qualidade do serviço nem viole as normas que regem a profissão.

O Código de Ética da ABA (American Bar Association) e a Carta do CCBE (Conselho das Ordens de Advogados da Europa) impõem que os advogados mantenham um nível adequado de competência profissional, incluindo conhecimento, habilidades e preparação suficiente para representar adequadamente seus clientes. Isso abrange, de maneira crescente, o entendimento e o uso responsável de tecnologias emergentes, como as LLMs. O comentário 8 da Regra 1.1 das Regras do Modelo da ABA, por exemplo, destaca que os advogados devem se manter atualizados sobre as mudanças na prática da lei, incluindo os benefícios e riscos associados às tecnologias relevantes. A mesma preocupação é reiterada pela Carta do CCBE, que exige que os advogados estejam cientes tanto dos benefícios quanto dos riscos associados ao uso de tecnologias no exercício da prática jurídica.

Porém, o uso de LLMs traz desafios específicos que não podem ser ignorados. Antes de usar essas ferramentas, os advogados precisam entender como elas funcionam, suas limitações e os termos de uso que regem sua implementação. Como observado na orientação prática do Conselho da Ordem dos Advogados da Califórnia, os advogados devem ter uma compreensão razoável da tecnologia e de como ela impacta a coleta e o uso de dados dos clientes. Além disso, os advogados devem estar cientes de que, muitas vezes, os chatbots e outros sistemas de IA podem armazenar dados dos usuários e, em certos casos, esses dados podem ser compartilhados com terceiros ou usados para treinar modelos de IA. Dessa forma, a confidencialidade, que é um dos pilares fundamentais da relação advogado-cliente, precisa ser rigidamente observada.

No tocante ao dever de confidencialidade, é imperativo que os advogados tomem precauções para evitar a divulgação inadvertida ou não autorizada de informações sensíveis. Quando o uso de LLMs envolve dados do cliente, este deve ser informado de maneira clara e transparente. A anonimização ou pseudonimização dos dados nos prompts inseridos no sistema pode ser uma solução eficaz, mas em muitos casos será necessário obter o consentimento expresso do cliente, o que pode ser formalizado por meio de acordos contratuais, como os acordos de prestação de serviços. Alguns fornecedores de tecnologia, por exemplo, já adotam medidas para garantir que os princípios de proteção de dados sejam respeitados, como a anonimização dos dados processados. Contudo, ainda existe uma incerteza quanto à confiabilidade desses sistemas e à extensão em que os advogados podem depender dessas medidas.

Outro aspecto crucial que os advogados devem considerar é a questão do dever de informar o cliente sobre o uso de LLMs. A Regra 1.4 das Regras do Modelo da ABA estabelece que os advogados têm a obrigação de manter uma comunicação razoável com seus clientes, o que inclui informá-los sobre os meios e tecnologias utilizados para atingir os objetivos da representação. Essa comunicação deve abranger não só as vantagens do uso das LLMs, mas também seus riscos e limitações. Contudo, o advogado não é obrigado a fornecer uma descrição detalhada das características do sistema, o que seria excessivo e difícil de entender para muitos clientes, além de não afetar diretamente seus interesses legítimos.

Apesar de não haver uma exigência explícita nas Regras da ABA ou na Carta do CCBE para obter o consentimento expresso do cliente para o uso de IA, uma precaução adicional pode ser a inclusão de cláusulas nos contratos de prestação de serviços, esclarecendo o uso das LLMs em aspectos significativos do caso. Isso pode ser especialmente relevante quando o uso de IA tenha um impacto substancial no resultado da representação, como em casos de automatização de documentos ou análise de dados complexos.

A supervisão da equipe é outro ponto essencial. Os advogados têm o dever de supervisionar tanto os colegas advogados quanto os profissionais não jurídicos que os assistem, garantindo que sua conduta esteja em conformidade com as regras de ética. Esse dever de supervisão se estende também ao uso de LLMs, já que, apesar da automação, os resultados gerados por essas ferramentas devem ser revisados por um ser humano qualificado. Para evitar erros e garantir a precisão das informações, as firmas de advocacia devem estabelecer processos rigorosos de controle e garantir que todos os colaboradores sejam treinados sobre o uso responsável dessas tecnologias.

Além disso, ao oferecer serviços baseados em LLMs, os advogados devem estar atentos às regras de publicidade. A Regra 7.1 da ABA, que trata da comunicação sobre os serviços do advogado, impede que o advogado faça declarações falsas ou enganosas. Isso significa que, ao anunciar serviços jurídicos que envolvam LLMs, os advogados devem garantir que as promessas feitas, como serviços mais rápidos ou mais baratos, sejam realistas e possam ser comprovadas. Não se pode, por exemplo, usar expressões como "advocacia automatizada" ou "criação de contratos por IA" sem garantir que esses serviços ofereçam, de fato, as vantagens que alegam.

Portanto, ao integrar LLMs em sua prática, os advogados devem agir com cautela, mantendo-se informados sobre as tecnologias utilizadas e garantindo que todos os aspectos éticos e legais sejam atendidos. A responsabilidade de informar, proteger e supervisionar permanece integralmente sob a sua jurisdição, sendo essencial que qualquer risco ou erro potencial seja mitigado por uma governança clara e por políticas de uso adequado dessas ferramentas tecnológicas.

Como os Regulamentos Chineses sobre Inteligência Artificial Gerativa Equilibram Inovação e Riscos na Produção de Conteúdo?

Nos regulamentos que norteiam a inteligência artificial gerativa, como os estabelecidos pela China, é possível observar uma distinção fundamental entre a tecnologia em si e os serviços derivados dela. Essa separação tem como objetivo reconhecer que certas áreas do desenvolvimento e aplicação da IA gerativa exigem uma supervisão mais rigorosa, enquanto outras podem se beneficiar de uma abordagem mais permissiva que favoreça a inovação. Na prática, isso significa que a regulamentação tende a focar em áreas onde o interesse público, a segurança e a proteção são mais vulneráveis. Essa diferenciação, portanto, visa promover o desenvolvimento de tecnologias, ao mesmo tempo em que mitiga os riscos envolvidos na aplicação desses serviços.

O regulamento distingue entre as ‘tecnologias centrais’ da IA gerativa, que são abordadas no Capítulo II dos regulamentos, e os serviços gerados a partir dessas tecnologias. O Capítulo II enfatiza a promoção da inovação e a aplicação da IA em diversos setores, refletindo o pensamento dos legisladores de que os regulamentos não devem interferir excessivamente no desenvolvimento das tecnologias centrais. No entanto, ao regular os provedores de serviços, os regulamentos se concentram em garantir que esses fornecedores cumpram as normas vigentes, como as leis de segurança cibernética, de proteção de dados e de propriedade intelectual. Eles também devem garantir que os modelos de dados e fontes utilizados na IA sejam legalmente obtidos e que sejam empregadas medidas para melhorar a qualidade dos dados de treinamento, assegurando sua veracidade, precisão, objetividade e diversidade.

Por outro lado, no Capítulo III, intitulado ‘Normas de Serviço’, os regulamentos detalham uma série de obrigações para os provedores de serviços, incluindo a necessidade de proteger as informações pessoais dos usuários, garantir a entrega de serviços seguros e estáveis, e o dever de relatar conteúdos ilegais. A intenção de diferenciar tecnologia e serviços foi uma tentativa de incentivar o desenvolvimento tecnológico enquanto se mitigam os riscos relacionados às suas aplicações. Contudo, essa distinção tem sido criticada, especialmente pela amplitude da definição de ‘provedores de serviços’, que muitos acreditam ser excessivamente vaga e sem a granularidade necessária para uma supervisão adequada das diversas figuras envolvidas no desenvolvimento e provimento de IA gerativa.

Uma das questões centrais desses regulamentos diz respeito à segurança do conteúdo gerado pela IA. A principal preocupação dos reguladores é com a geração de conteúdos que possam ser imprevisíveis ou mesmo fraudulentos. As capacidades de geração de conteúdo da IA podem tornar difícil para seres humanos, ou até mesmo para a própria IA, identificar conteúdos falsos ou enganosos. Isso se agrava ainda mais pelo fato de que a IA tem a capacidade de criar textos, imagens, áudios e vídeos de forma rápida e em grande escala, o que pode tornar o controle e a verificação da veracidade desses conteúdos um desafio ainda maior. Na China, onde existe um controle estatal considerável sobre o ambiente informativo, os reguladores estão particularmente atentos às implicações dos riscos relacionados ao conteúdo gerado, especialmente no que tange a desinformação e manipulação de massas.

No contexto desses regulamentos, a IA gerativa, ao ser capaz de criar uma ampla variedade de conteúdos multimodais, incluindo textos, imagens, áudio e vídeos, representa um grande risco. Em resposta a esses riscos, a China introduziu regulamentações em 2022 para o controle das ‘informações de síntese profunda’ na internet, visando limitar os danos associados ao uso de tecnologias de aprendizado profundo e realidade aumentada. Apesar disso, surgiram discussões sobre se as regulamentações existentes são suficientes para lidar com os riscos ampliados pela IA gerativa. Alguns especialistas defendem que a IA gerativa intensificou esses riscos de forma significativa, justificando a introdução mais recente das Medidas, apenas meses depois das regulamentações anteriores.

A partir da definição de “serviços” no Artigo 2 das Medidas, observa-se que as regulamentações se aplicam a todos os serviços que ofereçam ao público conteúdos gerados por IA dentro do território da China, como textos, imagens, áudios e vídeos. A versão final do Artigo 2 restringiu o escopo da regulamentação, focando em serviços de geração de conteúdo para consumo público, ao passo que atividades de pesquisa e desenvolvimento ficaram fora do escopo. A modificação do escopo reflete uma tentativa de balancear a necessidade de regulamentação com a necessidade de fomentar um ambiente mais livre para o desenvolvimento da tecnologia.

É importante também destacar que, dentro do contexto dos provedores de serviços, a responsabilidade sobre o conteúdo gerado não é nova na China. Desde 2006, o país tem tentado resolver a questão da responsabilidade das plataformas por danos causados por conteúdos gerados ou compartilhados por seus usuários, com uma estrutura que remonta às disposições ‘de notificação e retirada’ encontradas no Digital Millennium Copyright Act (DMCA) dos Estados Unidos. No entanto, enquanto a responsabilidade das plataformas tem sido uma questão contínua, a chegada da IA gerativa trouxe novos desafios que exigem uma revisão das normas existentes.

Os regulamentos sobre IA gerativa, portanto, tentam encontrar um equilíbrio delicado entre permitir a inovação tecnológica e garantir a segurança e a integridade do conteúdo gerado. O regulador tem que lidar com a velocidade do desenvolvimento dessas tecnologias, a complexidade dos serviços oferecidos e os riscos inerentes ao seu uso, tudo isso no contexto de um sistema legal e político em que o controle sobre a informação é um tema central. A eficácia dessas regulamentações dependerá da sua capacidade de adaptar-se rapidamente às mudanças tecnológicas, ao mesmo tempo em que proporciona uma proteção eficaz contra os riscos que a IA pode representar para a sociedade.