A dualidade da inteligência artificial é uma das questões mais intrigantes e complexas da atualidade. Assim como um ser humano, a IA pode ser tanto uma infratora quanto uma criadora. Até o momento, os problemas relacionados à IA como criadora surgiram principalmente no âmbito da legislação de direitos autorais (autoria) e patentes (invenção). Dentro desses dois campos da propriedade intelectual, a IA como criadora aparece em meio a duas grandes questões legais: A primeira pergunta se, do ponto de vista legal, a inteligência artificial deve ser reconhecida como autora de uma criação protegida por direitos autorais ou como inventora de uma obra patenteada. A perspectiva legal sobre essa primeira questão, por ora, é clara e inequívoca. A legislação de propriedade intelectual atual não permite que a IA seja considerada autora de uma obra protegida por direitos autorais, nem inventora de uma patente.
Mesmo os modelos de IA mais avançados ainda são, no fim das contas, apenas programas de computador, e há considerável precedência histórica e legal que estabelece que apenas seres humanos podem ser autores ou inventores. O Escritório de Direitos Autorais dos EUA tem sido claro sobre esse ponto, assim como os tribunais, que afirmaram que a autoridade para uma entidade não humana processar um processo com base na Lei de Direitos Autorais deve ser explicitamente concedida por um ato do Congresso. De maneira similar, o Escritório de Patentes e Marcas dos EUA afirmou que “reconhece que [uma IA] não pode ser nomeada como inventora ou co-inventora de uma patente ou solicitação de patente”, referindo-se a uma opinião do Circuito Federal de 2023 que, de forma explícita, declarou que apenas uma pessoa natural pode ser inventora. A atual perspectiva não poderia ser mais clara.
Minha visão é que tanto o Escritório de Direitos Autorais quanto o Escritório de Patentes adotaram a abordagem correta, não apenas do ponto de vista legal, mas também prático e normativo. Não é nem socialmente desejável nem completamente coerente listar uma IA como inventora em uma patente. De fato, a questão de se realmente deveríamos atribuir uma patente a uma entidade que não pode ser dissuadida de invadir os direitos de outros inventores — como no caso de infração de patente, uso indevido de patente ou qualquer outro comportamento passível de sanção — levanta sérias preocupações. Esses mesmos argumentos aplicam-se à autoria de direitos autorais.
Embora existam defensores da ideia de que modelos de IA devem ser reconhecidos como autores ou inventores, a maior parte dos estudiosos jurídicos rejeita a IA como inventora. Do ponto de vista filosófico e teórico, as questões em favor do reconhecimento da autoria ou invenção pela IA são fascinantes, e podem ter mérito em um futuro distante, caso a IA com inteligência humana se torne uma realidade. Mas, por ora, sempre haverá um ser humano envolvido: os seres humanos são os responsáveis pela criação dos modelos de IA e são os que os utilizam.
A segunda grande questão legal que surge é: Devem as obras criadas total ou parcialmente por IA receber um direito autoral ou patente? E a quem esses direitos devem ser atribuídos? A questão é, especificamente, se a patente ou o direito autoral deve ser concedido à pessoa ou às pessoas que utilizaram a IA para projetar a obra ou ao criador do modelo de IA. Vamos analisar algumas possíveis respostas a essa questão, primeiramente no contexto da autoria de direitos autorais e, em seguida, no contexto da invenção patenteada.
Em 2023, o Escritório de Direitos Autorais dos EUA emitiu uma declaração esclarecendo suas práticas em relação ao registro de obras que contêm material gerado por inteligência artificial. Segundo essa declaração, a obra deve ser criada por um ser humano para ser protegida por direitos autorais. No entanto, obras criadas com o auxílio de IA não são automaticamente inelegíveis para proteção por direitos autorais. A elegibilidade dependerá das circunstâncias, especialmente de como a ferramenta de IA foi utilizada para criar a obra final. Em outras palavras, a análise deve ser feita caso a caso.
A escolha do termo “ferramenta de IA” na declaração do Escritório de Direitos Autorais é particularmente interessante. Em vez de considerar a IA como uma força mítica ou uma entidade autônoma, a declaração a enquadra como uma ferramenta, tal como lápis, pincéis ou até mesmo programas de software. Nesse contexto, a IA não é mais do que um instrumento que os seres humanos utilizam para alcançar seus objetivos criativos.
No que diz respeito ao grau de participação humana, o Escritório de Direitos Autorais é claro ao afirmar que apenas escrever um prompt não é suficiente para garantir a proteção por direitos autorais. Se a tecnologia de IA determinar os elementos expressivos do produto final, a obra gerada não é considerada fruto da autoria humana e, portanto, não é protegida. No entanto, o Escritório também revelou que, sob certas circunstâncias, aceitará o registro de obras que incluem conteúdo gerado por IA, desde que o autor humano documente cuidadosamente sua contribuição e exclua qualquer material gerado automaticamente pela IA.
Este desenvolvimento permitiu o registro de algumas obras criadas parcialmente por IA, como o exemplo da obra intitulada "A Single Piece of American Cheese", que gerou atenção por sua natureza inusitada. Nesse caso, o artista humano documentou detalhadamente como selecionou e organizou os elementos da imagem original, com múltiplas edições feitas com a ajuda de IA.
Embora existam questões abertas sobre se uma obra criada apenas a partir de um prompt dado à IA pode ser passível de proteção por direitos autorais, como no caso de um prompt detalhado que fornece instruções precisas e elimina a aleatoriedade do processo criativo da IA, a dúvida persiste. Se, no futuro, os modelos de IA se tornarem mais precisos a ponto de seguir quase exatamente o que foi solicitado, isso poderia alterar a percepção do que constitui autoria humana.
Porém, é essencial entender que, ao discutir os direitos autorais ou patentes para criações de IA, a chave está na natureza da interação entre o ser humano e a ferramenta tecnológica. A IA, por mais avançada que seja, permanece uma ferramenta sob a direção do ser humano, que é quem exerce controle sobre o processo criativo e a aplicação prática da tecnologia. No fundo, é essa interação que deve determinar a autoria ou a inventividade, sempre com a consciência de que, mesmo no futuro, as questões éticas, práticas e legais relacionadas à IA estarão em constante evolução.
Como a Inteligência Artificial Pode Impactar o Teste de Evidência para Obviedade em Patentes?
O teste de obviedade para patentes envolve a análise da combinação de elementos de arte anterior para determinar se uma invenção pode ser considerada óbvia. Para que isso aconteça, é necessário que a arte anterior contenha um "ensino, sugestão ou motivação" para combinar elementos, o que é conhecido como o teste TSM (Teaching, Suggestion, or Motivation). Esse teste, inicialmente aceito, foi alvo de críticas na decisão da Suprema Corte dos Estados Unidos em 2007, no caso KSR. Naquela decisão, a Corte não rejeitou completamente o TSM, mas alertou para os riscos de sua aplicação rígida, indicando que o teste poderia ser útil, mas não deveria se transformar em uma fórmula inflexível. Em vez de uma reformulação completa, a Suprema Corte apontou que o TSM deveria ser interpretado de forma mais flexível, levando em consideração os passos criativos e as inferências de uma pessoa com habilidades comuns na área técnica.
Apesar dessa advertência, o Tribunal Federal dos EUA continuou a aplicar o teste TSM de maneira rígida, desconsiderando a orientação da Suprema Corte. A história do conceito de obviedade, assim, se desenha como uma série de episódios inacabados, com a Corte Suprema ainda sem retornar ao tema de forma definitiva. Nesse contexto, a introdução da Inteligência Artificial (IA) no campo da análise de patentes pode modificar profundamente a maneira como os tribunais avaliam a obviedade.
A IA moderna, com sua capacidade de processar e interpretar informações de forma mais sofisticada que qualquer ser humano, tem o potencial de transformar a análise da arte anterior. Modelos de IA têm acesso a um volume muito maior de informações do que um ser humano com habilidades comuns na área (PHOSITA). Isso inclui patentes, artigos acadêmicos, manuais, brochuras e até documentos mais obscuros, como propostas de grupos de trabalho ou dissertações acadêmicas. A IA é capaz de vasculhar esse material de maneira mais eficiente do que as ferramentas tradicionais de busca, que muitas vezes dependem da capacidade humana de adivinhar os termos exatos usados nos documentos.
Uma das vantagens mais notáveis da IA é sua capacidade de buscar e entender documentos não apenas por palavras-chave, mas por meio de sua rede neural, que foi treinada com um enorme volume de dados. Isso permite que ela encontre sugestões ou combinações de ideias expressas de diferentes maneiras, mesmo que os documentos consultados não usem exatamente as palavras específicas que um ser humano procuraria. Essa habilidade de interpretar e combinar diferentes áreas da arte anterior é particularmente relevante no teste de obviedade, que exige a identificação de uma motivação para a combinação de elementos de diferentes campos.
Por exemplo, ao tentar desafiar a obviedade de uma patente, um concorrente pode precisar de conhecimentos especializados em múltiplas áreas técnicas para entender as conexões possíveis entre os diferentes elementos de arte anterior. A IA, por outro lado, pode aprender o que já existe nessas áreas e encontrar exemplos de motivação para combinações a partir de uma vasta gama de materiais escritos. Além disso, a IA pode ser treinada para prever quais tipos de exemplos e lógicas foram aceitos por tribunais no passado, o que torna a análise mais precisa e alinhada com as decisões anteriores.
Outro ponto importante é o papel da IA no conceito de uma "pessoa com habilidades comuns na área". Tradicionalmente, esse conceito busca avaliar se a invenção é óbvia para um especialista no campo. Se a IA for considerada uma ferramenta que pode ampliar as capacidades desse especialista, a questão se torna mais complexa: será que a IA pode ser considerada parte da "habilidade comum" ao avaliar a obviedade de uma invenção? Embora a IA não seja uma "pessoa" conforme o entendimento legal tradicional, seu uso por inventores pode ser considerado um reflexo da evolução das ferramentas de inovação. Alguns estudiosos argumentam que a IA, ao ser usada como uma ferramenta criativa, poderia ser incorporada ao conceito de PHOSITA, mudando a dinâmica da análise de patentes.
De fato, a IA não é capaz de realizar inovações revolucionárias de forma autônoma, mas sua capacidade de combinar e recombinar conhecimento existente pode ser vista como uma forma de inovação, sem exigir um salto inventivo considerável. Isso abre uma nova perspectiva sobre como as patentes são avaliadas: se a IA pode criar novas combinações de ideias a partir do conhecimento existente, a invenção reivindicada pode não ser vista como uma contribuição significativa para o campo, mas apenas uma reorganização do que já está disponível.
Além disso, é necessário que os tribunais considerem o uso da IA como parte da equação de inovação e obviedade. A IA pode transformar o processo de pesquisa de arte anterior, trazendo à tona informações e combinações que antes seriam difíceis de identificar. Contudo, também é importante que o uso da IA não torne o processo excessivamente técnico e dependente de ferramentas que possam obscurecer o julgamento humano sobre o caráter inventivo da invenção.
Em resumo, o impacto da IA na avaliação da obviedade nas patentes pode ser profundo, mas também exige uma reflexão cuidadosa sobre como equilibrar a inovação tecnológica com os princípios fundamentais da lei de patentes. À medida que a IA se torna uma ferramenta cada vez mais poderosa, o desafio será encontrar formas de integrá-la ao processo legal de maneira que preserve a finalidade do sistema de patentes – garantir que invenções realmente inovadoras sejam protegidas, sem permitir que combinações óbvias sejam patentemente viáveis.
Como a Inteligência Artificial Está Transformando a Inovação e os Desafios Jurídicos
Nos últimos anos, a inteligência artificial (IA) tem se consolidado como uma ferramenta inovadora que permeia diversas áreas do conhecimento humano. Essa tecnologia, ao invés de simplesmente replicar tarefas automatizadas, agora se propõe a criar e inovar de maneiras surpreendentes, desafiando os limites da ciência, da criatividade humana e até mesmo das estruturas legais que regem as invenções e direitos autorais.
O impacto da IA sobre a biotecnologia, por exemplo, é notável. A IA agora é capaz de projetar novas proteínas, uma tarefa que antes era extremamente desafiadora e que exigia anos de pesquisa. Um exemplo disso é o trabalho realizado pela equipe de bioquímicos da Universidade de Washington, que, utilizando algoritmos de IA, conseguiu projetar proteínas funcionais sob medida. Essa inovação oferece enormes perspectivas para a engenharia de proteínas, trazendo novas oportunidades em áreas como a medicina e a bioquímica. A IA, portanto, não só acelera a descoberta científica, mas também permite que tais descobertas sejam sintetizadas de forma rápida e eficiente, abrindo caminho para novos tratamentos e terapias.
Além disso, a IA tem o potencial de se tornar uma tecnologia de uso geral, como argumenta Andrew McAfee, pesquisador do MIT. Ele destaca que a IA generativa pode acelerar a inovação mais rapidamente do que tecnologias anteriores, devido à sua acessibilidade e facilidade de difusão. Esse fenômeno é capaz de impactar profundamente setores que tradicionalmente têm um ritmo mais lento de inovação, transformando de maneira acelerada áreas como a educação, o direito e os serviços financeiros. O uso da IA como uma plataforma que facilita e reduz o custo da geração de novas ideias oferece uma perspectiva radical para a inovação, permitindo que humanos e máquinas colaborem de maneira mais eficaz.
No entanto, ao mesmo tempo em que a IA pode ser vista como um motor de inovação, ela também desperta preocupações sobre o futuro da criatividade humana. Muitos estudiosos, como Brian Uzzi, questionam se a IA pode, de fato, “matar” a criatividade humana, uma vez que ela pode facilmente gerar conteúdos e ideias imitativas. A produção de arte, música e literatura, por exemplo, poderia ser transformada em um processo mecânico, onde a criatividade original é diluída por criações feitas por redes neurais que imitam padrões existentes. Se esse cenário se concretizar, é possível que a motivação para a criação de obras originais diminua, uma vez que os artistas perceberiam que suas criações podem ser facilmente replicadas por máquinas.
Por outro lado, há quem defenda que a IA pode, na verdade, estimular a criatividade humana, ao reduzir o tempo e os recursos necessários para a realização de novas ideias. Sheena Iyengar, por exemplo, acredita que a IA não irá criar as melhores ideias para nós, mas ajudará a filtrar e identificar opções relevantes, o que pode abrir novos caminhos para a inovação. Essa abordagem propõe que, se usada de forma adequada, a IA pode se tornar uma aliada poderosa, permitindo aos seres humanos focar nas facetas mais criativas do processo inovativo, enquanto a máquina se encarrega das tarefas mais repetitivas e menos criativas.
Entretanto, é crucial entender que, embora a IA ofereça inúmeras vantagens, ela também apresenta desafios significativos no campo jurídico. A proteção dos direitos autorais, por exemplo, é uma das questões mais complexas geradas pelo uso da IA. Em muitos casos, os conteúdos criados por IA — como textos, músicas e imagens — não são adequadamente protegidos por direitos autorais, pois, de acordo com a legislação atual, a autoria deve ser atribuída a um ser humano. Além disso, o uso de dados públicos para treinar modelos de IA levanta questões sobre o respeito à privacidade e a violação de direitos de propriedade intelectual. Casos como o do "The New York Times", onde a OpenAI foi acusada de gerar conteúdo protegido por direitos autorais sem a permissão dos autores, exemplificam bem a complexidade dessas disputas.
Além disso, há o risco de a IA ser utilizada para fins fraudulentos ou de violação de direitos. O caso de "Grokster", onde o tribunal decidiu que os desenvolvedores de software eram responsáveis por promover a violação de direitos autorais, mostra como as tecnologias podem ser manipuladas de maneiras que prejudicam os detentores de direitos. A IA, com sua capacidade de disseminação e reprodução em grande escala de dados, pode intensificar esse tipo de problema, criando novos desafios legais que ainda não estão totalmente regulamentados.
Em resposta a esses desafios, muitas empresas estão buscando um equilíbrio entre a inovação e a proteção dos direitos autorais. A criação de um novo marco regulatório que leve em consideração as especificidades da IA e as questões de propriedade intelectual será essencial para garantir que os benefícios dessa tecnologia sejam aproveitados de forma ética e legal. A evolução da IA não deve ser vista apenas como uma ameaça à criatividade humana, mas também como uma oportunidade de redefinir e fortalecer os direitos autorais, adaptando-os à realidade digital do século XXI.
A Revolução da Inteligência Artificial: Dados, Computação e Desafios de Transparência
A explosão de dados coletados e digitalizados nas últimas décadas impulsionou a rápida expansão dos sistemas de inteligência artificial (IA) e suas aplicações. O enorme progresso observado na IA generativa também foi fomentado pela disponibilidade de uma capacidade computacional sem precedentes. Dados e poder de processamento são, portanto, os principais motores da atual revolução da IA. Como Richard Sutton explicou em seu comentário de 2019, The Bitter Lesson, todas as grandes descobertas na IA (inclusive as que levaram à criação dos sistemas de IA generativa) podem ser atribuídas a saltos no poder de processamento e na quantidade de dados disponíveis, e não à genialidade da mente científica humana. Isso reflete uma mudança de paradigma, em que o avanço da tecnologia é movido mais por um aumento exponencial da capacidade computacional do que por inovações puramente intelectuais.
Para ilustrar essa transformação, considere o número crescente de cálculos matemáticos necessários para treinar modelos de IA de ponta. O primeiro modelo de rede neural artificial, Perceptron Mark I, utilizou 700.000 operações para ser treinado. Em comparação, o modelo GPT-4, desenvolvido pela OpenAI, utilizou um impressionante número de 21 septilhões de operações – um número que equivale a 21 seguido de 21 zeros. A diferença na quantidade de poder computacional entre esses dois exemplos é abismal. Claro, não se pode afirmar que o campo tenha permanecido estagnado nas últimas duas décadas; inovações e avanços no design de algoritmos também tiveram grande impacto. Por exemplo, os modelos de aprendizado profundo eram praticamente inviáveis até 2006, quando foi publicada uma metodologia para treinar redes neurais de maneira eficiente. Da mesma forma, os modelos generativos adversariais – um subtipo de IA generativa – só surgiram em 2014, e a arquitetura de transformadores, que se tornou uma base para muitos modelos modernos de processamento de linguagem, foi introduzida em 2017.
Esses avanços tecnológicos têm provocado uma adoção generalizada da IA, com um impacto imensurável na vida pública e privada – para o bem e para o mal. Ferramentas poderosas de IA estão ao alcance de todos e ajudam na criação de obras digitais impressionantes. A IA tem sido cada vez mais aplicada em áreas como saúde e medicina, proporcionando apoio administrativo clínico, identificando moléculas para tratar doenças e criando "gêmeos digitais" de pacientes, que oferecem modelos abrangentes sobre possíveis resultados de saúde sob diferentes cenários. Em diversos setores, da eletrônica à biotecnologia, os sistemas de IA têm impulsionado a inovação de forma extraordinária.
Por outro lado, os sistemas de IA também podem ser uma ferramenta poderosa para nivelar o campo de jogo para imigrantes e para aqueles cujas línguas nativas diferem do idioma do país em que vivem. Uma simples entrada de dados em um sistema de IA generativa pode resultar na criação de um currículo impecável, com uma linguagem expressiva e gramaticalmente perfeita. Essas tecnologias também são úteis no ambiente de trabalho, onde a IA pode redigir memorandos, pedidos e autoavaliações, tornando a comunicação mais acessível a quem não domina o idioma local. Essas ferramentas oferecem um suporte vital para aqueles que não têm acesso a conselheiros caros de empregos ou entrada em escolas.
No entanto, existe o risco de a IA reforçar as desigualdades existentes. Por exemplo, em algumas jurisdições, tribunais têm usado aprendizado de máquina para auxiliar nas decisões de sentenciamento, com a esperança de que uma abordagem algorítmica padronize as sentenças e elimine a tendência humana ao viés. Contudo, surgiram preocupações de que, em vez de eliminar o viés, a IA poderia amplificá-lo. Além disso, a IA não pode ajudar a nivelar o campo de jogo se aqueles que mais precisam não tiverem acesso a essas tecnologias ou à educação necessária para utilizá-las adequadamente.
A educação também tem sido profundamente afetada pela IA. Em universidades, os educadores estão reformulando suas abordagens pedagógicas para melhorar o ensino com o auxílio da IA, ao mesmo tempo em que lidam com novas formas de trapaça. Independentemente de como se vê o impacto da IA – seja de forma otimista ou pessimista – é claro que ela está mudando a maneira como pensamos e vivemos. A IA já está reformulando sistemas financeiros, forçando uma nova forma de pensar sobre governança, e até mesmo o Escritório de Patentes dos EUA observou que a IA tem o potencial de mudar fundamentalmente a maneira como percebemos o mundo ao nosso redor e como vivemos no dia a dia.
Ainda assim, apesar de sua proliferação, permanecem tensões significativas quanto à sabedoria de avançar a todo vapor para um mundo dominado por IA. Embora os sistemas de IA modernos sejam notavelmente poderosos, pode ser difícil ou até impossível explicar por que um sistema de IA produziu determinado resultado, o que gera um mistério potencialmente assustador. Isso decorre do modo como esses modelos funcionam: eles se atualizam constantemente à medida que são treinados com mais dados, de forma semelhante à aprendizagem de uma criança que começa a distinguir cores, mas sem ser capaz de apontar a observação específica que a levou a identificar uma cor como laranja, em vez de vermelha. Dado que esses modelos são treinados em grandes volumes de dados, pode ser impossível identificar qualquer conjunto específico de dados que tenha causado um determinado resultado. Esse problema é conhecido como o "problema da caixa preta", já que o usuário – e até mesmo especialistas em IA – não conseguem ver o que ocorre dentro do sistema. O problema da caixa preta continua a ser um grande desafio, e até os engenheiros de software e matemáticos que escreveram o programa inicial podem ser incapazes de explicar ou recriar as decisões feitas pela IA.
Há muitas razões para nos preocuparmos com um sistema capaz de gerar resultados cujas origens e evoluções não conseguimos entender. Por exemplo, um sistema de IA pode produzir resultados tendenciosos, imprecisos ou prejudiciais, sem que possamos rastrear como ou por que ele chegou a esses resultados. Além disso, à medida que delegamos mais decisões a sistemas de IA, a falta de transparência entra em conflito com um dos pilares da democracia – a responsabilidade. A responsabilidade confere a obrigação de explicar e justificar as decisões e condutas, o que garante que, caso algo dê errado, existam mecanismos adequados para questionar os responsáveis e corrigir possíveis falhas.
A importância de estabelecer uma confiança bem fundamentada nos sistemas de IA não pode ser subestimada. Um exemplo alarmante é o incidente em que um pedestre, que foi inicialmente atropelado por um carro conduzido por um humano, foi depois arrastado por cerca de 20 pés por um veículo autônomo. O veículo, desenvolvido pela Cruise, uma startup da Califórnia controlada pela General Motors, teve sua licença revogada e sua frota retirada de circulação após o incidente. Grande parte da repercussão se concentrou na resposta inicial da empresa ao incidente, que enfatizou o impacto inicial causado pelo motorista humano, mas não destacou os danos causados pelo veículo autônomo. A investigação interna subsequente revelou que essa decisão errônea foi o resultado de falhas de liderança e erros de julgamento.
Como configurar e executar transformações de dados com Logstash e Elasticsearch
Como Tratar Irritações e Doenças Oculares com Remédios Naturais e Cuidados Caseiros
Como os Protocolos Estéticos da Arte Popular AI Se Comparam aos Modelos Acadêmicos Históricos de Ensino de Arte?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский