Les débats juridiques entourant l’essor de l’intelligence artificielle générative s’inscrivent dans une continuité historique de la confrontation entre innovation technologique et droit d’auteur. Si les technologies émergentes ont souvent été perçues comme des menaces potentielles pour les titulaires de droits, la jurisprudence américaine, en particulier celle de la Cour suprême, a tendu à faire preuve d’une certaine retenue. Cette prudence s’est généralement traduite par une volonté de ne pas entraver l’innovation sans directive explicite du législateur.

Le cas emblématique de Betamax, dans les années 1980, en constitue un exemple révélateur. Malgré les craintes des studios de télévision, la Cour suprême avait conclu, à une courte majorité, que l’enregistreur vidéo domestique ne constituait pas une violation du droit d’auteur, en raison de ses usages substantiels non-contrefaisants. Ce raisonnement reposait sur une vision large de l’utilité publique de la technologie, combinée à une politique judiciaire de déférence envers le Congrès en matière d’encadrement de l’innovation. L’histoire du droit d’auteur moderne est jalonnée de décisions similaires, où la transformation et le bénéfice public ont servi de justifications au rejet des allégations d’infraction.

La logique transformatrice s’est retrouvée dans les décisions subséquentes. En 2007, la Cour suprême a laissé intacte une décision selon laquelle l’affichage par Google d’images miniatures dans son moteur de recherche constituait un usage équitable. Plus tard, dans l’affaire Google Books, l’intégration massive de textes protégés au sein d’une base de données de recherche a été jugée compatible avec le fair use. Le caractère hautement transformateur de l’usage, nécessaire pour en extraire des informations non textuelles, combiné à l’avantage public manifeste, a prévalu.

Cependant, la ligne de tolérance atteint ses limites lorsque la technologie semble implicitement encourager la contrefaçon. L’affaire Grokster en fournit l’illustration : une plateforme de partage de fichiers reposant sur une architecture décentralisée s’est retrouvée condamnée à l’unanimité par la Cour suprême, non en raison de la technologie elle-même, mais à cause de la preuve accablante que ses créateurs incitaient sciemment les utilisateurs à enfreindre les droits d’auteur. Ce précédent souligne la distinction entre un outil potentiellement neutre dans ses usages et une intention manifeste de faciliter la violation du droit.

C’est dans cette zone grise que les litiges actuels liés à l’IA générative prennent racine. Plusieurs affaires récentes, telles que New York Times v. Microsoft, Alter v. OpenAI, Doe v. GitHub ou encore Leovy v. Google, allèguent que les pratiques de formation des modèles – notamment la copie et l’utilisation d’œuvres protégées – ainsi que les similitudes dans les contenus générés, constituent des infractions. Les demandeurs avancent que des œuvres entières sont reproduites, parfois mot pour mot, sans autorisation, dans les résultats produits par ces systèmes.

En réponse, les défendeurs invoquent les principes du fair use. Ils soutiennent que la formation des modèles, bien que reposant sur des corpus massifs d’œuvres existantes, aboutit à des usages profondément transformatifs, dépourvus d’intention commerciale directe, et qu’un tel entraînement serait analogue à une forme d’analyse statistique ou de méta-savoir, plutôt qu’à une appropriation d’œuvres spécifiques.

Face à ces arguments, la doctrine se divise. Certains juristes estiment que les facteurs classiques du fair use – notamment le but de l’usage et son impact sur le marché – sont si défavorables dans le contexte de l’IA générative que la doctrine ne saurait s’appliquer. D'autres plaident pour une analyse au cas par cas, tout en reconnaissant que certaines utilisations pourraient être compatibles avec un usage équitable. Une position plus radicale encore propose de rejeter dès l’entrée toute revendication de violation, au motif que les données utilisées pour l’entraînement ne relèvent pas du champ de la protection.

Une proposition doctrinale alternative suggère de repenser le paradigme même du droit d’auteur dans ce contexte. Selon cette approche, l’analyse devrait porter non pas sur le matériel utilisé pour entraîner les modèles, mais sur les requêtes — les prompts — formulées par les utilisateurs et sur les réponses spécifiques générées. Ce modèle “prompt-centric” replacerait la responsabilité sur l’acte d’usage individuel, plutôt que sur l’acte de construction algorithmique, avec des conséquences juridiques potentiellement profondes.

Ce qui se joue ici, ce n’est pas uniquement un débat sur la légalité d’un outil, mais une reconfiguration du rapport entre création, reproduction et transformation dans un monde où l’automatisation redéfinit la notion même d’auteur. La manière dont les tribunaux interpréteront ces éléments pourrait définir les contours du droit d’auteur pour les décennies à venir.

Il est essentiel pour le lecteur de comprendre que les enjeux actuels dépassent largement la question technique de savoir si un modèle d’IA a copié une œuvre. Il s’agit d’un affrontement entre deux logiques : d’un côté, une tradition juridique fondée sur la protection d’expressions humaines singulières ; de l’autre, une dynamique technologique fondée sur l’agrégation, la synthèse et la transformation algorithmique de masses de données culturelles. La tension entre ces deux pôles n’est pas temporaire, mais structurelle.

L'impact de l'Intelligence Artificielle sur le Droit à l'Image et la Publicité : La Réalité des Deepfakes

Le droit à la publicité, bien qu'ayant été défini pour la première fois dans les années 1950, repose sur une vision de la propriété personnelle, particulièrement à travers les prismes de la vie privée et de la concurrence déloyale. Ce droit, bien que souvent ancré dans des considérations économiques liées à la protection de l'image des artistes et des célébrités, est désormais confronté à des défis inédits à mesure que les technologies avancent. L'une de ces technologies, les deepfakes, bouleverse les anciennes conceptions du droit à l'image, créant un terrain propice aux abus.

Le droit à la publicité peut être vu comme une incitation à promouvoir des performances publiques, non seulement pour récompenser les artistes, mais aussi pour maximiser les bénéfices sociaux liés à leur art. Un exemple classique de cette logique est l'affaire Zacchini v. Scripps-Howard Broadcasting Co. (1977), où la Cour suprême a soutenu que la protection du droit à la publicité d'un artiste, dont la performance consistait à se faire catapulter depuis un canon, visait non seulement à protéger ses intérêts économiques mais aussi à encourager l'investissement dans des spectacles intéressants pour le public. Cette vision utilitaire du droit à la publicité, bien qu'historique, est aujourd'hui en pleine mutation face aux nouvelles réalités technologiques, comme les deepfakes.

Les deepfakes, ces médias numériques générés par intelligence artificielle, permettent de reproduire une personne, qu'il s'agisse de son image, de sa voix ou même de son comportement, de manière hyperréaliste. Cela soulève une question cruciale : à qui appartient l'image d'une personne lorsqu'elle peut être recréée de manière si convaincante par une machine ? En 2024, OpenAI a lancé un assistant vocal qui permettait de générer des voix numériques étonnamment réalistes, l'une d'elles étant une imitation frappante de la voix de l'actrice Scarlett Johansson. Bien que l'entreprise ait affirmé que cette ressemblance était fortuite, cet incident a mis en lumière les risques inhérents à la création de répliques numériques non autorisées. L'exemple des deepfakes vocaux est emblématique de l'impact que l'IA peut avoir sur la notion même de droit à la publicité.

Le problème ne se limite cependant pas à des questions de simples imitations. En 2022, un deepfake représentant le président ukrainien Volodymyr Zelenskyy circulait, prétendant qu'il se rendait à la Russie et ordonnait à ses troupes de déposer les armes. Cet exemple a révélé non seulement l'efficacité technique de ces reproductions, mais aussi leur pouvoir destructeur sur l'image publique des personnes, en particulier dans un contexte géopolitique sensible. L'ampleur des deepfakes est d'autant plus préoccupante que la majorité d'entre eux sont utilisés à des fins pornographiques, souvent pour exploiter sexuellement des victimes, qu'elles soient célèbres ou non.

Les législations existantes sur le droit à la publicité peuvent offrir une protection partielle contre l'usage commercial non autorisé de l'image d'une personne, mais les nouvelles formes de préjudices causées par les deepfakes dépassent souvent le cadre traditionnel de l'exploitation économique. Les créateurs de deepfakes exploitent des technologies de plus en plus accessibles, permettant à des individus de toute condition d'être exposés à ces abus. Il est donc urgent que le droit à la publicité évolue pour prendre en compte ces dangers modernes, en particulier avec des législations récentes comme le NO FAKES Act, qui cherche à protéger les citoyens contre ces répliques numériques non autorisées.

Cette législation, bien qu'un pas dans la bonne direction, met en lumière une difficulté majeure : l'écart croissant entre les avancées technologiques et les mécanismes légaux existants. Le droit à la publicité, dans sa forme actuelle, est conçu pour protéger la propriété personnelle liée à l'image et à la réputation d'un individu, mais il semble insuffisant face aux nouvelles réalités créées par l'IA. De plus, cette législation ne peut pas à elle seule résoudre les problèmes éthiques plus larges liés à l'utilisation abusive de ces technologies.

Il devient donc primordial de comprendre que les défis posés par l'IA et les deepfakes ne se limitent pas aux simples violations de droit à la publicité. Ils soulèvent des questions morales et sociales bien plus profondes : à quel point notre société est-elle prête à accepter une altération de la réalité, et jusqu'où faut-il aller pour protéger l'intégrité des individus dans un monde où la frontière entre réel et artificiel devient de plus en plus floue ?

Comment l’intelligence artificielle bouleverse-t-elle le critère d’évidence en matière de brevets ?

Le critère d’évidence en matière de brevets repose sur la nécessité que les éléments d’art antérieur se combinent sur la base d’un « enseignement, d’une suggestion ou d’une motivation » (TSM) pour rendre une invention évidente. Ce test, largement utilisé par la Cour d’appel fédérale américaine, a été critiqué en 2007 par la Cour suprême des États-Unis dans l’affaire KSR. La Cour suprême n’a pas rejeté le test TSM, mais a souligné qu’il devait être appliqué avec souplesse, en tenant compte des inférences et des démarches créatives d’une personne ayant des compétences ordinaires dans le domaine concerné. Elle a averti contre la rigidification excessive de ce test, qui risquait d’occulter l’essence même de l’analyse d’évidence.

Malgré ces recommandations, la Cour d’appel fédérale a continué à appliquer le test TSM de manière rigide, sans véritable alignement avec la souplesse prônée par la Cour suprême. Cette discordance laisse en suspens l’évolution du critère d’évidence, d’autant que la composition même de la Cour suprême a changé depuis 2007, rendant incertain un éventuel retour sur ce sujet crucial.

L’arrivée de l’intelligence artificielle (IA) dans ce contexte introduit une rupture majeure. L’IA possède un accès inégalé à une vaste quantité d’informations, bien supérieure à celle d’un expert humain ordinaire, ainsi qu’une capacité d’interprétation et de combinaison des données nettement plus avancée. Dans le cadre de l’évidence, l’IA peut rechercher et identifier des exemples d’art antérieur, qui comprennent non seulement des brevets publiés et des articles scientifiques, mais aussi des brochures commerciales, des documents obscurs comme des affiches de conférences, des thèses doctorales, voire des discussions sur internet. L’IA dépasse largement les capacités des outils de recherche traditionnels, qui se limitaient souvent à des correspondances textuelles exactes, en exploitant ses réseaux neuronaux pour comprendre et retrouver des concepts exprimés de multiples façons.

De plus, l’IA est capable de synthétiser des informations issues de domaines variés, identifiant les motivations à combiner différentes sources d’art antérieur. Cette faculté réduit la nécessité d’expertises humaines multiples et permet d’établir avec une grande précision la probabilité que la combinaison d’éléments soit évidente. Il est même envisageable que l’IA soit formée à reconnaître les critères que les tribunaux ont historiquement acceptés pour juger de l’évidence, anticipant ainsi leurs décisions.

Cela soulève la question fondamentale de savoir si l’IA pourrait être assimilée à une « personne ayant une compétence ordinaire dans le domaine » (PHOSITA). Ce concept vise à représenter une personne dotée d’une créativité ordinaire, capable d’utiliser ses connaissances pour juger de l’inventivité d’une innovation. Bien que certains soutiennent que l’IA, n’étant pas une personne humaine, ne puisse remplir ce rôle, une approche plus pragmatique consiste à envisager que le PHOSITA soit en réalité une personne utilisant l’IA comme un outil. Après tout, les inventeurs ont toujours eu recours à divers instruments pour concevoir leurs innovations.

Néanmoins, cette intégration de l’IA dans l’analyse de l’évidence pose des défis juridiques et conceptuels importants. La loi sur les brevets a été pensée pour une évaluation humaine, et il reste à déterminer dans quelle mesure l’IA peut ou doit influencer cette évaluation sans dénaturer le sens du critère d’évidence. Par ailleurs, la question de la créativité propre à l’IA demeure ouverte : si l’IA peut combiner des savoirs existants pour générer des variantes, elle ne produit pas encore de créations radicalement nouvelles, ce qui maintient une frontière entre invention humaine et assistance algorithmique.

Il est essentiel de comprendre que le test d’évidence ne se limite pas à la simple existence de documents ou d’idées antérieures, mais qu’il implique une analyse subtile des liens, motivations et enseignements entre ces éléments. L’intelligence artificielle, en améliorant considérablement la capacité à déceler ces liens, modifie la dynamique même de cette analyse. Cette transformation pourrait conduire à une réduction du champ des inventions considérées comme brevetables, et par conséquent, à un débat renouvelé sur la définition même de l’inventivité dans un monde où l’IA joue un rôle de plus en plus central.

Ainsi, pour appréhender pleinement les implications de l’IA sur le critère d’évidence, il convient également de considérer les évolutions jurisprudentielles futures et les adaptations législatives possibles. Les acteurs du domaine doivent garder à l’esprit que l’intégration de l’IA nécessite une vigilance constante pour préserver l’équilibre entre la protection des inventions véritablement innovantes et la limitation des monopoles injustifiés sur des idées évidentes.

Comment la doctrine de l’utilité pourrait-elle renforcer la valeur des droits de propriété intellectuelle à l’ère de l’intelligence artificielle ?

Dans le domaine législatif, l’exigence d’utilité trouve ses racines dans la loi sur les brevets de 1793 et demeure un principe fondamental aujourd’hui, comme le souligne la Loi sur les brevets qui stipule que toute invention nouvelle et utile peut faire l’objet d’un brevet. Pourtant, cette exigence d’utilité est souvent réduite à une simple formalité sans réelle substance, une doctrine « molle » qui ne demande qu’un potentiel minimal d’utilisation. Cette faible rigueur nuit à la capacité de la loi à protéger véritablement l’innovation et à distinguer les inventions dignes de protection de celles qui sont banales ou triviales.

Une doctrine de l’utilité renforcée pourrait drastiquement réduire le nombre d’inventions brevetables, ne laissant place qu’aux découvertes véritablement innovantes et significatives, et ainsi préserver la rareté et la valeur des brevets. Par exemple, limiter la brevetabilité aux inventions qui améliorent réellement l’existant, qui apportent un bénéfice social ou qui ne génèrent pas un coût excessif pour le consommateur par rapport à leur fabrication, constituerait un premier pas vers une telle doctrine. En restreignant la protection aux inventions les plus précieuses, on peut aussi atténuer l’impact de l’intelligence artificielle, laquelle, en tant qu’outil accessible à tous, pourrait rendre obsolètes ou évidentes certaines innovations. Si la conception d’un individu « ordinaire » compétent dans son domaine inclut l’usage d’IA, alors la sophistication de ces outils peut rendre difficile la défense des brevets face à la découverte d’art antérieur par ces mêmes moyens.

Par ailleurs, il serait pertinent de réorienter l’analyse de l’art antérieur, actuellement centrée sur des détails minutieux, vers une appréciation plus humaine, fondée sur les témoignages des professionnels qui créent et utilisent les technologies actuelles. Cette approche limiterait la place excessive de l’IA dans l’examen des brevets, recentrant le débat sur l’expertise humaine.

Le régime du droit d’auteur illustre également une faiblesse similaire. Actuellement, la protection ne requiert qu’un « modicum » de créativité, un seuil tellement bas que même les créations les plus insignifiantes sont protégées. La Cour Suprême des États-Unis a ainsi souligné que presque toute étincelle de créativité suffit pour accorder une protection, ce qui a pour effet d’encombrer le système avec des œuvres de faible valeur créative. Une révision de ce seuil, sans pour autant tomber dans des jugements esthétiques, pourrait permettre de concentrer la protection sur des œuvres véritablement innovantes, augmentant ainsi leur valeur.

Le droit des secrets commerciaux, bien que plus récent et moins riche en jurisprudence, pourrait lui aussi bénéficier d’un affinement des doctrines qui régissent son application. Les secrets commerciaux ne doivent pas devenir un moyen de dissimulation illimitée mais doivent au contraire délimiter clairement les frontières concurrentielles en protégeant uniquement les informations réellement précieuses et non évidentes. Il est essentiel de ne pas considérer automatiquement comme secret commercial toute information dont la divulgation pourrait nuire à une entreprise. Par ailleurs, les termes contractuels négociés ne doivent pas être prétendus comme inventions communes par les deux parties, évitant ainsi des conflits injustifiés.

Une régulation plus stricte de ces droits renforcerait la valeur intrinsèque des protections offertes, tout en répondant aux défis posés par la capacité de l’IA à développer rapidement des solutions concurrentes. Si une invention ou un secret peut être aisément reproduit ou surpassé par une intelligence artificielle, cela pose question sur sa véritable valeur et sa légitimité à bénéficier d’une protection.

Dans l’ensemble, les quatre grands régimes de propriété intellectuelle – brevets, droit d’auteur, marques et secrets commerciaux – gagneraient à limiter leur champ d’application pour ne protéger que les créations ou inventions au cœur même de leurs objectifs, celles qui justifient véritablement une exclusivité. Cette limitation de l’offre renforcerait la rareté et donc la valeur des protections accordées, contribuant à stabiliser et préserver ces régimes face aux bouleversements technologiques actuels.

Il est crucial pour le lecteur de saisir que cette démarche ne se limite pas à un simple ajustement technique ou légal, mais touche à la nature même de la protection juridique de l’innovation et de la créativité. La montée en puissance de l’intelligence artificielle invite à repenser profondément les critères d’originalité, d’utilité et de valeur, car les mécanismes classiques sont mis à rude épreuve. Comprendre que la protection juridique ne peut être un droit automatique, mais doit s’appuyer sur une véritable valeur ajoutée, permettra de mieux appréhender les enjeux contemporains et futurs de la propriété intellectuelle.

Cette réflexion ouvre aussi la porte à une meilleure intégration des aspects humains et sociaux dans l’évaluation des innovations, au-delà de la simple analyse documentaire, en soulignant l’importance du jugement expert et du contexte d’utilisation. En définitive, il ne s’agit pas de restreindre l’innovation, mais de valoriser ce qui mérite véritablement d’être protégé, afin d’encourager un progrès durable et équitable.