Les travaux récents sur le langage juridique des brevets suggèrent que la personne possédant des compétences ordinaires en la matière (PHOSITA) doit être un être humain. Il s'agirait d'une personne qui applique une créativité « ordinaire », non pas un « automate » comme l'intelligence artificielle (IA), qui, par des itérations sans fin, cherche une solution à la demande d’un inventeur humain. Cependant, cette interprétation omet une dimension essentielle de la réflexion du tribunal suprême. Dans l'affaire KSR, la Cour suprême a rejeté ce qu'elle a qualifié d'« analyse restreinte » du Circuit fédéral, selon laquelle la PHOSITA ne devait examiner que l'art antérieur visant à résoudre précisément le même problème. En effet, la Cour a conclu qu'une personne dotée de compétences ordinaires penserait plus largement, comme le soulignait la Cour, « le bon sens enseigne que les objets familiers peuvent avoir des usages évidents au-delà de leurs objectifs principaux, et dans de nombreux cas, une personne de compétence ordinaire saura assembler les enseignements de plusieurs brevets comme les pièces d'un puzzle ». La conclusion, quelques phrases plus tard, selon laquelle « une personne de compétence ordinaire est aussi une personne de créativité ordinaire, pas un automate », met l'accent sur la créativité, opposée à l'idée d'un automate qui répète mécaniquement ce qui a été fait auparavant. Ainsi, la Cour suprême rejette l'idée d'une PHOSITA comme simple penseur conventionnel, insistant sur le fait que la personne de compétence ordinaire engage une forme de créativité.

Toutefois, la question de l'implication de l'IA dans cette créativité reste ouverte. Le langage juridique précise « une personne », et il semble logique que cette personne utilise les outils les plus récents disponibles dans son domaine, y compris l'IA. Comme un praticien l'a commenté à l'USPTO, « tout comme l'existence des éprouvettes influence le niveau de compétence d'une personne dans les arts chimiques, ou l'usage des ordinateurs dans les arts logiciels, l'IA affectera le niveau de compétence dans les domaines où elle peut être utile ». Un PHOSITA disposant de l'IA verra donc la barre de ce qui est « non évident » pour toute invention substantiellement augmentée. Par conséquent, la montée en puissance de l'IA compliquera considérablement la tâche des examinateurs de brevets pour prouver qu'une invention est réellement non évidente, rendant également plus faciles les arguments des challengers, qui pourront plus facilement contester un brevet en prouvant son évidente nature.

Cette évolution bouleverse la notion même d'invention, en introduisant un évaluateur plus puissant et omniscient que l'examinateur de brevets gouvernemental ou un concurrent humain. Même si l'IA est la principale innovatrice, d'autres concurrents armés de l'IA seront en mesure de contester plus efficacement que jamais. Cette nouvelle dynamique fait peser un danger majeur sur la définition traditionnelle de l'invention. La capacité d'un individu à innover seul, sans l'assistance d'outils avancés, devient de plus en plus limitée. Le concept de « génie » humain, qui a toujours joué un rôle crucial dans le droit des brevets, risque de perdre son impact. L'IA, capable de rassembler et de combiner des connaissances dispersées, pourra démontrer qu'un certain plan d'invention était déjà disponible avant même qu’un humain y ait pensé. Ainsi, l’ingéniosité humaine pourrait sembler de moins en moins nécessaire.

Dans ce contexte, certains chercheurs ont proposé la création d’un système de brevet à deux voies, distinct entre les inventions humaines et celles issues de l'IA. Ce système permettrait d'évaluer chaque type d'invention selon ses pairs, avec des critères plus stricts pour les inventions impliquant l'IA. Bien que cette approche puisse sembler efficace à court terme, elle pourrait perdre rapidement sa pertinence à mesure que l'IA deviendra omniprésente, rendant difficile toute distinction claire. Par exemple, il deviendrait presque impossible de demander à un inventeur d'un nouveau médicament si son processus a impliqué l'utilisation de matériaux standards de laboratoire. De la même manière, la question de savoir si l'IA a été utilisée deviendrait de plus en plus difficile à vérifier. Une telle règle, susceptible de favoriser la fraude, devrait inciter les législateurs à réfléchir profondément à ses conséquences, notamment en matière d'application des lois.

L'IA redéfinit l’espace de l’innovation. Les inventions humaines deviendront progressivement moins impressionnantes à mesure que la capacité de l'IA à combiner des éléments d'art antérieur s'améliorera. Cela rendra de nombreuses inventions évidentes et donc inéligibles à la protection par brevet, réduisant ainsi l'espace de l'innovation protégée. Si ce phénomène affecte les inventions réalisées avec ou sans l'aide de l'IA, ce sont les inventions humaines qui souffriront le plus. L’espace pour l’innovation humaine se rétrécira encore davantage.

Une autre conséquence de l'essor de l'IA sur les droits de propriété intellectuelle concerne les secrets commerciaux. Bien que les brevets et les secrets commerciaux soient souvent considérés comme deux modes opposés de protection de la propriété intellectuelle, l’IA bouleverse également cette dynamique. Là où le brevet repose sur la divulgation publique de l’invention en échange d’un droit exclusif, les secrets commerciaux reposent sur la confidentialité. Avec l’avènement de l’IA, la notion de ce qui peut être gardé secret se trouve remise en question. En effet, le processus par lequel une information est considérée comme secrète devient beaucoup plus complexe, notamment lorsqu’il est possible pour une IA de déduire ou de découvrir des informations protégées à partir de données publiques.

Ainsi, l'IA pourrait grandement réduire l’étendue des informations protégées par les secrets commerciaux, tout comme elle redéfinit le champ de ce qui peut être breveté. La capacité de l’IA à extraire des données cachées, même dans des volumes gigantesques d’informations publiques, pourrait permettre à un tiers de contourner des protections sans jamais violer directement les termes d’un secret commercial. Ce changement pourrait rendre obsolètes les frontières traditionnelles entre secrets commerciaux et brevets, contraignant les entreprises à repenser leur stratégie de protection de la propriété intellectuelle.

La marque survivra-t-elle à l’intelligence artificielle ?

Le système des marques, pierre angulaire du droit de la propriété intellectuelle depuis des siècles, repose sur un mythe : celui de la confiance dans le signal. À l’origine, il visait à protéger les consommateurs contre les fraudes, à assurer une certaine moralité dans les échanges commerciaux et à récompenser les producteurs honnêtes. Dans sa conception moderne, ce système s’appuie sur la réputation, permettant aux consommateurs de réduire leurs coûts de recherche en se fiant à des noms auxquels ils accordent une valeur établie. Mais cette logique, déjà fragilisée par la saturation informationnelle de l’ère numérique, vacille désormais sous les assauts de l’intelligence artificielle.

L’IA accentue les tendances déjà visibles d’érosion de la valeur des marques. Face à la prolifération des fausses évaluations, des avis biaisés et des campagnes d’influence déguisées, le consommateur averti est contraint de chercher des indices plus fiables que le simple nom d’un produit. L’IA rend les campagnes de désinformation plus ciblées, plus rapides, plus difficiles à détecter. Elle permet de générer des évaluations fictives à grande échelle, de simuler des tendances d’achat, de manipuler les algorithmes des plateformes de vente, et même de fausser les données d’entraînement des systèmes de recommandation. Le résultat est un effondrement progressif de la fonction essentielle de la marque : signaler la provenance et la qualité.

La frontière entre légalité et fraude devient plus floue. Les détournements de marques prennent des formes subtiles. Des bots peuvent cliquer en masse sur des produits frauduleux, gonflant artificiellement leur visibilité et réduisant celle des produits légitimes. Des vendeurs malveillants peuvent s’approprier les fiches produits existantes sur des plateformes comme Amazon, proposant à prix cassé des contrefaçons médiocres. Ces pratiques non seulement détournent les ventes, mais détériorent la réputation de la marque d’origine, les consommateurs associant leur mauvaise expérience au véritable producteur.

Même sans violer formellement la loi sur les marques, certains concurrents peuvent exploiter l’IA pour semer une confusion suffisante, mais juridiquement tolérable. En analysant les décisions judiciaires passées, un système peut concevoir une marque proche d’une autre sans franchir la ligne de l’infraction. Une stratégie calculée qui joue dans les zones grises du droit, repoussant les limites sans jamais les dépasser. Le risque, ici, est structurel : ce n’est plus seulement la fraude qui menace la marque, mais une redéfinition implicite de ce qu’elle signifie.

L'IA permet aussi une personnalisation extrême du message commercial. En croisant les données comportementales, émotionnelles, contextuelles, elle peut concevoir des campagnes où l’utilisateur ne distingue plus la frontière entre recommandation neutre et publicité orientée. Les évaluateurs payés, les influenceurs au discours masqué, ou les fiches sponsorisées – tous peuvent désormais s’intégrer dans une interface algorithmique qui efface toute distinction entre information et manipulation. Le consommateur, même averti, est piégé dans un écosystème qui mime la neutralité tout en optimisant l’influence.

La réponse réglementaire est inégale. Alors que les produits sponsorisés doivent être signalés dans les résultats de recherche en ligne, les produits physiquement placés à hauteur des yeux dans un magasin ne font l’objet d’aucune obligation d’indication. Cette différence traduit une reconnaissance implicite : l’espace numérique, plus malléable, plus opaque, est plus propice à la confusion. Pourtant, cette reconnaissance n’est pas suffisante. Le système des marques, pour conserver sa pertinence, devrait non seulement réprimer les infractions, mais élargir son périmètre pour inclure les comportements périphériques, aujourd’hui tolérés.

Au-delà de la sphère commerciale, se pose une question plus inquiétante. L’IA pourrait être utilisée pour orchestrer des campagnes de désinformation à des fins géopolitiques, ciblant non seulement des marques, mais des marchés entiers, des chaînes logistiques, des préférences nationales de consommation. La marque devient alors un terrain de jeu stratégique, un point d’entrée pour manipuler non seulement les choix individuels, mais les équilibres économiques.

Le système de marques, pour survivre, devra se réinventer. Sa fonction première – créer de la confiance dans un univers saturé d’options – reste essentielle. Mais il ne pourra plus se contenter de fonctionner comme un simple repère visuel ou réputationnel. Il devra intégrer des mécanismes adaptatifs, algorithmiques, capables de résister aux manipulations à l’échelle et à la vitesse de l’intelligence artificielle. Sans cela, la marque deviendra un vestige d’une époque révolue, incapable de remplir le rôle qu’on lui avait confié.

L’évolution du droit devra être proactive. Les zones grises actuelles – imitation sans infraction, sponsoring déguisé, manipulation d’algorithmes – ne peuvent rester juridiquement neutres. La capacité des IA à naviguer entre les lignes, à frapper sans être détectées, exige une redéfinition des standards de confusion, de provenance et de confiance. Le système doit intégrer cette complexité nouvelle, sans quoi il cèdera le terrain à des logiques adverses où la marque ne sera plus qu’un leurre.

La légalité et l’éthique de l’utilisation des données protégées dans l’intelligence artificielle générative

Les récentes controverses judiciaires, telles que celles opposant Stability AI à Getty Images ou OpenAI aux titulaires de droits d’auteur, soulèvent des questions fondamentales sur l’utilisation des œuvres protégées pour l’entraînement des modèles d’intelligence artificielle générative. Ces plaintes dénoncent l’utilisation non autorisée de contenus protégés — photographies, textes, musiques — pour alimenter des algorithmes capables de produire des œuvres dérivées. Selon les plaignants, chaque sortie générée constitue une œuvre dérivée enfreignant les droits exclusifs des auteurs, ce qui met en lumière une tension entre innovation technologique et respect du droit d’auteur.

Ce débat juridique s’inscrit dans une controverse plus large autour du concept de « fair use » ou usage loyal appliqué aux bases de données employées dans l’apprentissage automatique. Certains auteurs, comme Mark Lemley et Bryan Casey, soutiennent que les systèmes d’apprentissage automatique devraient pouvoir exploiter ces bases indépendamment de la protection des contenus, arguant que le processus de transformation est en soi une nouvelle création. D’autres, comme Simon Chesterman, insistent sur la nécessité d’une compensation pour les créateurs originaux, dénonçant l’utilisation de données « volées » sans reconnaissance ni rémunération.

L’analyse de la doctrine du fair use appliquée aux modèles génératifs reste complexe : chaque acte de copie, même effectué par une intelligence artificielle, modifie le sens initial, mais la loi demeure prudente afin d’éviter de diluer les protections du droit d’auteur. Benjamin Sobel souligne ainsi l’ambiguïté inhérente à la notion de transformation par les machines, qui ne saurait automatiquement valider une exemption au droit d’auteur.

Parallèlement, le débat s’étend aux droits de propriété intellectuelle sur les œuvres créées par l’intelligence artificielle elle-même. Certains juristes, comme Ryan Abbott, militent pour la reconnaissance juridique de l’IA en tant qu’auteur afin d’encourager la diffusion et la création de contenu généré. D’autres, en revanche, proposent de protéger l’innovation des développeurs de systèmes IA sans attribuer de droits d’auteur ou de brevets directement aux machines, tout en promouvant des dispositifs pour lutter contre la contrefaçon numérique.

Dans ce contexte, des propositions émergent, telles que l’instauration d’une « taxe IA » destinée à rémunérer les créateurs dont les œuvres alimentent les modèles, afin de concilier progrès technologique et juste rémunération des auteurs humains. Au-delà des aspects juridiques, la montée en puissance de l’IA suscite des préoccupations éthiques majeures : la protection de la vie privée, la prévention des discriminations, et le maintien du rôle central du jugement humain demeurent des défis essentiels.

L’Union européenne, par le biais de sa législation sur l’intelligence artificielle, cherche à imposer des obligations de transparence et de responsabilité aux fournisseurs d’IA, tout en naviguant entre exigences de divulgation et protection des secrets commerciaux. Ce cadre réglementaire témoigne de la complexité d’encadrer juridiquement une technologie en perpétuelle évolution.

Il est important de saisir que cette confrontation entre les droits d’auteur traditionnels et l’intelligence artificielle soulève une question plus large sur la nature même de la création artistique et intellectuelle à l’ère numérique. La coexistence entre machines et créateurs humains oblige à repenser les définitions classiques d’originalité, d’auteur et d’inventivité. Le droit, pour rester pertinent, devra s’adapter sans pour autant renier les principes fondamentaux qui protègent la créativité humaine.

Par ailleurs, comprendre l’impact social et économique de cette transformation est crucial. La rémunération des créateurs, la diversité culturelle, et la transparence dans le processus de création algorithmique sont des enjeux qui dépassent le cadre strictement juridique pour toucher à la démocratie culturelle et à l’équité.

Comment l’intelligence artificielle transforme-t-elle la protection des marques et la prise de décision des consommateurs ?

L’intelligence artificielle (IA) modifie profondément le paysage juridique et commercial en influençant notamment la manière dont les consommateurs prennent leurs décisions et dont les marques sont protégées. Traditionnellement, les marques servaient à réduire les coûts de recherche des consommateurs, agissant comme des signaux fiables dans un environnement où l’information n’était pas toujours accessible ou facile à traiter. L’IA, en facilitant le tri et l’analyse d’une masse colossale d’informations, modifie cette dynamique en réduisant ces coûts de recherche de façon drastique. Cette évolution impacte la valeur même des marques, dont l’utilité se trouve parfois diminuée puisque les consommateurs peuvent désormais identifier rapidement le produit idéal sans s’appuyer exclusivement sur la notoriété d’une marque.

L’essor des plateformes comme TikTok, et notamment la communauté BookTok, illustre cette mutation. Cette communauté passionnée de lecteurs et d’auteurs utilise l’algorithme pour recommander et promouvoir des ouvrages littéraires, incarnant un nouvel usage social et technologique où le pouvoir de la recommandation s’appuie sur l’IA plus que sur les marques traditionnelles. Par conséquent, la perception de la marque évolue, et son rôle dans la décision d’achat se complexifie.

Sur le plan juridique, les débats s’intensifient quant à l’adaptation des lois de la propriété intellectuelle face à l’IA. Certains considèrent que les cadres existants sont suffisamment flexibles pour intégrer les impacts de ces technologies, tandis que d’autres soulignent les risques liés à la dilution ou à la redéfinition des critères de protection. Par exemple, les outils d’IA sont déjà employés pour détecter les infractions en matière de marques, surveiller les usages abusifs, ou encore anticiper des risques de confusion. Cependant, la complexité inhérente à la langue, à l’interprétation juridique et à la nature même des catégories juridiques posent des limites évidentes à l’automatisation complète de ces processus.

L’importance de la catégorisation est un thème transversal, aussi bien dans la philosophie que dans le droit. Classer, nommer, distinguer les objets ou les concepts est essentiel pour la compréhension et la communication. Mais le langage, par sa nature même, reste imprécis, malléable et sujet à l’interprétation. Ce flou linguistique complique la définition précise des concepts juridiques, notamment dans le domaine des brevets et des marques où les termes utilisés peuvent évoluer avec le temps et le contexte. Ainsi, malgré les avancées techniques, l’intelligence artificielle ne peut éliminer totalement l’incertitude liée à l’interprétation humaine.

Il est également crucial de noter que l’impact économique de l’IA va au-delà des simples processus de recherche. En réduisant les frictions dans la consommation, l’IA peut augmenter l’efficacité des marchés, stimuler la consommation et modifier les stratégies marketing. Pour les marques, cela signifie un besoin accru d’innovation et d’adaptation, non seulement pour rester visibles, mais aussi pour préserver la confiance et la fidélité des consommateurs dans un environnement saturé d’informations.

Enfin, l’intégration de l’IA dans le domaine juridique pose la question de la coopération entre outils automatisés et intervention humaine. Si l’IA peut prendre en charge des tâches administratives répétitives, l’analyse approfondie, le jugement critique et la décision finale doivent rester entre les mains de professionnels capables de contextualiser et d’interpréter avec finesse.

Il importe de comprendre que l’IA ne supprime pas la complexité ni les défis liés à la protection des marques, mais transforme la manière dont ces défis doivent être appréhendés. La coexistence entre technologies avancées et subtilités humaines exige une réévaluation constante des principes juridiques et une vigilance accrue quant à la préservation des droits dans un monde numérique en rapide évolution. Cette transformation appelle à un équilibre entre l’automatisation et le raisonnement critique, entre la précision technique et la richesse interprétative du langage.