Les débats autour de la propriété intellectuelle à l’ère de l’intelligence artificielle touchent un point nodal : la notion même d’auteur et d’inventeur. Dans le domaine du droit d’auteur, les discussions les plus pointues tournent aujourd’hui autour de la question suivante : une œuvre générée par une intelligence artificielle peut-elle prétendre à une protection juridique, et si oui, sur quelle base ?

Certains juristes, tels que Mark Lemley, défendent une approche restrictive, fondée uniquement sur la qualité du prompt – cette instruction textuelle donnée à une IA générative. Selon lui, ce n’est pas l’œuvre produite par la machine qui devrait être protégée, mais le prompt lui-même, en tant que manifestation d’un effort créatif humain. La réduction drastique des coûts et de la difficulté liés à la production d’œuvres par IA affaiblit, à ses yeux, le besoin de protection juridique de ces œuvres. Toutefois, il admet que concevoir un prompt capable de générer un résultat artistique cohérent et significatif peut relever d’un véritable art.

À l’opposé, d’autres auteurs estiment que certaines œuvres issues d’une IA pourraient – voire devraient – être éligibles à une protection par le droit d’auteur, précisément en raison de la difficulté croissante à distinguer ce qui a été généré par un humain de ce qui ne l’a pas été. Annemarie Bridy, dans une analyse antérieure à l’essor actuel des modèles génératifs, propose une conception selon laquelle le programmeur du logiciel génératif est, de manière indirecte, l’auteur des œuvres produites par son programme. En d’autres termes, l’auteur de l’auteur.

Néanmoins, les principes fondamentaux du droit d’auteur restent attachés à la notion d’intervention humaine. Le Copyright Office américain maintient, pour l’heure, un rejet systématique des demandes de protection pour des créations produites sans contribution humaine substantielle. Tant que l’implication humaine reste minime, la position juridique est claire. Mais cette clarté pourrait s’estomper à mesure que les systèmes deviennent plus raffinés et que leurs productions s’apparentent davantage à celles des artistes humains.

La situation n’est guère plus simple du côté du droit des brevets. Les autorités américaines, tant judiciaires qu’administratives, ont fermement rappelé que le système des brevets vise à récompenser l’ingéniosité humaine. Le critère central demeure la contribution d’une personne physique. En 2024, l’Office américain des brevets a présenté des exemples fictifs de situations où des inventions reposent sur l’assistance d’une IA. Dans chacun de ces cas, il s’agit de déterminer la part d’intervention humaine décisive dans l’élaboration de l’invention.

Ce filtrage par le critère de la contribution humaine est censé éviter que l’on accorde des droits de propriété intellectuelle à des inventions produites sans génie humain. Mais cette approche crée une insécurité juridique : les inventeurs pourraient être tentés de dissimuler l’ampleur réelle de l’usage d’une IA dans leur processus d’invention, de peur de perdre tout droit sur leur création. Une telle dissimulation fausse la transparence exigée dans la procédure de dépôt, avec des conséquences économiques potentiellement désastreuses.

L’assimilation de l’IA à un simple outil – comme un pinceau, un logiciel de conception assistée, ou même un ordinateur – pourrait sembler une solution séduisante. Pourtant, cette analogie est imparfaite. Une IA générative ne se contente pas d’exécuter des instructions ; elle peut les affiner, les transformer, voire en créer de nouvelles, à partir d’une base de données massive et de processus d’optimisation interne. Cette capacité à produire du contenu de manière autonome bouleverse les cadres juridiques traditionnels, conçus pour des outils passifs et linéaires.

Nous ne disposons pas encore d’un langage juridique suffisamment précis pour saisir les implications de cette créativité émergente. Comme les logiciels d’autrefois qui permettaient de manipuler l’ADN humain, les IA actuelles ne se contentent pas de suivre un manuel d’instructions ; elles le réécrivent, le personnalisent, l’améliorent.

Ce qui est en jeu dépasse donc la seule question de la titularité. C’est la nature même de la création, de l’invention, et de la contribution humaine qui se trouve remise en question. Les doctrines établies, reposant sur une conception binaire entre humain et machine, risquent de s’effriter sous la pression d’une réalité plus fluide, où la frontière entre intention, exécution et automatisation devient de plus en plus poreuse.

Pour comprendre les enjeux de manière plus complète, il faut aussi considérer la variabilité inhérente des modèles d’IA actuels. Donnez cent fois le mêm

L’intelligence artificielle : entre promesses, craintes et défis juridiques

Depuis ses origines, l’intelligence artificielle (IA) suscite autant d’enthousiasme que d’inquiétude. Des figures emblématiques comme Geoffrey Hinton, souvent qualifié de « parrain de l’IA », expriment des craintes profondes quant aux risques existentiels que ces technologies peuvent engendrer. Ces inquiétudes, loin d’être anecdotiques, prennent la forme de débats passionnés dans le monde scientifique et technologique, où la probabilité d’une catastrophe liée à l’IA, désignée sous le terme de « p(doom) », devient un indicateur pris au sérieux pour évaluer les dangers potentiels. Cette vision dystopique n’est pas seulement le fruit de la fiction, mais trouve écho dans les réflexions contemporaines sur le pouvoir et les limites des systèmes intelligents.

Le cadre juridique, quant à lui, peine à suivre le rythme effréné de ces avancées technologiques. Les lois existantes, telles que le Fair Labor Standards Act aux États-Unis ou les législations pénales relatives aux outils criminels, ont été conçues dans des contextes radicalement différents, souvent sans anticiper les spécificités et complexités induites par l’IA. Par exemple, le refus fédéral de financer la recherche sur l’édition génomique dans certains domaines reflète une tentative d’encadrement prudent des technologies émergentes, illustrant ainsi la tension entre innovation scientifique et précaution éthique.

Par ailleurs, la notion de propriété intellectuelle connaît une expansion préoccupante. Ce domaine, à l’origine destiné à protéger l’innovation, tend aujourd’hui à s’étendre de manière exponentielle, englobant des inventions et créations souvent controversées. La transformation de la propriété intellectuelle en une sorte de droit absolu soulève des débats intenses : la surprotection génère des effets pervers, tels que le harcèlement juridique de concurrents, l’entrave à la libre créativité, ou encore la consolidation de monopoles qui freinent l’innovation. Les critiques pointent également la multiplication des protections qui se chevauchent et les risques d’abus associés à des pratiques de secret industriel dévoyé.

Sur un plan philosophique, l’intelligence artificielle met en lumière le concept d’« absurdité » existentialiste, où la quête humaine de compréhension et de maîtrise se heurte à l’inconnaissable et à l’imprévisible. Ce conflit entre désir de contrôle et reconnaissance de nos limites rappelle que, malgré les avancées technologiques, certaines dimensions de la condition humaine et du monde restent hors de portée, renforçant une posture d’humilité face à l’avenir.

Il est crucial de comprendre que la problématique de l’IA ne se résume pas aux seuls aspects technologiques ou juridiques. Elle engage aussi une réflexion profonde sur les valeurs, les risques sociaux et éthiques, ainsi que sur les modalités de régulation à adopter. Le dialogue entre experts, législateurs et société civile doit s’intensifier pour construire un cadre équilibré où innovation et précaution cohabitent harmonieusement. De plus, le lecteur devrait saisir que l’évolution rapide de l’IA nécessite une vigilance constante et une adaptation permanente des normes, pour ne pas se laisser dépasser par des développements qui pourraient transformer radicalement notre rapport au travail, à la créativité, à la vie privée, et même à la nature même de l’humain.

L’intelligence artificielle rend-elle toute invention évidente ?

La montée en puissance de l’intelligence artificielle, notamment dans le domaine de la création technique, contraint le droit des brevets à repenser l’analyse de l’évidence technologique. La crainte émerge que, dans un monde où les intelligences artificielles (IA) peuvent générer des améliorations systématiques dans tous les domaines techniques, plus rien ne saurait être considéré comme véritablement inventif. Cette crainte, que certains qualifient déjà de réalité partielle, alimente l’idée que l’IA pourrait provoquer un effondrement du critère fondamental de non-évidence dans l’octroi des brevets.

Or, une telle position suppose que l’IA, par sa capacité à combiner des informations existantes, rend toute amélioration possible et, partant, évidente. Cette hypothèse est nuancée par une analyse plus fine du rôle de la personne ayant une compétence ordinaire dans l’art (PHOSITA, pour Person Having Ordinary Skill In The Art), notion centrale dans l’évaluation de l’évidence. La jurisprudence a déjà montré que cette figure juridique est malléable. Loin d’être un simple exécutant dénué d’initiative, la PHOSITA a été redéfinie par la Cour suprême dans l’arrêt KSR v. Teleflex comme une personne dotée d’un niveau de créativité ordinaire, capable d’adapter et de combiner des connaissances antérieures, mais sans verser dans l’inventivité exceptionnelle.

Cela étant dit, intégrer l’IA dans la figure de la PHOSITA — soit comme outil, soit comme substitut — bouleverse cette construction. Alors qu’une IA peut, indépendamment de toute spécialisation humaine, proposer des combinaisons nouvelles simplement en optimisant des paramètres, un être humain reste ancré dans un champ technique précis et limité par sa propre capacité d’abstraction. Cette dissymétrie interroge la pertinence du critère d’évidence lorsqu’on confronte des productions issues de processus algorithmiques à des standards juridiques conçus pour des inventeurs humains.

Certains auteurs soutiennent qu’il serait illusoire d’assimiler l’IA à la PHOSITA : si elle est capable de créer sans effort apparent, alors le fondement même du système de brevets — qui repose sur la récompense de l’effort inventif — s’érode. D’autres, au contraire, affirment que le droit des brevets a toujours démontré une capacité d’adaptation surprenante, et que les technologies émergentes, même lorsqu’elles perturbent les standards traditionnels, ne rendent pas obsolètes les cadres existants, mais les forcent à évoluer.

La question devient alors : doit-on élever le seuil de non-évidence lorsque l’on prend en compte l’usage d’une IA par l’inventeur ? Et si oui, jusqu’où ? Si l’IA devient un outil généralisé, voire indispensable à tout processus d’innovation, cela signifie-t-il que toute invention assistée par IA est, par essence, moins méritoire et donc moins brevetable ? Répondre à ces questions implique de redéfinir la frontière entre assistance technologique et automatisation inventive.

Certains suggèrent d’adopter une double voie dans l’évaluation des demandes de brevet : l’une pour les inventions humaines, soumises aux critères traditionnels, et l’autre pour les créations issues de systèmes IA, régies par des standards adaptés à leur nature. Une autre proposition vise à réviser les doctrines entourant l’art antérieur, en excluant du champ de l’état de la technique certaines productions d’IA, sauf si elles sont rendues pleinement accessibles et compréhensibles au public.

Il est également avancé que le mythe de l’inventeur solitaire est de moins en moins pertinent. L’histoire montre que la majorité des grandes inventions sont le fruit d’efforts collectifs, simultanés et souvent indépendants. L’IA ne fait qu’accélérer et massifier ce processus, posant ainsi la question de savoir si le droit des brevets, avec son attachement à l’individualité de l’inventeur, peut encore jouer son rôle de gardien de l’innovation dans un contexte où la créativité devient distribuée, assistée et potentiellement désincarnée.

Il est essentiel que le lecteur comprenne que la notion d’évidence n’est pas un critère technique figé, mais un concept juridique en constante réinterprétation, dépendant de contextes technologiques et sociaux mouvants. Le rôle de l’IA dans l’écosystème inventif n’élimine pas la nécessité du brevet, mais impose une vigilance critique dans l’application des standards existants. Le risque n’est pas tant que tout devienne évident, mais que l’on cesse de pouvoir distinguer ce qui l’est véritablement. L’évolution du droit devra alors se faire non pas contre l’IA, mais avec elle, en repensant les fondements mêmes de ce qui mérite protection.