L’une des questions centrales dans le débat autour des intelligences artificielles génératives est celle du respect des droits d’auteur lors du processus d’entraînement des modèles. Cette interrogation trouve son origine dans la pratique courante consistant à collecter, parfois massivement, des données issues d’Internet, souvent sans distinction ni permission explicite des titulaires des droits. On considère que le simple fait de télécharger ces contenus protégés constitue une copie, même avant toute transformation ou analyse des données par le système d’IA. Cette étape initiale, bien que souvent négligée, soulève donc des problèmes juridiques fondamentaux.

Cependant, la notion de copie n’épuise pas le sujet : la question majeure est de savoir si cette copie entre dans le cadre de l’« usage loyal » (fair use), une exception prévue par la loi pour permettre certains usages limités des œuvres protégées. Le parallèle est souvent fait avec les cas d’« copies intermédiaires » dans d’autres domaines technologiques, comme celui des jeux vidéo ou de la compatibilité logicielle. Dans ces situations, la copie est un moyen, non une fin, destinée à atteindre un objectif transformateur, distinct de la simple reproduction du contenu original. Les tribunaux tendent à considérer ces copies intermédiaires comme admissibles au titre de l’usage loyal, mais cette appréciation dépend toujours du contexte et des circonstances spécifiques.

L’un des critères essentiels pour juger de cet usage loyal est la finalité transformative de l’œuvre dérivée. Selon la Cour suprême des États-Unis, un usage est transformateur s’il ajoute quelque chose de nouveau, avec un objectif différent de celui de l’œuvre originale. Appliqué à l’IA générative, cela signifie qu’il faudra déterminer si la création d’un modèle d’IA constitue effectivement une transformation créative ou si elle n’est qu’une reproduction déguisée. Les juges pourraient comparer cette situation à celle des moteurs de recherche ou de projets tels que Google Books, où des copies limitées sont utilisées pour faciliter l’accès à l’information, mais ils pourraient aussi choisir de restreindre cet espace, surtout face à des technologies émergentes qui bouleversent les usages traditionnels.

L’impact économique est un autre facteur complexe à considérer. L’effet sur le marché original peut être double : il y a une différence notable entre un travail nouveau qui remplace directement une œuvre existante (ce qui est problématique) et un travail qui offre des options supplémentaires aux consommateurs, sans pour autant supplanter l’original. Un exemple courant est celui de la parodie, qui, bien qu’affectant potentiellement les ventes de l’œuvre parodiée, est protégée parce qu’elle apporte un commentaire critique. De même, une IA capable de générer des contenus inspirés librement de données non protégées pourrait être considérée comme pratiquant un usage loyal, même si cela réduit indirectement le trafic vers certains sites ou marchés. Par contre, si le modèle reproduit des œuvres protégées en grande quantité, notamment celles derrière des paywalls, la substitution au marché de ces œuvres devient flagrante et juridiquement contestable.

Les deux autres critères de l’usage loyal examinent la nature de l’œuvre originale (avec une protection plus forte accordée aux créations artistiques qu’aux logiciels) et la quantité de contenu copié. Un usage loyal suppose que l’on ne prenne que ce qui est nécessaire. Pourtant, dans certains cas, la totalité d’une œuvre peut être justifiée si cela sert un objectif véritablement transformateur. Si, toutefois, les tribunaux jugent que la finalité n’est pas suffisamment transformative, alors ces facteurs militeront contre un usage loyal.

Au-delà de la simple collecte de données, la question se pose aussi sur la nature même des informations retenues par le modèle une fois entraîné. Contrairement à une copie mécanique, l’intelligence artificielle ne stocke pas des fragments identiques, mais développe une structure mathématique complexe composée de milliards de paramètres. Ces paramètres ne correspondent pas de façon univoque aux œuvres originales ; ils résultent d’un processus d’analyse statistique où les données interagissent pour révéler des motifs et des corrélations, ce qui transforme la donnée initiale en un modèle abstrait capable de générer des réponses nouvelles. Ainsi, le contenu produit par l’IA ne doit pas être assimilé à une simple reproduction des œuvres protégées, mais plutôt à une création issue d’une transformation mathématique et statistique profonde.

Il est essentiel de comprendre que cette analyse reste en évolution, portée par des décisions souvent contradictoires au niveau des cours d’appel, et que le cadre juridique est loin d’être stabilisé. La complexité des enjeux techniques et économiques impose une réflexion approfondie sur la manière dont la loi doit s’adapter aux technologies émergentes, afin de protéger les droits d’auteur sans freiner l’innovation et le potentiel démocratique des intelligences artificielles génératives.

La dimension éthique et sociétale doit également être prise en compte. La protection excessive des droits d’auteur peut freiner la diffusion des connaissances et la créativité collective, alors que l’absence de régulation pourrait nuire aux créateurs en dévalorisant leur travail. La nuance est donc capitale, notamment pour préserver un équilibre entre innovation technologique et respect des intérêts légitimes des auteurs et des titulaires de droits.

Comment l'intelligence artificielle redéfinit-elle la propriété intellectuelle ?

L'intelligence artificielle (IA) a radicalement transformé les champs de l'innovation, de la créativité et, par conséquent, de la propriété intellectuelle. Alors que cette technologie avance à une vitesse vertigineuse, les lois sur la propriété intellectuelle semblent peiner à suivre. L’un des défis majeurs réside dans la manière dont l'IA interagit avec les concepts traditionnels de la propriété, en particulier en ce qui concerne le droit d'auteur, les brevets, les marques et la protection des créations originales. Les régimes juridiques actuels ont été conçus pour protéger les droits des créateurs humains, mais comment ces systèmes peuvent-ils s'adapter à un monde où les machines jouent un rôle de plus en plus actif dans la création d'œuvres ?

Il est essentiel de comprendre que l'IA, bien qu'elle soit un outil puissant, n'est pas un créateur autonome. Elle est alimentée par des données et des algorithmes qui dépendent de l'intervention humaine. Cependant, lorsqu'un système d'IA génère une œuvre, qu'il s'agisse d'une image, d'une musique, ou même d'une invention technique, la question de savoir qui détient les droits d'auteur ou les brevets sur cette œuvre devient complexe. Les législateurs et les juristes se retrouvent face à un dilemme : comment reconnaître et protéger la contribution humaine dans un environnement où l'IA prend une place de plus en plus dominante ?

Une des solutions proposées est de recentrer la protection sur les "diamants brillants", c'est-à-dire les œuvres les plus exceptionnelles générées par l'IA, tout en réduisant la portée de la protection pour les créations moins marquantes. Ce modèle permettrait de maintenir un équilibre entre l’encouragement de la créativité humaine et la gestion des productions générées par des systèmes d’IA. De plus, l'introduction d'un organisme de certification public-privé pourrait fournir une solution permettant de valider et d'homogénéiser les règles de protection, en rendant le processus plus transparent et accessible à toutes les parties prenantes.

Le principe de l'usage équitable, ou "fair use", qui a longtemps été un pilier de la législation sur le droit d'auteur aux États-Unis, est également au cœur des débats. L’IA, dans ses processus de formation, utilise de grandes quantités de données, souvent extraites de travaux protégés par des droits d'auteur. Des poursuites récentes, comme celles impliquant Stability AI ou OpenAI, ont soulevé la question de la légalité de l'utilisation de ces données sans compensation ou consentement préalable des créateurs. Ces litiges soulignent l'importance d’une régulation claire et équitable dans l’utilisation des données pour l'entraînement des modèles d'IA.

Un autre point essentiel est la distinction entre les inventions générées par l'IA et celles créées par des inventeurs humains. Le cas Thaler v. Comptroller-General of Patents, une décision rendue par la Cour suprême du Royaume-Uni en 2023, a statué que l'IA ne pouvait être reconnue comme inventeur au sens juridique du terme. Cette décision reflète un consensus croissant selon lequel l’attribution d’un brevet ou d’un droit d’auteur à une machine pourrait semer la confusion et déstabiliser les fondements mêmes de la propriété intellectuelle.

Au-delà des questions légales, l'impact de l'IA sur l'industrie de la création est également profondément économique. L'IA peut certes réduire les coûts de production et multiplier les créations, mais elle soulève aussi des préoccupations concernant la rémunération des créateurs humains. Si une œuvre générée par l'IA repose sur des données d’auteurs ou d’artistes humains, la question du partage des bénéfices entre les créateurs initiaux et les entreprises développant ces technologies devient incontournable. Cela nécessite une redéfinition des droits de propriété, non seulement pour protéger les créations originales, mais aussi pour garantir une répartition équitable des fruits de l'innovation.

Les domaines où l'IA a déjà un impact majeur, comme l’art génératif, la musique, et même la recherche scientifique, montrent la complexité croissante de la situation. Dans l'art, par exemple, des œuvres créées par des IA suscitent la question de l'attribution des droits d'auteur. La frontière entre création originale et reproduction d’œuvres protégées devient floue lorsque l'IA s'inspire, transforme ou combine des éléments préexistants. Des entreprises comme Stability AI ont été accusées d'utiliser sans autorisation des images protégées pour entraîner leurs modèles, soulevant des préoccupations concernant l’exploitation non éthique des données.

Il devient donc crucial de réexaminer non seulement les fondements du droit d'auteur, mais aussi de développer de nouveaux mécanismes juridiques adaptés aux technologies émergentes. Cela pourrait inclure des exceptions spécifiques pour l'utilisation des œuvres dans le cadre de l'entraînement des IA, ou la création de nouvelles formes de licences adaptées aux besoins des créateurs et des utilisateurs de ces technologies. Une approche hybride, combinant les principes traditionnels de la propriété intellectuelle avec des mécanismes flexibles adaptés aux défis contemporains, pourrait être la clé pour faire face aux évolutions rapides dans ce domaine.

Dans ce contexte, la régulation de l'IA ne peut pas se limiter à l'élargissement des règles existantes. Elle doit inclure une révision des principes sous-jacents de la propriété intellectuelle, afin de garantir que l’innovation humaine et technologique puisse coexister de manière harmonieuse. La société doit repenser son approche de la créativité, de l'authorship et de la rétribution, tout en équilibrant les droits des créateurs, la transparence des processus et l'intégrité des systèmes technologiques.

Quel est le rôle du droit de la personnalité et de la propriété intellectuelle face aux technologies numériques et à l'intelligence artificielle ?

Le droit de la personnalité, notamment le droit à la publicité, s’est progressivement aligné avec les principes de la propriété intellectuelle, établissant un cadre juridique destiné à protéger l’identité et l’image des individus dans un monde de plus en plus public et numérique. Depuis l’arrêt Zacchini v. Scripps-Howard en 1977, la protection des droits de la personnalité tend à justifier une reconnaissance similaire à celle accordée aux droits de propriété intellectuelle, garantissant que les créations et représentations individuelles ne soient pas exploitées sans consentement ou compensation. Cette évolution trouve un écho important dans les législations spécifiques, souvent étatiques, qui adaptent et précisent les contours de ces protections dans différents contextes.

Avec l’émergence des technologies d’intelligence artificielle, le cadre juridique doit désormais faire face à des enjeux inédits, notamment concernant la création de contenus numériques et de répliques virtuelles. Par exemple, la proposition de loi américaine NO FAKES Act cherche à instaurer un droit universel permettant de contrôler l’usage des représentations digitales, particulièrement dans le cadre de deepfakes, ces vidéos ou images truquées produites par IA, susceptibles de porter atteinte à la vie privée, à la réputation, ou de servir des fins malveillantes.

L’affaire récente opposant OpenAI à Scarlett Johansson illustre la complexité de ces questions : bien que la voix utilisée pour un assistant vocal d’IA ait été créée indépendamment de l’actrice, la similitude vocale soulève des interrogations sur le droit à l’image vocale et la protection des attributs personnels dans un environnement numérique. Cette situation souligne le défi pour la loi de distinguer entre inspiration légitime et appropriation illicite à l’heure où les technologies permettent de reproduire fidèlement les caractéristiques humaines sans recours direct à la personne concernée.

Par ailleurs, le développement des deepfakes représente une menace épistémique importante : la manipulation numérique peut altérer la perception de la réalité, créant une confusion massive et risquant d’induire en erreur le public. Les exemples récents, comme la diffusion de vidéos truquées du président Zelenskyy, démontrent que ces technologies sont aussi devenues des instruments dans les guerres de l’information, accentuant la nécessité d’une régulation ferme et adaptée.

Les mesures envisagées pour contrer ces dérives légales ne se limitent pas à la sanction des auteurs, mais cherchent aussi à offrir des recours aux victimes, notamment lorsque les contenus explicites non consensuels sont diffusés, renforçant ainsi la protection juridique contre les violations de la vie privée et de l’identité numérique. L’évolution législative vise également à anticiper les défis futurs, à travers une compréhension approfondie des mécanismes de création algorithmique et des enjeux éthiques liés à l’IA.

Parallèlement, la théorie du « code est loi » de Lawrence Lessig rappelle que la régulation de l’espace numérique ne repose pas uniquement sur les normes juridiques, mais aussi sur la conception même des logiciels et matériels qui structurent cet univers. Le « code » – entendu comme l’ensemble des règles techniques intégrées dans les systèmes numériques – exerce une forme de contrôle et de régulation, parfois invisible mais efficace, sur les comportements des utilisateurs et la gestion des données personnelles.

Enfin, en matière de propriété intellectuelle, les critères classiques du brevet, tels que la nouveauté, l’utilité, et la non-évidence, continuent de guider l’octroi des droits, même face aux innovations technologiques rapides. La complexité croissante des inventions exige une appréciation fine de ces critères, notamment le caractère non évident, qui fait souvent l’objet de contentieux majeurs. Ces principes fondamentaux restent la pierre angulaire pour assurer un équilibre entre incitation à l’innovation et protection contre l’abus monopolistique.

Il est essentiel de comprendre que la protection des droits individuels dans l’ère numérique ne peut se limiter à une stricte application des textes existants. L’interaction entre les nouvelles technologies, les attentes sociales, et les droits fondamentaux crée une dynamique en constante évolution, nécessitant une adaptation continue des cadres juridiques et une vigilance accrue quant à l’impact des innovations technologiques sur la société. La réflexion juridique doit intégrer à la fois les dimensions techniques, éthiques et sociales pour appréhender pleinement les enjeux posés par l’essor des contenus générés par l’intelligence artificielle et les formes modernes de communication.