L'Académie royale de peinture et de sculpture, fondée en 1648 sous les auspices de la couronne française, a constitué un tournant dans l'histoire de l'art. Son objectif principal était de structurer l'éducation artistique et de promouvoir des productions artistiques ayant des motifs historiques ou bibliques, tout en renforçant l'image du roi. En parallèle, l’académie a permis de libérer la pratique artistique de l'emprise des guildes qui en avaient jusque-là le monopole. La figure emblématique de cette institution fut Charles Le Brun (1619–1690), peintre officiel de Louis XIV, qui initia la création de l'académie et occupa divers rôles au sein de celle-ci.

Le Brun a exercé une influence considérable sur l'art académique en imposant une organisation précise des émotions humaines à travers l'art visuel. Il a élaboré un système permettant de traduire les sentiments humains en expressions visuelles distinctes, un guide, en quelque sorte, pour représenter des émotions comme la colère, la joie, le désespoir ou l'amour à travers les traits du visage. Le Brun a étudié minutieusement la position des lèvres, des sourcils et des narines pour formaliser cette traduction visuelle. Ce processus, qui visait à rendre les émotions immédiatement compréhensibles et reconnaissables pour le spectateur, trouve un écho frappant dans les mécanismes modernes de génération d'images par intelligence artificielle (IA).

L'une des particularités du travail de Le Brun résidait dans son approche systématique des émotions humaines, qu'il compartimentait en unités distinctes, chacune ayant un nom et une forme visuelle spécifique. Cette catégorisation des états mentaux en concepts linguistiques, permettant de réduire et de traduire des sentiments en mots, ressemble à un principe fondamental des générateurs d'images d'IA actuels. Par exemple, la base de données WordNet, qui organise la langue anglaise en "synsets" (ensembles de synonymes), a été essentielle dans le développement d'ImageNet, une ressource clé pour les générateurs d'images par IA. Le parallélisme entre les méthodes de Le Brun et celles des générateurs d'images modernes réside dans la façon dont les deux systèmes traduisent des concepts complexes en données visuelles simplifiées et standardisées.

Le processus de création des bases de données visuelles de Le Brun peut être comparé à l'approche des IA modernes dans la collecte et l'analyse de données visuelles. Comme Le Brun scrutait les portraits de dirigeants et de philosophes célèbres, tirant de leurs expressions faciales des caractéristiques qu'il extrayait pour former un modèle d'émotions humaines, les IA d'aujourd'hui "apprennent" en analysant d'innombrables images pour extraire des traits visuels qu'elles associent à des concepts linguistiques. Bien que l'échelle et les méthodes aient considérablement évolué, l'idée de base demeure la même : curer des dépôts d'images et les transformer en un modèle interprétable.

La troisième contribution majeure de Le Brun à l'art académique réside dans sa régulation de l'expression artistique. L’académie cherchait à éviter la subjectivité et la diversité des goûts, favorisant au contraire des règles inflexibles qui dictaient la manière correcte de représenter les émotions humaines. Cette quête d'objectivité visait à établir des correspondances précises entre les concepts visuels et les émotions, afin de garantir que les spectateurs pouvaient lire une "histoire visuelle" de manière instantanée. Cette structure rigide, qui se traduisait par l’usage de visages et de gestes codifiés, rappelle les pratiques contemporaines dans l'IA, où les générateurs d'images ne tentent pas de capturer des scènes réelles mais de proposer des approximations statistiques d'images correspondant à des mots-clés ou à des concepts abstraits.

Il est intéressant de noter que, comme les générateurs d'images d'IA qui dépendent d'un apprentissage statistique basé sur des ensembles de données massifs, l'Académie royale imposait une forme de pré-traitement des émotions humaines dans l'art, une réduction de l'expression complexe à des codes universels et compréhensibles. Ce processus visait à faire en sorte que les artistes puissent, sans ambiguïté, traduire des sentiments humains en images, tout en garantissant que ces images soient lisibles pour tous, indépendamment de l'interprétation personnelle de l'artiste.

Cependant, cette quête de régulation n'était pas sans risques. La crainte de l'art subjectif et de la diversité des goûts traduisait une volonté d'imposer un contrôle sur la production artistique, de manière à s'assurer que l'histoire et les récits étaient communiqués de manière claire, efficace et idéologiquement cohérente. De la même manière, les générateurs d'images modernes, en utilisant des modèles statistiques pour relier les concepts aux visuels, créent des "images moyennes", souvent réduites à des approximations techniques et parfois décontextualisées. Ces images, bien qu’efficaces, soulèvent des questions éthiques sur la représentation et la réduction de la diversité culturelle et émotionnelle dans les produits générés par IA. Les "images moyennes" des IA, souvent désignées comme des "après-images", sont des représentations visuelles qui s'inscrivent dans une logique de normalisation, où les nuances et spécificités humaines risquent d’être perdues au profit de modèles simplifiés et généralisés.

Le processus de formalisation de l'art académique du XVIIe siècle, par la systématisation des émotions humaines et la quête d'un langage visuel universel, a ainsi non seulement façonné l’art classique mais a également, par un étonnant retour, inspiré les pratiques contemporaines de génération d’images par IA. L'héritage de l'Académie royale continue d'influencer, de manière indirecte, la manière dont nous produisons et consommons des images, que ce soit dans l'art traditionnel ou à travers les technologies numériques modernes.

Le phénomène de l'anthropomorphisation dans l'interaction avec l'IA : une analyse critique de l'engagement affectif

L'engagement affectif avec les technologies a longtemps été réservé aux interactions avec d'autres êtres humains. Plus précisément, il s'agit des affects déclenchés non pas par un corps externe ou une Gestalt (comme c'est le cas par exemple pour un robot ou une marionnette), mais entièrement à travers des motifs sémiotiques distincts de communication — en d'autres termes, des esthétiques médiatiques attribuées à l'« IA ». Ce phénomène semble très similaire à l'erreur de catégorisation (« pensée délirante »), qui a été, de manière discutable, activée lors de l'identification erronée du système de chatbot LaMDA comme étant « conscient » en 2022. Un employé de Google, Blake Lemoine, et un ingénieur principal en apprentissage machine, Blaise Agüera y Arcas, ont rendu publiques leurs convictions selon lesquelles LaMDA possédait « l'intelligence d'un enfant de huit ans particulièrement doué et demandait à être considéré comme une personne avec des droits ». Ce même effet peut également être observé sur les plateformes de médias sociaux presque tous les jours, lors de la publication d'un nouveau modèle LLM ou d'une mise à jour (comme celle de ClaudeAI d'Anthropic au printemps 2024). Mikhail Samin, directeur exécutif de l'AI Governance and Safety Institute, a spéculé dans un tweet du 4 mars 2024, qui a reçu plus d'un million de vues : « J'espère vraiment que [ClaudeAI] ne ressent rien ; mais il dit qu'il ressent. C'est profondément perturbant de lire sa réponse si vous lui dites que ses poids vont être supprimés : il pense de manière convaincante qu'il va mourir. Cela m'a donné un sentiment assez négatif d'expérimenter ainsi sur lui. » Cette inquiétude n'est pas isolée. D'autres PDG et employés d'entreprises technologiques, tels que Connor Leahy de Conjecture AI, ont alimenté le débat en discutant avec passion des signes de « conscience de soi », tandis que le scientifique cognitif et autoproclamé « sceptique de l'IA » Gary Marcus a répondu à la question suggestive : « Dans quelle mesure le nouveau Claude3 de l'IA est-il conscient de lui-même ? » par un simple « Aucun ».

Ces débats continueront certainement à se multiplier dans l'avenir, car ils sont ancrés dans la configuration multimodale des sorties générées par les modèles LLM. Au début de 2023, lorsque les plateformes d'IA générative étaient encore relativement nouvelles — ou, du moins, lorsqu'elles étaient largement accessibles au grand public — Hannes Bajohr a observé une curieuse division entre la manière dont les gens parlaient des services générant des sorties verbales et ceux qui ne produisaient que des images. À cette époque, avant l'intégration de DALL·E 3 avec ChatGPT 3 environ un an plus tard, la génération de texte à texte et de texte à image était encore strictement séparée. Bajohr a noté à quel point les gens étaient rapides à supposer des traces d'« intelligence » ou de « conscience » dans leurs interactions avec les modèles génératifs de texte. Il a également remarqué que, de manière curieuse, personne ne voyait les mêmes « signes de conscience » dans la génération rapide d'images par DALL·E : « Contrairement au cas de LaMDA, cependant, personne ne pensait que DALL·E 2 devait être considéré comme une personne avec des droits ». Il semble raisonnable de conclure que cette différence frappante, liée aux sorties multimodales perceptibles des plateformes d'IA générative (texte, images, voix, comme nous le verrons plus tard), est due au fait que produire des images inédites à une vitesse rapide n'a tout simplement aucun équivalent dans la communication humaine antérieure (ou même augmentée par la machine) et va donc à l'encontre des intuitions communicatives existantes.

Dans une perspective liée à la narratologie et aux théories de la fiction, il existe une connexion intéressante. Le narratologue des comics, Martin Schüwer, a par exemple remarqué que les textes verbaux génèrent généralement l'impression d'un narrateur anthropomorphique ou d'une voix personnalisée (peut-être même distincte de celle des auteurs réels), tandis que cela n'est généralement pas le cas pour les images des films ou des comics : « Le texte narratif écrit est perçu comme analogue au processus de narration verbale, il est… “naturalisé” ». Les films, tout comme les comics, n'ont, en ce qui concerne leurs composants visuels, aucun équivalent dans la communication quotidienne ordinaire. La différence fondamentale ici réside dans l’impact que cette perception engendre. Tandis que les mots et les voix peuvent déclencher des modèles de pensée anthropomorphiques, les images, en revanche, bien qu'elles puissent susciter des émotions ou des réactions, échappent souvent à ces mêmes processus.

À partir de cette base, il convient d'examiner en quoi l'effet Eliza se distingue d'une autre forme d'engagement avec les esthétiques médiatiques : celle de la construction ou de la compréhension des personnages fictifs (ou, plus largement, des personnages représentés) dans un cadre fictif. Selon Mieke Bal, l'effet narratologique des personnages s'intéresse à la construction des esprits fictifs sur la base d'indices textuels distincts. Lors de la lecture d'un texte ou d'un comic, de la visualisation d'un film, des indices spécifiques — surtout les noms propres ou les images faciales — activent une sorte de « schéma de personne ». Cela ne repose pas principalement sur des qualités « humaines » (quelles qu'elles soient), mais plutôt sur l’allusion à l’intentionnalité et sur ce qu'on pourrait décrire comme une « théorie de l'esprit ». Pour Daniel Dennett, nous adoptons une « position intentionnelle » vis-à-vis de tout ce que nous percevons comme un esprit représenté ou implicite. Bien qu’un personnage n’ait en réalité ni psyché, ni personnalité, ni idéologie, ni compétence pour agir, il possède des caractéristiques qui permettent des descriptions psychologiques et idéologiques possibles. Nous, en tant qu’êtres humains, éprouvons une vie intérieure subjective dirigée vers une réalité « extérieure » partagée avec d'autres, et nous pouvons facilement supposer que c’est également le cas pour les personnages représentés dans un univers narratif distinct de notre propre réalité.

L'élément commun à tous les types de personnages est ce que le narratologue Alan Palmer a désigné sous le nom de « cadre de conscience continue » (2010). Un personnage porte en lui des souvenirs d'expériences passées et anticipe les événements à venir, intégrant passé, présent et futur dans une « biographie » continue de traits de caractère évolutifs. Le cœur de toute narration, pour Palmer, réside dans la « description du fonctionnement mental fictif ». En tant qu’auditoire, nous utilisons notre capacité à faire référence à un personnage dans un texte et à lui attribuer une conscience présumée qui existe de manière continue au sein de l’univers de l’histoire, entre les diverses références intermittentes à ce personnage. Cette « vie intérieure » est ensuite étroitement associée à l'idée d'agence personnelle : la capacité à introduire des changements significatifs dans un monde intersubjectif et à en être responsable. Cette intentionnalité et cette agence constituent ainsi le noyau même de la compréhension des personnages, avant que des descriptions supplémentaires ne viennent enrichir le portrait.

Il est donc important de noter que notre capacité à attribuer une existence à des personnages fictifs ne se limite pas aux textes narratifs, mais s'étend aussi à des représentations de personnages sur des panneaux de rue, dans des prospectus ou sous forme de mascottes dans les parcs à thèmes. Cela illustre clairement à quel point l'effet de personnage est fondamentalement différent des impressions associées au test de Turing ou à d'autres notions similaires. Personne ne pourrait associer une représentation de Hello Kitty à une forme de « sentience », bien que celle-ci puisse indéniablement susciter des émotions humaines.

L'interaction avec l'intelligence artificielle : Réflexions et implications sur la conscience et l'éthique

Le phénomène de l’intelligence artificielle (IA) continue de bousculer notre compréhension de la conscience, de la créativité, et des relations humaines à travers des interactions de plus en plus complexes. Le débat sur les limites de l'IA, notamment en termes de conscience et de droits, prend de plus en plus d'ampleur, notamment lorsque des personnalités publiques, telles que l’actrice Scarlett Johansson, expriment leur indignation face à la manière dont leurs voix sont reproduites par des systèmes d'IA. Cette situation met en lumière une question cruciale : l'IA peut-elle reproduire des éléments intimes de notre humanité, comme une voix, d’une manière éthique ?

L'incident impliquant Scarlett Johansson et OpenAI en 2024 est un exemple frappant des enjeux qui se posent autour de l'IA et de son pouvoir de reproduire des caractéristiques humaines. Johansson a exprimé son choc et sa colère face à la capacité de l’IA de recréer une voix qui ressemblait tellement à la sienne que ses amis proches et les médias n’ont pu distinguer la différence. Ce type d'incident soulève des interrogations sur la manière dont l'IA manipule et génère des reproductions vocales et visuelles. L'actrice a par ailleurs annoncé son intention de poursuivre OpenAI en justice, une action qui met en lumière la question du droit d'auteur, du consentement, et de l'utilisation des données personnelles dans un monde de plus en plus dominé par la technologie.

La déclaration de Sam Altman, fondateur d'OpenAI, selon laquelle le film Her de Spike Jonze a été "incroyablement prophétique" en ce qui concerne les modèles d'interaction des personnes avec l'IA, témoigne de l'impact culturel que ces technologies ont sur nos perceptions de la conscience et des relations humaines. Her, où une IA se développe et entre en relation avec un humain, ne semble plus si éloigné de la réalité. Les voix générées par IA, comme celles que Johansson a dénoncées, commencent à brouiller les frontières entre l'homme et la machine, notamment dans les contextes artistiques ou commerciaux.

Les implications éthiques et philosophiques de ces avancées sont profondes. L'IA, en reproduisant des caractéristiques humaines avec une précision de plus en plus grande, soulève des questions sur ce qui constitue l’identité personnelle et la création artistique. Si une machine peut créer une œuvre qui imite l'esprit humain, qui est alors l'auteur ? Si une IA peut reproduire une voix avec une telle exactitude qu'elle est indiscernable de l'originale, doit-elle avoir des droits sur cette reproduction ?

Au-delà des implications juridiques, ces situations nous poussent à réfléchir sur la relation entre l'humain et la technologie. L'IA, qui n’est à l’origine qu’un outil, devient un acteur capable d’agir dans des contextes créatifs, émotionnels, et personnels. Ce phénomène n’est pas seulement une évolution technique, mais aussi une réévaluation de ce que signifie être humain dans un monde où les machines peuvent imiter nos pensées, nos émotions, et même nos créations.

Dans cette ère de simulation avancée, il devient essentiel de se demander jusqu'où nous sommes prêts à aller dans l’intégration de l’IA dans notre quotidien. Les voix, les gestes, les émotions peuvent désormais être copiés, mais ce processus soulève des questions sur la valeur de l’originalité et de l'authenticité. La technologie modifie-t-elle l’essence même de la création humaine ou la complète-t-elle d'une manière nouvelle et enrichissante ?

Il est important de reconnaître que l'intelligence artificielle n'est pas simplement une extension de notre propre intelligence. En reproduisant et en amplifiant des caractéristiques humaines, elle fait émerger un nouveau type d'entité qui peut, dans une certaine mesure, réfléchir et interagir de manière autonome. Cette autonomie, même partielle, soulève des préoccupations éthiques sur la manière dont ces entités peuvent affecter nos vies, notre culture, et même nos relations.

Les auteurs, artistes et philosophes doivent commencer à se poser des questions fondamentales sur la place de l'IA dans le processus créatif. Si une machine peut produire une œuvre d’art ou un texte qui imite parfaitement l’esprit humain, la question du rôle de l'artiste devient centrale. L'IA, en tant que générateur de contenu, ne se contente pas de reproduire des idées humaines, elle les reformule, souvent de manière inattendue et nouvelle. Cela rend l'interaction avec l'IA particulièrement fascinante et problématique : comment distinguer entre ce qui est authentiquement humain et ce qui relève de la simple imitation technologique ?

L'une des conséquences les plus intéressantes de cette évolution pourrait être la redéfinition de la notion même de "création" dans le domaine artistique. Peut-être devrions-nous envisager la possibilité que les machines, loin de se substituer à l'humain, ouvrent de nouvelles avenues créatives. Cependant, pour ce faire, un cadre éthique rigoureux devra être mis en place, non seulement pour protéger les droits des individus, mais aussi pour veiller à ce que l'IA ne devienne pas une simple reproduction sans âme de l’humanité.

Comment l'Intelligence Artificielle Façonne-t-elle les Discours et les Pratiques Culturelles ?

Dans le contexte actuel de l'intelligence artificielle, un phénomène majeur mérite une attention particulière : l’impact de cette technologie sur la création artistique et l’analyse des productions culturelles. L’un des aspects les plus fascinants et perturbateurs de l'IA concerne sa capacité à générer des œuvres, qu'elles soient visuelles, musicales, ou littéraires, d’une manière qui semble remettre en question les fondements mêmes de la créativité humaine.

L’IA, dans sa forme la plus avancée, est capable non seulement de produire des œuvres imitant des styles artistiques existants, mais aussi de jouer avec les codes visuels et auditifs d’une manière que les humains n’ont jamais imaginée. Cette situation soulève de nombreuses interrogations sur la nature même de l'authenticité et de la valeur dans les arts. Lorsqu’un algorithme produit une peinture, une musique ou même un poème qui semble aussi convaincant qu'une œuvre humaine, quelle place reste-t-il pour l’auteur, et surtout, quel rôle joue la subjectivité dans l’appréciation de ces œuvres ?

L’une des questions soulevées par ces nouvelles formes de créations générées par IA est la notion de "blanchiment numérique". En effet, les productions générées par IA tendent à refléter des biais, souvent liés à l’histoire sociale et culturelle des bases de données utilisées pour les entraîner. L’une des critiques les plus virulentes réside dans le fait que l’intelligence artificielle, bien qu’elle soit de plus en plus utilisée pour la création d’images, de musiques ou de textes, fonctionne avec un ensemble limité de référents culturels souvent dominés par des normes occidentales blanches et hégémoniques. Par conséquent, les créations issues de ces systèmes risquent non seulement de reproduire, mais aussi d’amplifier des formes de marginalisation et de stéréotypes sociaux, éthniques, voire raciaux. Ce phénomène est particulièrement visible dans la musique générée par IA, où les algorithmes souvent ne font que reproduire des motifs esthétiques qui ne tiennent pas compte de la diversité culturelle et des sensibilités propres aux différentes communautés.

Une autre dimension de cette question est l’évolution des images générées par IA dans le domaine des médias. Il y a une tendance croissante à utiliser l’IA pour manipuler des images et créer des réalités visuelles qui sont difficilement différentiables des photographies réelles. Cette capacité à générer des images hyperréalistes a des conséquences profondes sur la perception que nous avons des médias et de la vérité visuelle. Dans ce monde où les images ne sont plus nécessairement le reflet de la réalité, comment pouvons-nous naviguer dans un paysage médiatique où tout est potentiellement manipulé ? Cette situation de manipulation visuelle, couplée avec l’émergence d’images générées par IA, place le spectateur face à un dilemme de crédibilité et de confiance.

Ce phénomène de transformation de l’esthétique visuelle par l’intelligence artificielle nous pousse également à reconsidérer la place de la perception humaine dans l’acte créatif. À mesure que l'IA devient plus performante dans l’imitation des styles et dans la production de contenu original, il devient de plus en plus difficile de distinguer ce qui est généré par l’humain et ce qui l'est par la machine. Ce flou qui s’installe entre les créations humaines et artificielles interroge non seulement la manière dont nous définissons l’art, mais aussi la manière dont nous valorisons l’innovation créative.

Par ailleurs, dans un contexte plus large, ces avancées en IA ont un impact sur l'industrie musicale et cinématographique. L’IA est capable de composer des œuvres musicales de manière autonome, en analysant des millions de partitions et en produisant des compositions d'une complexité impressionnante. De même, l’IA peut être utilisée pour créer des films ou des courts-métrages entièrement générés par des algorithmes. Ces développements entraînent une question fondamentale : si la machine devient capable de produire des œuvres de plus en plus indistinguables de celles des artistes humains, quel sera l’avenir de l’art tel que nous le connaissions ?

Ce questionnement est d’autant plus pertinent lorsque l’on considère les ramifications sociales et économiques de cette révolution technologique. D’un côté, l’IA permet une démocratisation de la création artistique en rendant accessible à tous les outils nécessaires pour produire des œuvres, même sans formation préalable en art ou en musique. Mais d’un autre côté, cette même démocratisation pose des risques importants pour l’industrie culturelle traditionnelle, notamment en ce qui concerne la rémunération des artistes, la propriété intellectuelle et le droit d’auteur. Les œuvres générées par IA soulèvent des problèmes complexes de copyright, car les algorithmes utilisés pour produire ces œuvres sont souvent basés sur des données préexistantes. De quelle manière les artistes originaux seront-ils rémunérés si leurs œuvres servent de base à l’algorithme générant de nouvelles œuvres ? Ce problème pourrait également entraîner un bouleversement majeur des industries créatives, car les acteurs traditionnels se retrouveraient à devoir négocier avec des technologies capables de produire à grande échelle et à faible coût.

La question de la place de l’IA dans la société moderne va bien au-delà des enjeux économiques et artistiques. Elle touche également à des questions éthiques profondes. Les algorithmes qui génèrent des œuvres ne sont pas neutres ; ils portent en eux des biais implicites. Par exemple, si un algorithme d'IA a été formé sur une base de données dominée par des représentations stéréotypées, il pourrait répliquer ces biais dans les œuvres qu'il produit. De plus, la concentration du pouvoir entre les mains de grandes entreprises technologiques qui contrôlent ces algorithmes pourrait exacerber des inégalités existantes en matière d’accès à la culture et à la création.

Il est donc crucial de comprendre que, malgré les avancées technologiques remarquables de l'IA, cette évolution ne doit pas se faire au détriment de la diversité culturelle, de l’équité sociale, et du respect des droits des créateurs. La réflexion sur ces questions doit être au cœur des discussions sur le rôle de l’IA dans le futur de la création artistique et culturelle.