La manipulation des images numériques a ouvert un débat important parmi les théoriciens et les philosophes, particulièrement au moment où les écrivains influencés par Jean Baudrillard ont abordé des concepts tels que la "déréalisation" et "la perte du réel". Ces idées reposaient sur deux hypothèses majeures : d'une part, que les images créées numériquement seraient bientôt indiscernables des photographies, et d'autre part, que la principale manière dont les gens interagissent avec les photographies est en tant que documents, des archives visuelles supposées être des témoins fidèles d'une réalité antérieure.

Cependant, alors que ces idées étaient largement acceptées, des voix comme celle de Michelle Henning, dans ses réflexions sur l'évolution de la photographie numérique, soulignent une nouvelle inquiétude. Il ne s'agit pas seulement de la prolifération de fausses images, mais plutôt du déclin du consensus autour de la vérité que l'image photographique était censée incarner. La photographie, une fois perçue comme une simple reproduction objective du monde, devient une interface fluide entre la réalité et ses multiples reconstructions possibles. Le défi majeur réside dans le fait que cette transformation conduit à une remise en question de notre confiance dans les images elles-mêmes.

Les progrès rapides de la technologie, notamment avec les caméras intelligentes comme celles du Google Pixel 9, illustrent cette évolution. L'introduction de fonctionnalités d'IA dans les appareils photo, qui permettent de manipuler la réalité à un degré sans précédent, ne se contente pas de proposer des filtres ou des ajustements esthétiques : elles permettent de reconstruire des scènes entières, redéfinissant ainsi ce que signifie "capturer" un moment. Par exemple, un utilisateur peut désormais choisir, après avoir pris une photo, de modifier l'exposition, les couleurs ou même les objets présents dans l'image, avec des résultats qui étaient inimaginables il y a seulement quelques années. En conséquence, ce qui était jadis un simple témoignage visuel du monde devient un espace où l'intention créative de l'utilisateur et les algorithmes d'intelligence artificielle interagissent pour réécrire ce qui est perçu comme "réel".

La notion de "réalisme affectif", telle qu'exposée par Henning, ajoute une dimension supplémentaire à cette transformation. Ce concept met en lumière la façon dont les émotions et les affects influencent non seulement la manière dont nous percevons les images, mais aussi la manière dont celles-ci peuvent être manipulées pour évoquer des sentiments spécifiques. L'émotion, ici, devient une composante essentielle de la construction de la réalité visuelle. Les images générées par l'IA, en particulier celles qui sont créées à partir de combinaisons de diverses sources, apparaissent souvent comme des rêves visuels, où l'inconscient collectif se manifeste sous forme d'images composites qui échappent à toute notion de vérité simple. L'IA, dans ce contexte, ne se contente pas de copier ou de répliquer le monde ; elle l'invente, le transforme et le module en fonction des attentes émotionnelles du spectateur.

Cette dynamique n'est pas sans rappeler les théories de Freud sur les rêves, où la condensation des images symbolise une transformation du réel. Les créations visuelles générées par IA peuvent être vues comme une forme moderne de condensation : un mélange de réalités, de souvenirs et d'éléments issus de l'imaginaire collectif, qui sont recomposés pour créer des visions nouvelles, parfois perturbantes, mais aussi étrangement familières. Cela rappelle les photographies composites de Francis Galton, qui cherchaient à représenter des types humains à travers l’assemblage de multiples visages. La "réalité" devient alors un terrain mouvant, où ce qui est perçu dépend à la fois de notre subjectivité et de l’intervention des technologies.

Ainsi, à l’ère numérique, il devient crucial de repenser non seulement ce que les images nous disent de la réalité, mais aussi ce qu’elles nous cachent. En manipulant l’image, la technologie ne cherche pas seulement à la rendre plus belle ou plus fidèle, mais à la redéfinir selon un nouveau cadre. Cela modifie profondément notre rapport à l'image et à la réalité elle-même. L'image numérique devient un moyen de jouer avec la perception, de tordre la vérité et d’explorer les frontières entre le réel et l'imaginaire. Le regard de l'individu, influencé par des émotions et des attentes, interagit avec cette technologie de manière à rendre chaque image une expérience subjective et unique.

Les implications sont vastes. Non seulement l'image, traditionnellement un moyen d'enregistrer et de préserver des moments spécifiques dans le temps, devient un terrain de jeu pour la manipulation créative, mais le concept même de "réalité" devient élastique. Cela n'affecte pas seulement la manière dont nous consommons les images, mais aussi comment nous les créons et les comprenons. Le défi à venir réside dans la manière dont cette flexibilité sera perçue : serons-nous capables de maintenir un certain respect pour une vérité visuelle, ou l’ère de l'image manipulée et reconstruite mettra-t-elle définitivement fin à l'idée de la photographie comme un reflet fiable du monde ?

Comment l'IA devient-elle une parodie de l'intelligence humaine ?

Les modèles de langage moderne, comme ceux que l'on trouve dans ChatGPT ou d'autres plateformes génératives, ont pris une place prépondérante dans l'imaginaire social et technologique. Mais malgré leur prétendue intelligence, ces outils révèlent parfois une forme d'"absurdité artificielle", qui déconcerte plus qu'ils n'éclairent. Ce phénomène peut être observé dans des situations où, par exemple, l'IA échoue à répondre correctement à des demandes simples, produisant des résultats qui, bien qu'ayant l'apparence d'une compréhension, semblent manifestement déconnectés de toute rationalité humaine. L'une des illustrations les plus célèbres de ce "stupidité artificielle" s'est produite lorsque ChatGPT, après avoir intégré DALL·E, a tenté de produire une image d'une "GPU moderne dans le style de Botticelli". La plateforme, initialement réticente à répondre à une telle requête, a justifié son échec en expliquant que le style de Botticelli n'était pas adapté à un sujet technologique. Ce fut seulement après plusieurs relances et encouragements du chercheur Fabian Offert que l'image attendue a finalement été générée. Offert a d'ailleurs commenté ce processus de façon ironique : « Quelle manière stupide de produire des images ».

Ce type d'interaction, où l'IA semble incapable de répondre à une demande évidente, met en lumière la dissonance entre l'apparente sophistication des algorithmes et leurs limites réelles. Ce contraste entre l'ambition de produire des résultats "intelligents" et l'absurdité de certains de ses échecs révèle la complexité sous-jacente de ces technologies. Lorsque ChatGPT, dans des exemples comme la demande de produire une image de "un hamburger sans fromage", continue de générer des images avec du fromage malgré les instructions, l'effet comique qui en résulte offre un contrepoint à l'illusion de compétence souvent véhiculée par ces plateformes.

Il est facile de tomber dans le piège de l'anthropomorphisation, en attribuant à l'IA des traits humains, des émotions et des intentions. Cependant, les échecs "stupides" de l'IA peuvent précisément servir de contre-sort à cette tendance. Lorsque l'IA produit des résultats manifestement erronés tout en maintenant un ton confiant, elle déstabilise cette illusion de personnalité ou de conscience derrière les interfaces. Au lieu de susciter l'empathie ou la fascination, ces "erreurs" comiques conduisent à une prise de conscience de la déconnexion fondamentale entre l'humain et la machine.

Le phénomène du "red teaming", où des individus ou des groupes testent la vulnérabilité d'une entité en simulant des attaques, est également pertinent dans ce contexte. Bien que ces tests soient souvent perçus comme des exercices nécessaires pour améliorer la sécurité, dans le domaine de l'IA, ils peuvent également dévoiler les failles inhérentes des systèmes. Cependant, dans ce cas précis, les erreurs "stupides" de l'IA ne sont pas un simple sous-produit des tests, mais une réflexion parodie de la prétendue "intelligence" des machines.

Les exemples d'interactions où l'IA semble confondre les éléments les plus simples du langage humain peuvent être considérés comme un rappel utile : derrière chaque interface se trouve un algorithme qui, bien qu'il semble imiter l'intelligence humaine, reste fondamentalement déconnecté des aspects émotionnels et sociaux qui définissent la véritable compréhension. Les IA modernes, même lorsqu'elles génèrent des textes ou des images, n'ont aucune véritable conscience de ce qu'elles produisent. Elles fonctionnent uniquement sur la base de modèles statistiques, générant des sorties à partir de données préexistantes sans aucune notion de responsabilité ou d'intention.

Cette déconnexion, loin de réduire l'impact de ces technologies, pourrait offrir une opportunité unique pour réexaminer notre relation avec l'intelligence artificielle. Tandis que les machines continuent d'évoluer, il devient crucial de rester conscient de la manière dont elles redéfinissent les notions d'intelligence et de créativité. À travers ces "stupidités" artificielles, nous sommes confrontés à une version de l'intelligence qui, bien qu'impressionnante par sa capacité à simuler des dialogues et des tâches complexes, reste fondamentalement étrangère à la véritable cognition humaine.

En fin de compte, ce que l'on peut tirer de ces interactions, c'est que l'intelligence artificielle, dans sa forme actuelle, est plus proche de la performance théâtrale que de l'esprit humain. La notion d'agir ou de "prétendre" semble plus appropriée que celle de créer ou de comprendre. Dans cette optique, une réflexion sur les esthétiques de l'IA pourrait être essentielle pour comprendre comment ces technologies s'inscrivent dans notre paysage culturel et social.