Les réseaux neuronaux artificiels (RNA) sont des systèmes informatiques inspirés du fonctionnement du cerveau humain, souvent comparés aux réseaux neuronaux biologiques. Comme d'autres outils d'apprentissage automatique, ils sont utilisés pour identifier des structures et des régularités dans des ensembles de données complexes. De nos jours, grâce à leur efficacité, ces réseaux sont intégrés dans une grande variété d'appareils quotidiens, allant des smartphones aux machines à laver, en passant par les systèmes de carburateurs de voitures. L'application la plus spectaculaire, cependant, demeure leur rôle dans le domaine de l'intelligence artificielle (IA).
Un réseau neuronal artificiel est constitué d'un grand nombre de composants identiques ou très similaires, appelés neurones, qui interagissent entre eux selon un mécanisme relativement simple, la fonction de seuil. En d'autres termes, les réseaux neuronaux fonctionnent sur la base d'une représentation distribuée de leur savoir. L'élément clé de leur performance n'est pas la spécialisation des composants individuels, mais plutôt la structure complexe de nombreux composants similaires et étonnamment simples qui offrent une performance collective et agrégée. De ce fait, les réseaux neuronaux sont des exemples typiques de systèmes complexes.
Le perceptron, qui a été proposé pour la première fois par Frank Rosenblatt en 1958, est un des modèles les plus simples de ces réseaux. Ce modèle a été conçu pour simuler les récepteurs de la rétine et constitue un prédécesseur des réseaux neuronaux modernes. Il consiste en une «réseau virtuel» qui comprend deux neurones d'entrée, un neurone caché et un neurone de sortie. Les connexions entre ces neurones sont initialement assignées à des valeurs numériques aléatoires, souvent comprises entre -1 et +1. Il est important de noter que ces connexions peuvent être représentées sous forme de matrice symétrique où les lignes et les colonnes désignent les neurones, et les entrées de la matrice représentent soit l'existence de la connexion (1 ou 0), soit sa force, autrement dit, le poids de la connexion. De cette manière, la transmission de l'excitation dans les RNA peut être calculée à l'aide de calculs matriciels.
Pour mieux comprendre le fonctionnement des RNA, prenons l'exemple d'une tâche d'apprentissage sur une fonction logique de type «OU inclusif». Cette fonction, souvent appelée OR, doit donner une sortie «vraie» (1) si l'un des deux inputs ou les deux sont vrais (1), et une sortie «fausse» (0) si les deux sont faux (0). L'objectif ici est d'apprendre à la machine à fournir les résultats appropriés lorsqu'elle est confrontée aux entrées possibles.
Le processus d'apprentissage commence par l'introduction des valeurs d'entrée (0, 0) dans le réseau. Ces valeurs sont ensuite traitées par le neurone caché en les multipliant par les poids des connexions. Le neurone caché additionne ces valeurs pondérées et compare la somme à un seuil. Si cette somme dépasse ce seuil, le neurone de sortie s'active, sinon il reste inactif. Le processus d'apprentissage se base sur cette comparaison entre la sortie générée et la sortie attendue (la cible), en ajustant les poids des connexions de manière itérative pour que les résultats des sorties générées coïncident avec les résultats attendus.
Dans notre exemple avec un perceptron, les premières entrées (0 et 0) donnent un résultat qui correspond déjà à la sortie attendue (0). Il n'y a donc pas de changement dans les poids. Lorsque les entrées suivantes (0 et 1) sont introduites, un ajustement des poids est nécessaire pour obtenir le bon résultat (1), ce qui marque le début du processus d'apprentissage. La machine répète ce processus pour chaque combinaison d'entrées, ajustant les poids à chaque étape pour minimiser l'erreur, c'est-à-dire la différence entre la sortie générée et la sortie cible.
Au fur et à mesure que les étapes se répètent et que les poids sont ajustés, le perceptron finit par apprendre à fournir la sortie correcte pour chaque combinaison d'entrées. Lorsque les poids atteignent un certain niveau, où les erreurs entre les sorties générées et attendues deviennent nulles, l'apprentissage est considéré comme terminé.
Le réseau, bien que simple, démontre la puissance des RNA dans l'apprentissage supervisé. Cependant, ce type de réseau, limité dans ses capacités par sa structure et ses poids fixes, ne peut pas résoudre des problèmes plus complexes nécessitant une hiérarchisation ou des représentations plus élaborées, telles que celles rencontrées dans l'intelligence artificielle avancée.
En effet, au-delà de ce modèle simple, les réseaux neuronaux modernes ont évolué pour inclure des couches cachées multiples, permettant de traiter des données beaucoup plus complexes. C’est notamment le cas des réseaux neuronaux profonds, ou Deep Learning, qui sont capables de gérer des tâches complexes comme la reconnaissance d’images, la traduction automatique, et bien plus encore. Ces réseaux ne se contentent pas d’ajuster des poids simples, mais construisent des représentations hiérarchiques des données, améliorant ainsi leur capacité à traiter des informations non linéaires.
Il est crucial pour un lecteur de comprendre que la véritable puissance des réseaux neuronaux réside dans leur capacité à généraliser à partir des données d’entraînement. L'apprentissage se fait par itération, et chaque ajustement des poids renforce la capacité du réseau à faire face à des situations inédites. Cependant, cette capacité à généraliser dépend de la qualité des données d’entraînement et du modèle choisi. Un mauvais choix de données ou une architecture inadéquate peut conduire à un phénomène appelé "overfitting", où le réseau apprend à mémoriser les données d’entraînement au lieu d’en extraire des principes généralisables.
Les Réseaux de Neurones et l’Émergence de l’Intelligence Artificielle : Comprendre l’Interaction des Composants
Les attentes suscitées par les promesses des machines intelligentes ont été largement exagérées, tout comme leurs démentis. Le terme « intelligence artificielle » a été introduit dans les années 1950, et un premier « hiver de l'IA », période de scepticisme généralisé et de réduction des financements, a eu lieu dans les années 1970. Cependant, l’introduction de la technologie des Transformers en 2017 (Vaswani et al. 2017), et en particulier son application aux modèles de langage de grande envergure (LLMs), a entraîné un tel bond de performance que quiconque interrogeant ChatGPT ou l'un des autres LLMs n'hésiterait probablement pas à associer ces systèmes à l'idée d’intelligence. Dans le domaine scientifique, il est désormais admis que certaines performances, telles que la gestion du contexte, la pensée par analogie, le suivi d’instructions ou la décomposition de relations complexes, correspondent à des comportements que l’on pourrait qualifier d’intelligents chez les humains. Il est donc supposé que le fameux test de Turing, qui stipule que l'intelligence artificielle est avérée lorsque l’interrogateur humain ne parvient pas à distinguer les réponses d’un programme informatique de celles d’un humain, a été réussi par GPT-4 (Biever 2023 ; Jones et Bergen 2024).
Cependant, comme nous le verrons en détail, le noyau de la technologie actuelle repose sur l'entraînement de réseaux neuronaux artificiels à calculer les probabilités selon lesquelles certains symboles, comme les lettres d’un mot, les mots d’une phrase ou les phrases d’un texte, seront suivis par d’autres lettres, mots ou phrases. Ces probabilités sont calculées à partir d'une quantité énorme de données d'entraînement, par exemple presque tous les textes disponibles sur Internet, avec une telle précision que les utilisateurs humains reçoivent des réponses largement satisfaisantes à leurs requêtes. Néanmoins, ces réponses, telles que celles d’un LLM à une question, ne reposent sur rien de plus que des probabilités agrégées. C'est pourquoi les LLMs et outils similaires sont souvent appelés des « perroquets statistiques », ce qui remet en question l’idée que l’intelligence humaine soit réellement en jeu.
Si l’on considère cependant que les humains, eux aussi, dépendent de la confrontation avec de grandes quantités de données pour apprendre ce qui fait d’eux ce qu'ils sont, et que nos connaissances et hypothèses sur lesquelles reposent nos décisions quotidiennes ressemblent souvent à de simples probabilités, alors la différence entre la façon dont l’intelligence des machines et celle des humains fonctionne pourrait ne pas être aussi grande que cela. Bien que je ne souhaite pas qualifier les humains de « perroquets statistiques », étant donné que tout au long de notre histoire, nous avons aimé nous décrire comme uniques et centraux, pour souvent apprendre que nous ne sommes pas si uniques après tout, je serais prêt à renoncer à réserver des caractéristiques telles que l’intelligence aux seuls humains. Cela dit, les titres des livres sont souvent plus percutants lorsqu’ils sont audacieux. J’accepte donc ici le terme « intelligence artificielle » comme un objectif (telos) du domaine de recherche discuté.
Les livres, en revanche, sont des médias lents. Le rythme rapide de l’évolution numérique, en particulier dans la recherche en IA, pose un défi majeur pour écrire un ouvrage censé être complet et à jour. L’intérêt croissant pour ce domaine et le nombre toujours croissant de chercheurs travaillant dans le monde entier sur de nouvelles méthodes et découvertes ont créé des dynamiques et des conditions particulières. Les informations sont généralement diffusées en ligne en premier dans ce domaine, et, en raison de la pression du temps, parfois non vérifiées par des pairs, voire non imprimées sur papier. De plus, de nombreux détails méthodologiques ne sont pas publiés par crainte de perdre un avantage concurrentiel sur le marché mondial. Écrire un « livre lent » sur le Machine Learning et l'IA pose donc plusieurs défis, rendant sage de se concentrer sur un domaine spécifique que les médias plus rapides pourraient négliger.
Une de ces approches se concentre sur les fondamentaux et les technologies préalables sur lesquelles reposent les méthodes actuelles, dans le but de fournir une base complète pour comprendre les développements les plus récents grâce à l'auto-apprentissage. Le livre couvre l’état de l'art fourni par des plateformes telles que ChatGPT-4o, Gemini 1.5 ou Claude 3.5. Cependant, de nouvelles versions et des ajouts sont introduits presque chaque semaine. Ce livre ne parviendra donc pas à couvrir toutes les dernières évolutions de manière opportune. Il s'agit d'une introduction à un domaine hautement dynamique et en constante évolution. Il vous faudra mettre à jour vos connaissances à partir de sources supplémentaires.
Ce livre possède également un caractère unique en raison de la profession de l’auteur, qui est scientifique des systèmes, spécialisé dans l’analyse et la programmation de modèles informatiques de systèmes complexes. Il repose sur l'hypothèse selon laquelle la plupart des méthodes et modèles de Machine Learning sont des systèmes complexes, comme les réseaux neuronaux qui constituent la technologie de base des outils IA d’aujourd'hui. Cela requiert une explication sur ce que les sciences des systèmes peuvent offrir pour aider à comprendre le fonctionnement de ces outils.
Les sciences des systèmes constituent une discipline scientifique unique qui soutient fondamentalement l’idée que les composants interagissants peuvent agrégés en phénomènes qui ne peuvent être compris en analysant les composants isolément. Par exemple, considérons les particules d’un gaz. Leur mouvement et interaction génèrent de la pression et de la température, des caractéristiques observables du gaz. Cependant, ces caractéristiques ne peuvent être observées ou mesurées sur une particule individuelle. Une particule de gaz seule n'a pas de pression. La pression apparaît à travers l’interaction. Les scientifiques des systèmes affirment que la pression émerge.
Un scientifique des systèmes soulignerait donc que la capacité des réseaux neuronaux à identifier des motifs dans de grands ensembles de données, ainsi que les capacités semblables à l’intelligence des Transformers pré-entraînés génératifs (GPTs), émergent de l’interaction de leurs composants – les neurones du réseau. En d'autres termes, l’intelligence, qu’elle soit humaine ou artificielle, est considérée comme étant le résultat de l’interaction. Elle ne peut être comprise en examinant les composants, comme les neurones, isolément. Cela donne une première explication quant à la difficulté d'analyser et de comprendre le fonctionnement des réseaux neuronaux. Les réseaux neuronaux ne peuvent pas être démontés pour en comprendre le fonctionnement, comme on le ferait avec une machine mécanique. Analyser les composants isolément ne révélera pas les effets qui nous intéressent.
Un autre concept des sciences des systèmes qui peut aider à comprendre le fonctionnement des outils IA est l'attracteur. Les interactions à partir desquelles un système avec des qualités ou des capacités spécifiques peut émerger commencent souvent par un enchevêtrement de composants interagissant entre eux. À cet état initial, les composants peuvent se heurter de manière chaotique et influencer les autres composants de manière désordonnée jusqu'à ce qu'après un certain temps, ils trouvent une sorte de relation entre eux où les forces opposées sont équilibrées. Ces relations sont appelées équilibres, souvent illustrées par une bille roulant dans un bol jusqu'à ce qu’elle trouve l’équilibre au point le plus bas. Les physiciens appellent cela un puits de potentiel. Lorsque la bille est légèrement déplacée de ce point bas, par exemple en secouant le bol, elle suivra la gravité et retournera au point le plus bas. L'équilibre, ou le point le plus bas, agit donc comme un attracteur. Il attire la bille et guide ses mouvements dans le bol.
Les équilibres de ce type se trouvent dans de nombreux contextes. Les scientifiques des systèmes ont même tendance à penser que notre monde, ou plus précisément tout ce que nous percevons comme stable dans notre monde, est affecté par de tels équilibres. Le mouvement des planètes dans notre système solaire et leurs relations en sont le résultat après des millions d’années de mouvement chaotique. À une échelle plus petite, notre ordre social peut être vu comme un équilibre maintenu et continuellement régénéré par des individus en interaction avec des désirs et des plans conflictuels. Le point clé est qu'une fois que de tels équilibres sont établis, les systèmes suivent des dynamiques propres qui déterminent leur stabilité et leur évolution.
L'impact des modèles linguistiques sur la recherche scientifique et la société : une nouvelle ère pour l'intelligence artificielle
Les modèles linguistiques de grande taille (LLM), tels que ceux développés par OpenAI, ont marqué un tournant dans de nombreuses pratiques scientifiques. Ce n’est pas seulement leur capacité à traiter des textes en grande quantité qui les rend précieux, mais aussi leur aptitude à comprendre et générer du code informatique. Un tel développement permet de considérablement réduire le temps et les efforts consacrés à des tâches qui étaient autrefois considérées comme des obstacles dans la recherche scientifique. Les scientifiques, souvent peu formés au codage informatique, n'ont plus besoin de recourir systématiquement à des ingénieurs en logiciel pour accomplir des calculs complexes ou générer des graphiques. Des outils comme GitHub Copilot ont simplifié ce processus, permettant aux chercheurs de se concentrer davantage sur la réflexion créative que sur la programmation.
De plus, des outils comme Whisper, un modèle de reconnaissance vocale et de transcription développé par OpenAI, ouvrent de nouvelles possibilités en permettant de convertir directement des fichiers audio en textes. Dans le domaine de la visualisation et de la création, des outils tels que Midjourney, DALL-E, et Stable Diffusion, bien que parfois éloignés des préoccupations scientifiques immédiates, facilitent la création d'images et de vidéos à partir de textes, offrant ainsi aux chercheurs une nouvelle forme de représentation visuelle de leurs idées.
Cependant, ces progrès technologiques soulèvent également des préoccupations, notamment en ce qui concerne la qualité des informations générées par ces outils. Les LLMs sont conçus pour prédire les tokens suivants dans une séquence de texte en fonction des probabilités calculées à partir de données d'entraînement. Mais cette approche peut conduire à des erreurs, notamment lorsque les modèles sont confrontés à des informations pour lesquelles ils n'ont pas été correctement formés. Ce phénomène, connu sous le nom de "hallucination", se manifeste par des réponses qui, bien que plausibles, sont en réalité incorrectes ou dénuées de sens. Cela est particulièrement problématique lorsque ces modèles sont utilisés dans des contextes scientifiques, où l'exactitude est essentielle. Par exemple, lorsque l’on demande à un modèle de multiplier de grands nombres, il peut donner une réponse erronée, car il est peu probable que cette multiplication ait été incluse dans les données d’entraînement de manière précise.
L'intégration des GPTs avec des outils externes, tels que des bases de données ou des calculateurs, a permis de réduire ces erreurs. Cependant, le véritable défi réside dans la capacité de ces modèles à reconnaître leurs propres limites et à déterminer quand leurs réponses peuvent être erronées. Le problème devient encore plus complexe lorsque les modèles sont utilisés pour des prévisions ou des généralisations dans des domaines peu connus ou mal documentés.
Outre leurs applications en traitement du langage naturel, les modèles basés sur les transformateurs, comme les GPT, sont également utilisés dans des domaines variés tels que la prévision des séries temporelles, la création musicale ou la prédiction de la structure des protéines. Cette dernière application, par exemple, pourrait révolutionner les traitements médicaux, offrant une aide précieuse pour comprendre les maladies et développer de nouveaux médicaments. L’IA a ainsi le potentiel de faire progresser la science à des niveaux que l'on n'aurait pas imaginés il y a encore quelques années.
Mais ces avancées suscitent des interrogations sur l'avenir de l'intelligence artificielle. Les progrès rapides des technologies d'IA soulèvent la question de leur rôle dans l'évolution vers une intelligence artificielle générale (AGI). La capacité des systèmes d'IA à s'auto-améliorer, en utilisant des outils existants pour créer de nouvelles versions plus performantes, renforce les inquiétudes quant à la singularité, un moment où l'IA surpasserait l'intelligence humaine. Si certains considèrent que des étapes importantes ont déjà été franchies, comme le passage du test de Turing, il est indéniable que cette évolution rapide pourrait entraîner des transformations profondes dans de nombreux secteurs, y compris dans la manière dont la recherche est conduite.
Enfin, il est impossible de discuter des avancées en intelligence artificielle sans évoquer les enjeux éthiques qui les accompagnent. Le recueil de données et la prise de décisions automatisée, souvent perçues comme inoffensives, peuvent conduire à des dérives dangereuses. Le cas des outils utilisés pour évaluer le risque de récidive dans le système judiciaire illustre parfaitement ce problème. L'algorithme utilisé, bien qu'efficace en apparence, a révélé des biais raciaux significatifs, avec des prédictions erronées concernant la probabilité de récidive des prévenus en fonction de leur origine ethnique. Ces biais, issus des données d'entraînement, soulignent les dangers potentiels d'une adoption aveugle de l'IA dans des contextes sensibles, où des décisions peuvent avoir un impact direct sur la vie des individus.
Les discussions autour de l'IA et de ses implications sociales sont de plus en plus fréquentes et alimentent un débat global sur la régulation et la gouvernance de ces technologies. Alors que l’IA continue d’évoluer et d’être déployée dans des domaines de plus en plus divers, il devient crucial d’aborder ces questions avec sérieux, en veillant à ce que les outils d’intelligence artificielle soient alignés sur des valeurs humaines fondamentales, et ce, afin d’éviter une réintroduction des discriminations sociales et des injustices dans les processus de prise de décision automatisée.
Comment les modèles d’apprentissage par renforcement (RL) s’adaptent-ils aux environnements dynamiques et aux tâches complexes ?
L'apprentissage par renforcement (RL) repose sur l'idée fondamentale de maximiser les valeurs Q pour guider un agent vers un objectif. Dans un environnement statique, un agent peut suivre un modèle déterministe qui, à travers une table Q entièrement remplie, lui permet de prendre des décisions efficaces en suivant le gradient des valeurs Q croissantes jusqu'à l'objectif. Ce processus atteint sa conclusion lorsque l’agent a appris à atteindre l'objectif de manière fiable. Toutefois, dans un monde en constante évolution, où les objectifs ou les chemins vers ceux-ci peuvent changer au fil du temps, ce modèle doit être constamment mis à jour pour rester pertinent et optimal. Ce phénomène nécessite non seulement une exploitation des connaissances acquises, mais aussi une exploration continue de nouvelles options.
Un des moyens d'intégrer cette exploration dans le modèle est l'introduction d'un paramètre 𝜖 dans l'équation de Bellman, qui ajuste la probabilité de sélectionner une action en fonction de la valeur Q actuelle, en équilibrant entre l'exploitation de ce qui a été appris et l'exploration de nouvelles actions possibles. Cette flexibilité est cruciale pour permettre à l'agent d’adapter ses stratégies aux circonstances changeantes, tout en restant performant sur une large gamme de tâches complexes et intéressantes. Un exemple frappant de cette approche est le projet "AI Economist", dans lequel RL est utilisé pour optimiser les politiques fiscales en équilibrant des objectifs souvent contradictoires : améliorer l'égalité tout en augmentant la productivité.
L'un des domaines dans lesquels l'apprentissage par renforcement a connu des avancées notables est son intégration avec des réseaux de neurones artificiels, un concept souvent désigné sous le terme Deep-Q-Learning. Des projets comme AlphaGo, qui a remporté en 2016 la victoire contre le maître du jeu de Go, Lee Sedol, ou AlphaZero, qui a surclassé AlphaGo en 2017, sont des exemples illustrant la puissance de ces algorithmes. Ces systèmes d'IA, développés par DeepMind, sont capables de jouer à des jeux de société complexes sans nécessiter d'apprentissage préalable basé sur les stratégies humaines. Au lieu de cela, ils apprennent à travers une série de matchs contre des copies d’eux-mêmes, accumulant progressivement la connaissance nécessaire pour exceller dans ces jeux.
Une avancée encore plus impressionnante dans ce domaine est MuZero, un algorithme qui, contrairement à ses prédécesseurs, apprend à jouer à des jeux sans être préalablement informé des règles. Ce modèle représente un exemple de "découverte" autonome, où l’algorithme comprend par lui-même la dynamique du jeu simplement en interagissant avec l'environnement. Ce type de système est particulièrement puissant, car il ne dépend pas d’une pré-conception humaine, ce qui le rend extrêmement flexible et capable d'aborder des problèmes d'une complexité considérable.
Parallèlement, un autre des grands accomplissements de DeepMind est AlphaFold, un réseau de neurones profond capable de prédire la structure 3D des protéines avec une précision inédite. AlphaFold a dominé le classement du Critical Assessment of Techniques for Protein Structure Prediction (CASP) à deux reprises, en 2018 et 2020, et représente une application révolutionnaire de l’IA dans le domaine de la biologie.
Cependant, malgré la puissance de ces modèles, l'apprentissage par renforcement souffre d'un défaut majeur : l'absence d’informations sur le processus menant à l’objectif. Contrairement à un professeur qui fournirait des retours d’information détaillés sur les erreurs et réussites d'un étudiant, l’apprentissage par renforcement classique ne donne des récompenses qu'après l’atteinte d’un objectif, ce qui peut entraîner des périodes d'apprentissage très longues, voire impraticables, dans certains cas. Ce problème se complique encore dans des tâches complexes, où l’agent doit accumuler des connaissances sur de nombreuses tentatives avant de réussir.
Une manière de pallier ce défaut est l’ingénierie de récompenses, qui consiste à attribuer des récompenses non seulement à l'atteinte de l’objectif final, mais également à certaines étapes intermédiaires qui mènent à l'objectif, comme le mouvement de balancement nécessaire pour atteindre une vitesse suffisante avant d’entamer une montée. Cela permet de guider l'agent dans son apprentissage, mais cette approche exige une connaissance préalable du domaine, ce qui n'est pas toujours disponible. Une autre méthode consiste à utiliser les expériences passées, y compris les tentatives échouées, pour générer un modèle plus précis des actions nécessaires pour atteindre l’objectif. Ce type d’apprentissage s’appelle "Hindsight Experience Replay" (HER), et il permet de tirer des enseignements de ce qui n'a pas fonctionné, en intégrant des données fictives dans le modèle du monde, basées sur des hypothèses sur ce qui aurait pu se passer dans des circonstances différentes.
Toutefois, un défi central du RL reste l'exploration de l’espace des états, c’est-à-dire l’ensemble de toutes les actions possibles dans une situation donnée. Même des tâches apparemment simples, comme conduire une voiture, peuvent entraîner un espace des états immensément vaste, rendant impossible l'exploration complète de toutes les actions possibles. L'une des solutions envisagées dans ce contexte est l'Apprentissage par Renforcement Inverse (Inverse Reinforcement Learning - IRL), qui permet de dériver une fonction de récompense préliminaire à partir du comportement observé d’un agent, comme un humain. Par exemple, pour l’apprentissage de la conduite autonome, l’IRL pourrait extraire une fonction de récompense d’un ensemble de données de conduite humaine, fournissant ainsi un modèle de récompense simplifié, sans la nécessité de définir exhaustivement toutes les actions "correctes" du conducteur.
Il est important de noter que ces modèles d'apprentissage par renforcement sont loin d’être parfaits et rencontrent de nombreuses limitations, notamment lorsqu'il s'agit de tâches impliquant des environnements dynamiques, des objectifs flous ou des actions imprévisibles. Toutefois, la flexibilité et la capacité d’adaptation des approches modernes du RL, en particulier lorsqu’elles sont couplées avec des réseaux de neurones profonds, offrent des perspectives impressionnantes pour aborder des problèmes extrêmement complexes, à la fois dans les jeux, la biologie et au-delà.
Quel rôle les moteurs alternatifs et les nouvelles transmissions jouent-ils dans l'avenir des véhicules commerciaux ?
L'exceptionnalisme américain : De l'idéalisme à la crise
Comment représenter la nature à travers le dessin : Exploration de formes et de textures

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский