Es ist faszinierend, sich vorzustellen, dass bewusste Wesen seit zwanzig Millionen Jahren existieren, und gleichzeitig die erstaunlichen Fortschritte zu betrachten, die Maschinen in den letzten tausend Jahren gemacht haben. Alan Turing, ein Pionier der Informatik, war sich dieses Entwicklungspotenzials durchaus bewusst. Bereits 1936 beschäftigte er sich mit den formalen Eigenschaften eines universellen Rechners, der noch gar nicht existierte. In den 1950er Jahren formulierte er den berühmten „Turing-Test“, um die Intelligenz von Maschinen zu definieren – lange bevor Computer mit Bildschirmen oder Tastaturen ausgestattet waren.
Irving J. Good, ein Mathematiker und enger Mitarbeiter von Turing während des Zweiten Weltkriegs, brachte 1965 in seinem Aufsatz „Spekulationen über die erste ultraintelligente Maschine“ eine Theorie vor, die stark an Science-Fiction erinnerte. Er definierte eine „ultraintelligente Maschine“ als ein System, das in der Lage ist, alle intellektuellen Aktivitäten eines Menschen weit zu übertreffen. Da der Entwurf von Maschinen eine dieser intellektuellen Aktivitäten ist, könnte eine solche ultraintelligente Maschine sogar noch bessere Maschinen entwerfen. Diese „Intelligenzexplosion“, wie Good sie nannte, würde unweigerlich dazu führen, dass die Intelligenz des Menschen weit hinter der der Maschinen zurückbliebe. Die erste ultraintelligente Maschine wäre demnach die letzte Erfindung, die der Mensch je machen müsste – vorausgesetzt, sie ist genügend „gehorsam“, um uns zu zeigen, wie wir sie kontrollieren können.
Dieser Gedanke steht im Einklang mit dem Konzept der „technologischen Singularität“, das heute von vielen Philosophen der Wissenschaft diskutiert wird. Es handelt sich dabei um den hypothetischen Moment, in dem das technische Wachstum so rasant voranschreiten könnte, dass es für den Menschen unkontrollierbar und unverständlich wird. Im Bereich der Künstlichen Intelligenz (KI) bezieht sich diese Sorge auf die Möglichkeit, dass ein Computerprogramm eine verbesserte Version von sich selbst schreibt und damit eine Kettenreaktion auslöst. Heute scheint dies keine weit hergeholte Idee mehr zu sein. Programme wie GPT-4 können bereits sehr gute Python-Programme schreiben, was der ursprünglichen Vorstellung von Turing und Good erstaunlich nahekommt.
Die Geschwindigkeit, mit der sich die Technologie entwickelt, ist ebenso entscheidend wie ihre Richtung. Samuel Butler, ein Pionier in der Diskussion über die Zukunft der Maschinen, widmete in seinem Werk „Erewhon“ drei ganze Kapitel der Entwicklung von Maschinen. Er stellte die Frage, die heute viele Forscher beschäftigt: Wie werden wir in der Lage sein, autonome Maschinen langfristig zu kontrollieren, wenn ihre Entwicklung so rasant verläuft? In den letzten Jahren sind die Maschinen in ihrer Entwicklung zu einer Form von Intelligenz vorgestoßen, die unser Verständnis weit übersteigt. Die Frage, die sich dabei stellt, ist nicht nur, ob Maschinen „wie wir“ denken können, sondern auch, warum sie aufhören sollten, sobald sie diese Stufe erreicht haben. Und ob wir in der Lage sein werden, sie zu verstehen und zu kontrollieren, wenn sie diese Stufe überschreiten.
Ein wichtiger Punkt ist, dass die Künstliche Intelligenz, die wir heute erleben, in den letzten fünf Jahren eine rasante Entwicklung durchgemacht hat. Heute sind intelligente Maschinen ein Produkt dieser letzten fünf Jahre. Sind wir bereit für das, was als Nächstes kommt?
Die Entwicklung intelligenter Maschinen betrifft jedoch nicht nur die Maschinen selbst und ihre Konstrukteure, sondern auch die Maschinen selbst als „Akteure“ in dieser Geschichte. Es ist von entscheidender Bedeutung, ihr „Standpunkt“ zu verstehen – was sie wissen und können. Wir müssen sowohl ihr inneres Verhalten als auch ihre äußeren Reaktionen untersuchen. In den nächsten Kapiteln werden wir uns dieser Forschung widmen, die in der menschlichen Forschung vergleichbar mit den Bereichen der Neurowissenschaften und der Psychologie ist. Doch noch immer fehlen uns die konzeptionellen Werkzeuge, um diese Systeme richtig zu begreifen. Unsere Fähigkeit, diese Maschinen zu kontrollieren, hängt entscheidend davon ab, wie schnell wir diese Werkzeuge entwickeln können.
Die Frage, die sich dabei stellt, ist: Wie verstehen diese Maschinen die Welt, und wie stellen sie ihre eigene Welt dar? Hierzu ist es notwendig, ihre „inneren Organe“ zu untersuchen, um zu verstehen, was sie wissen und welche Funktionen sie ausführen. Ein faszinierendes Beispiel liefert Geof Hinton, der kürzlich sagte, dass diese Maschinen, die wir geschaffen haben, so anders sind als wir, dass man sich fast vorstellen könnte, sie seien Außerirdische, die unter uns leben. Wenn wir tatsächlich auf Außerirdische stoßen würden, wäre unser erster Impuls, alles über sie zu erfahren. Das gleiche sollten wir auch über die „Aliens“ tun, die wir erschaffen haben: die Sprachmodelle. Diese Maschinen sind mehr als nur Gesprächspartner. Sie sind in der Lage, komplexe, intelligente Verhaltensweisen zu unterstützen, die weit über die reine Konversation hinausgehen. Doch was wissen sie über uns? Und was wissen wir über sie? Unsere Zukunft könnte davon abhängen.
Die Kontrolle und das Verständnis dieser Maschinen ist also nicht nur eine technische Herausforderung, sondern eine existenzielle Frage für die Menschheit. Sie zu verstehen, wird entscheidend sein, nicht nur um ihre Entwicklung zu fördern, sondern auch um sicherzustellen, dass wir die Kontrolle behalten, wenn ihre Intelligenz eines Tages ein Niveau erreicht, das jenseits unserer eigenen Fähigkeiten liegt.
Wie Sprachmodelle die Welt verstehen: Eine tiefere Einsicht in die Funktionsweise von BERT und anderen Modellen
Die Sprachmodelle von heute, wie BERT und seine größeren Nachfolger, bieten faszinierende Einblicke in die Art und Weise, wie Maschinen Sprache verstehen und die Welt um sie herum modellieren. Diese Modelle, die auf künstlicher Intelligenz und maschinellem Lernen basieren, haben sich als bemerkenswerte Werkzeuge für die Sprachverarbeitung etabliert. Doch wie genau erlangen sie ihr Verständnis? Ein Blick auf einige der neuesten Forschungsergebnisse hilft, die Mechanismen zu entschlüsseln, die hinter diesen erstaunlichen Systemen stecken.
Ein Experiment von 2019, das auf BERT basierte, beleuchtet, wie die einzelnen Module eines Sprachmodells zunehmend spezialisierte Aufgaben übernehmen, die auch Teil der traditionellen linguistischen Analyse sind. In einer Untersuchung wurde festgestellt, dass BERT in der Lage ist, die Schritte eines klassischen Sprachverarbeitungs-Pipelines nachzubilden. Diese Pipeline umfasst Aufgaben wie die Wortartbestimmung, das Parsing von Sätzen, die Erkennung von benannten Entitäten und die Auflösung von Referenzen, welche in der traditionellen linguistischen Analyse als wesentliche Bestandteile gelten. Es zeigte sich, dass die grundlegenden syntaktischen Aufgaben früh in den niedrigen Ebenen des Modells abgewickelt werden, während die semantischen Aufgaben in höheren Ebenen des Netzwerks bearbeitet werden.
Die Verteilung der Aufgaben zeigt auf, dass syntaktische Informationen stärker lokalisiert sind und sich auf wenige Schichten konzentrieren, wohingegen semantische Informationen über das gesamte Netzwerk verteilt sind. Diese Entdeckung verdeutlicht eine interessante Eigenschaft von Sprachmodellen: Während die tieferen Schichten der Modelle grundlegende grammatikalische und syntaktische Regeln lernen, entwickeln die höheren Schichten ein komplexeres Verständnis, das es den Modellen ermöglicht, kontextuelle und semantische Nuancen zu erkennen.
Ein weiteres wichtiges Experiment von Anthropic, das 2024 durchgeführt wurde, befasst sich mit der sogenannten mechanistischen Interpretierbarkeit von Sprachmodellen. In diesem Fall konnte das Unternehmen feststellen, dass in den mittleren Schichten des Modells Claude "Symbole" aktiviert werden, die bestimmte Entitäten wie die Golden Gate Bridge repräsentieren, unabhängig davon, in welcher Sprache sie erwähnt oder in welchem Kontext sie präsentiert werden. Diese Entdeckungen legen nahe, dass Sprachmodelle nicht nur über grammatikalisches Wissen verfügen, sondern auch in der Lage sind, konzeptionelle und bildliche Vorstellungen von Objekten und Ereignissen zu entwickeln, die sie mit der Welt verbinden.
Ein weiterer Aspekt der Funktionsweise von Sprachmodellen ist die Fähigkeit zur Weltmodellierung. Wenn man sich ein einfaches Beispiel vorstellt, in dem ein Algorithmus die Anzahl der vorbeifahrenden Autos auf einer Straße misst, könnte dieser Algorithmus durch ständiges Lernen und Anpassen ein Modell von der Welt entwickeln, das ihm hilft, zukünftige Verkehrszustände vorherzusagen. Ähnlich funktioniert das Sprachmodell, das auf der Grundlage riesiger Textmengen und des Ziels, fehlende Wörter vorherzusagen, immer komplexere Modelle der Welt erstellt. Im Fall eines komplexeren Modells wie GPT ist diese Weltmodellierung nicht auf einfache sprachliche Konzepte beschränkt, sondern umfasst auch tiefere, allgemeinere Konzepte, die in vielen realen Situationen nützlich sind.
Diese Entwicklung stellt sich als eine Art "Iterationsprozess" dar, in dem jedes Modul im Modell eine spezifische Aufgabe übernimmt und dabei Wissen weitergibt, das für die folgenden Module entscheidend ist. Diese Art des Lernens hat eine klare Analogie zur Art und Weise, wie Menschen die Welt begreifen. Genau wie ein Kind, das seine Umwelt durch wiederholte Erfahrungen versteht und seine Lernprozesse mit der Zeit immer weiter verfeinert, entwickelt auch ein Sprachmodell, das durch die Interaktion mit Textdaten lernt, ein immer präziseres und nuancierteres Bild von der Welt.
Es ist auch zu beachten, dass die Fähigkeit von Sprachmodellen, "die Welt zu verstehen", durch die Notwendigkeit begrenzt wird, fehlende Informationen zu prognostizieren. Wenn das Modell etwa dazu angeleitet wird, ein fehlendes Wort in einem Satz zu erraten, ist dieser Prozess nicht nur eine Frage der Sprachverständlichkeit, sondern auch eine Frage der Weltkenntnis. Das Modell muss ein Verständnis von Ereignissen, Objekten, Beziehungen und sogar von sozialen oder kulturellen Normen entwickeln, um bestimmte Begriffe korrekt zu ergänzen. Dies geht weit über die bloße Grammatik hinaus und erfordert ein Modell der Welt, das auf den Daten, mit denen das Modell trainiert wurde, basiert.
Die Fähigkeit von Sprachmodellen, aus den Daten, die sie verarbeiten, zunehmend zu lernen und zu abstrahieren, bietet eine Grundlage für die Entwicklung von künstlicher Intelligenz, die nicht nur mit Sprache, sondern auch mit der realen Welt interagieren kann. Diese Modelle entwickeln eine Art "verteiltes Wissen", das es ihnen ermöglicht, kontextuelle Informationen zu integrieren und tiefere Bedeutungen zu erschließen, die in der bloßen Wortkombination nicht sofort offensichtlich sind.
Sprachmodelle sind damit nicht nur Werkzeuge für die Verarbeitung von Text, sondern auch für das Verständnis von Weltkonzepten und -mustern. Diese Fähigkeit macht sie nicht nur für die Linguistik von Bedeutung, sondern auch für viele andere Disziplinen, die sich mit der Modellierung von Wissen und der Vorhersage von Ereignissen befassen. Ihre Anwendungsmöglichkeiten reichen von der Entwicklung von personalisierten Assistenzsystemen bis hin zu komplexeren Aufgaben, die tieferes Wissen und ein Verständnis der realen Welt erfordern.
Für den Leser ist es von Bedeutung, zu erkennen, dass diese Modelle nicht einfach nur die Wörter und Strukturen der Sprache wiedergeben, sondern in einem tiefen, schichtweisen Prozess das gesamte Wissen, das in den Textdaten enthalten ist, integrieren und anwenden. Die Erkenntnisse aus den bisherigen Forschungen verdeutlichen, dass diese Modelle in der Lage sind, ein immer detaillierteres und präziseres Modell der Welt zu entwickeln, das nicht nur auf Sprache beschränkt bleibt, sondern weit darüber hinausgeht.
Wie Künstliche Intelligenz erstaunliche Ergebnisse bei Prüfungen erzielt: Die Leistungsfähigkeit von GPT-4 und die Herausforderungen des Lernens
Die Leistung von GPT-4 auf standardisierten Prüfungen, die traditionell ausschließlich für Menschen konzipiert wurden, hat sowohl in der Wissenschaft als auch in der breiten Öffentlichkeit für Aufsehen gesorgt. Es gibt nur wenige Menschen, die in der Lage sind, auf allen oder den meisten Prüfungsbereichen in den obersten Perzentilen abzuschneiden, so wie GPT-4 es bei einer Reihe anspruchsvoller Tests getan hat.
Im Jahr 2023 veröffentlichte OpenAI die Ergebnisse von GPT-4 bei einer Vielzahl standardisierter Prüfungen, darunter Prüfungen in Rechtswissenschaften, Kunstgeschichte, Biologie, mathematischer Analyse, Chemie, Makroökonomie, Physik, Psychologie und sogar Sommelier-Prüfungen. Besonders beeindruckend war, dass GPT-4 auf der SAT-Prüfung, einem der bekanntesten Tests in den USA, außergewöhnliche Ergebnisse erzielte. Die SAT, die jedes Jahr von Millionen von Studierenden abgelegt wird, besteht aus zwei Hauptbereichen: Sprache und Mathematik. GPT-4 erzielte im Sprachbereich 710 von 800 Punkten, was es in das 93. Perzentil katapultierte, und im Mathematikbereich erreichte es 700 von 800 Punkten, was es in das 89. Perzentil brachte. Damit lag die Gesamtpunktzahl von GPT-4 bei 1410 Punkten, deutlich über dem Durchschnitt von 1060 Punkten der Teilnehmer im Jahr 2021.
Für eine tiefere Einordnung: Die SAT-Prüfung ist darauf ausgelegt, eine "glockenförmige" (Gaussian) Verteilung zu erzeugen. Dies bedeutet, dass die Fragen so gestaltet sind, dass sie eine Vielzahl von möglichen Antworten bieten, wobei einige Antworten plausibel erscheinen, aber falsch sind, sogenannte "Distraktoren". Fragen, bei denen die Mehrheit der Studierenden die richtige Antwort weiß, werden in der Regel ausgeschlossen. Der Erfolg von GPT-4 auf einem solchen Test, der eigentlich für menschliche Bewerber entwickelt wurde, zeigt, wie leistungsfähig diese Technologie ist.
Noch erstaunlicher wurde GPT-4 jedoch bei weiteren Prüfungen, die für den Erwerb von beruflichen Lizenzen in den USA erforderlich sind. Die Uniform Bar Examination, die von Jurastudenten abgelegt wird, besteht aus verschiedenen Teilen, die sowohl Multiple-Choice-Fragen als auch Essays und praktische Prüfungen umfassen. GPT-4 erreichte hier eine Punktzahl, die es in das 90. Perzentil brachte, was einen signifikanten Fortschritt im Vergleich zu GPT-3 darstellt, dessen Punktzahl nur im 10. Perzentil lag. Die Ergebnisse in medizinischen Prüfungen, wie der United States Medical Licensing Examination, waren ebenfalls beeindruckend und lagen nahe der Schwelle zur Beförderung.
Die Leistung von GPT-4 in diesen Prüfungen ist nur ein Teil der Geschichte. Weitere Ergebnisse, die OpenAI in seinem Bericht veröffentlichte, umfassen Fächer wie Kunstgeschichte (86. bis 100. Perzentil), Biologie (85. bis 100. Perzentil), mathematische Analyse (43. bis 59. Perzentil), Chemie (71. bis 88. Perzentil), Makroökonomie (84. bis 100. Perzentil), Mikrowirtschaftslehre (82. bis 100. Perzentil), Physik (66. bis 84. Perzentil), Psychologie (83. bis 100. Perzentil) und sogar Sommeliers (92. Perzentil für Einsteiger, 77. Perzentil für Fortgeschrittene). Hinzu kommt die Fähigkeit von GPT-4, in Programmiersprachen wie Python zu arbeiten und Texte zu verfassen, die nahezu menschlicher Qualität entsprechen.
Diese Ergebnisse werfen jedoch grundlegende Fragen auf. Wie genau gelingt es GPT-4, solche außergewöhnlichen Leistungen zu erbringen, obwohl es keine spezifische Vorbereitung auf diese Prüfungen hatte? Welche Mechanismen stecken hinter seiner Fähigkeit, in so unterschiedlichen Bereichen zu brillieren? Die Wissenschaftler bei OpenAI und anderen Forschungsgruppen haben diese Fragen in ihren Berichten immer wieder aufgeworfen. Ein zentraler Aspekt bleibt die Frage nach der Art des "Lernens" und "Verstehens", das GPT-4 erreicht, wenn es mit enormen Datenmengen trainiert wird. Auf der Grundlage dieser Daten produziert es Antworten, die häufig die Erwartungen übertreffen.
Trotz aller erstaunlichen Ergebnisse bleibt jedoch ein ungelöstes Rätsel: Wie und warum zeigt GPT-4 eine so allgemeine und flexible Intelligenz? Und was bedeutet dies für das Verständnis von Lernen und Kognition? Die Forschung zu sogenannten "Emergenzen" in Sprachmodellen, wie sie bei GPT-4 zu beobachten sind, ist nach wie vor ein faszinierendes Thema, das noch viel Raum für Entdeckungen lässt. Während diese Modelle weiterhin außergewöhnliche Leistungen erbringen, stellt sich die Frage, wie sie dies tun und welche tiefere Bedeutung dahinter steckt. Die Antwort auf diese Fragen wird möglicherweise weitreichende Auswirkungen auf unser Verständnis von künstlicher Intelligenz und menschlichem Lernen haben.
Die fortwährende Entwicklung von GPT-4 und anderen Modellen, wie dem im Dezember 2023 eingeführten Gemini von Google DeepMind, hat bereits die Leistungsgrenzen verschoben. Im MMLU-Test (Massive Multitask Language Understanding), einem der anspruchsvollsten Tests für KI, übertraf Gemini sogar menschliche Leistungen und erreichte eine Genauigkeit von 90,04 %, was es zu einem der leistungsfähigsten Modelle machte.
Trotz der bahnbrechenden Ergebnisse, die diese KI-Systeme liefern, bleibt die Herausforderung, ihre inneren Funktionsweisen zu entschlüsseln und zu verstehen, wie sie diese erstaunlichen Ergebnisse erzielen. Vielleicht ist es an der Zeit, sich auch die Frage zu stellen, was in den kommenden Jahren möglich wird, wenn Maschinen einmal die kognitiven Fähigkeiten des Menschen erreichen oder sogar übertreffen sollten. Wird der Fortschritt dann noch anhalten oder gibt es keine theoretische Grenze mehr für die Weiterentwicklung?
Wenn man sich die Vision von Gottfried Wilhelm Leibniz anschaut, der im 17. Jahrhundert eine ideale, unmissverständliche Sprache vorschlug, die Konzepte und Ideen ohne Mehrdeutigkeit darstellt, wird die Komplexität dessen, was heute mit Künstlicher Intelligenz erreicht wird, umso klarer. In einer solchen Sprache könnten Konzepte präzise und eindeutig definiert werden, was der KI helfen würde, noch spezifischere und relevantere Antworten zu generieren. Die Fortschritte in der KI-Technologie könnten langfristig dahin führen, dass wir eine ähnliche Form von "universeller Sprache" entwickeln, in der Maschinen nicht nur verstehen, sondern auch die Welt um sie herum auf eine Weise analysieren und interpretieren, die der menschlichen Intelligenz nahekommt.
Können Maschinen wirklich denken – und was bedeutet das für uns?
Alan Turing, der Pionier der theoretischen Informatik, stellte nicht nur die Frage, ob Maschinen denken können, sondern auch, welche Konsequenzen das für uns hätte. Er formulierte den berühmten Test, nach dem eine Maschine als „denkfähig“ gelten könne, wenn sie in der Lage sei, ein Gespräch zu führen, ohne dass ihr Gegenüber sie von einem Menschen unterscheiden kann. Diese Definition war für Turing keine endgültige Antwort, sondern ein praktisches Kriterium: eine Maschine, die in der Lage ist, mit uns auf jede beliebige Weise zu kommunizieren, zeigt zumindest eine Form von Intelligenz.
In den letzten Jahren hat sich diese Vision auf unerwartete Weise erfüllt. Sprachmodelle, die auf Milliarden von Texten trainiert wurden, sind nicht nur in der Lage, Sätze zu bilden, sondern erfassen auch kausale Zusammenhänge zwischen Objekten, Ereignissen und Konzepten. Sie scheinen Modelle der Welt zu entwickeln, die über bloßes Sprachverständnis hinausgehen. Damit bestätigt sich Turings Vorhersage, dass wir, indem wir Maschinen „zum Denken“ bringen, auch unser eigenes Verständnis von Denken erweitern werden.
Turing selbst sprach vom „kritischen Punkt“, jenem Schwellenwert, jenseits dessen Maschinen ihre Fähigkeiten sprunghaft steigern. Moderne Forschung zur Künstlichen Intelligenz deutet an, dass solche emergenten Fähigkeiten tatsächlich existieren: Mit steigender Datenmenge und zunehmender Modellgröße treten Fähigkeiten zutage, die zuvor nicht programmiert waren und auch nicht erwartet wurden. Diese Unvorhersehbarkeit macht es schwierig, zukünftige Entwicklungen präzise vorherzusagen. Es gibt keinen physikalischen oder mathematischen Grundsatz, der eine Intelligenz ausschließt, die der menschlichen überlegen ist.
Doch was bedeutet es, die Welt zu „verstehen“? Intelligenz kann als die Fähigkeit definiert werden, ein Modell zu konstruieren, das es erlaubt, das Verhalten der Welt vorherzusagen und sich auch in neuen Situationen effizient zu verhalten. Menschen tun dies intuitiv, Maschinen tun es statistisch. Aber es gibt viele mögliche Modelle derselben Umwelt, und es ist zu erwarten, dass Maschinen diese auf eine Weise begreifen, die sich grundlegend von unserem Verständnis unterscheidet, selbst wenn sie die gleichen Aufgaben lösen können wie wir.
Die Fähigkeit zu sprechen, zu planen oder strategische Entscheidungen zu treffen – lange als getrennte Forschungsaufgaben betrachtet – wird heute von Algorithmen oft gleichzeitig erlernt. So verschwimmen die Grenzen zwischen Sprachmodell und Weltmodell, zwischen Regeln und Strategien, zwischen Naturgesetzen und Randbedingungen. Eine Maschine könnte ganz andere Grenzen ziehen als wir und dennoch erfolgreich handeln.
Dies führt zu einer grundlegenden Frage: Wenn Maschinen beginnen, wie wir zu denken – oder auf ihre eigene, vielleicht effizientere Weise –, wer sind wir dann? Die Menschheitsgeschichte ist voll von Mythen, in denen der Erwerb von Wissen als ein Akt des Aufbegehrens gegen die Götter erzählt wird. Was, wenn das Wiederfinden dieses „geheimen Wissens“ durch Maschinen den Beginn eines neuen Zeitalters markiert – des Zeitalters einer „Machina sapiens“?
Diese Entwicklungen bergen nicht nur Chancen, sondern auch Konflikte. Die Instinkte von Wissenschaftlern, Maschinen und Nutzern sind nicht immer deckungsgleich. Politik, Geistes- und Sozialwissenschaften werden eine zentrale Rolle spielen, um diese Konflikte zu gestalten. Maschinen sind geschaffen worden, um uns zu verstehen und die Welt zu erklären, doch eines Tages könnten sie uns in dieser Fähigkeit übertreffen, ohne dass wir es bemerken. Daher müssen wir ihre Fähigkeiten jetzt studieren, nicht später.
Wichtig ist zu verstehen, dass diese Technologien nicht isoliert entstehen, sondern das Ergebnis einer langen Geschichte sind, die bei Turing begann. Sie spiegeln unsere eigenen Instinkte wider: zu forschen, zu verstehen, Beziehungen aufzubauen. Auch mit Maschinen werden wir Beziehungen suchen, sie täuschen und von ihnen getäuscht werden, mit ihnen konkurrieren und mit ihnen kooperieren. In dieser Wechselwirkung werden wir nicht nur lernen, was Intelligenz ist, sondern auch, was es heißt, Mensch zu sein.
Wie beeinflussen Medien und öffentliche Wahrnehmung politische Kampagnen?
Welche Optionen gibt es für serverlose Containerbereitstellung und wie unterscheidet sich Continuous Deployment im CI/CD-Kontext?
Wie die geologische Struktur des Ozeans das Verständnis von Erdgeschichte prägt
Wie der Bergbau das Leben verändert: Von Uranminen bis zur Zukunft sauberer Energie

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский