Alan Turing, der als Vater der Informatik gilt, stellte in seinem 1950 erschienenen Artikel „Computing Machinery and Intelligence“ eine Frage, die tief in die Natur des menschlichen Denkens und die Möglichkeiten der Maschinenintelligenz eingreift. Turing beschäftigte sich mit der Frage, wer wir sind und ob wir wirklich durch unsere intellektuellen Fähigkeiten, die wir gerne als überlegen betrachten, eine privilegierte Stellung im Tierreich innehaben. Zum Zeitpunkt der Veröffentlichung war Turing erst 38 Jahre alt und hatte bereits die theoretische Informatik begründet, die Kryptographie revolutioniert und begann nun, sich mit dem Problem der „Maschinenintelligenz“ zu befassen. Vier Jahre später sollte er mit nur 42 Jahren sterben, nachdem er sich auf tragische Weise das Leben genommen hatte, indem er in einen vergifteten Apfel biss.
In seinem Artikel stellte Turing eine prägnante und pragmatische Lösung für das Problem der Definition von „Denken“ vor. Anstatt zu versuchen, „Denken“ zu definieren, was seiner Meinung nach ein kaum fassbares Unterfangen sei, ersetzte er die Frage durch eine, die klarer formuliert werden konnte: Er sprach von einem Spiel – dem „Imitationsspiel“. In diesem Spiel soll eine Maschine in der Lage sein, eine Unterhaltung zu führen, ohne dass der Interviewer sie als Maschine erkennt. Nur wenn es der Maschine gelingt, den menschlichen Gesprächspartner zu täuschen, könnte man ihr vorwerfen, „zu denken“. Turing stellte die Frage: „Können Maschinen denken?“ und ersetzte sie durch: „Gibt es vorstellbare digitale Computer, die im Imitationsspiel gut abschneiden würden?“ Für Turing war das Kriterium des Denkens damit nicht mehr eine bloße Definition, sondern ein praktischer Test, der das Vorhandensein von Intelligenz demonstrieren sollte.
Obwohl Turing nie seine Meinung verbarg, dass es wahrscheinlich sei, dass Maschinen gegen Ende des 20. Jahrhunderts in der Lage wären, auf eine Weise zu antworten, die es den Menschen extrem schwer machen würde, zu erraten, ob ein Mensch oder eine Maschine antwortet, gab es dennoch einige Einschränkungen dieser Theorie. Der Turing-Test würde sich auf „menschliches Denken“ konzentrieren, was bedeutete, dass der Test nur in einer menschlichen Konversation Sinn hatte. Es wäre allerdings zu kurz gedacht, zu glauben, dass ein solcher Test ausreicht, um alle Formen von Intelligenz zu messen. Ein Frosch oder eine Katze, die eindeutig intelligente Verhaltensweisen zeigen, würden in diesem Kontext nicht bestehen, obwohl auch sie über Intelligenz verfügen. Turing selbst erkannte diese Möglichkeit und formulierte eine Antwort auf einen möglichen Einwand: Eine Maschine könnte etwas ausführen, das als „Denken“ beschrieben werden könnte, jedoch ganz anders als das, was ein Mensch tut. Das ließ Turing jedoch nicht von seinem Ansatz abweichen. Für ihn war der Turing-Test ein praktisches Mittel, um zumindest eine bestimmte Form von Intelligenz zu messen.
Das Wesen der Intelligenz ist vielschichtiger, als es der Turing-Test suggeriert. Intelligenz ist nicht nur die Fähigkeit zur Kommunikation oder zur Durchführung eines Imitationsspiels, sondern vor allem die Fähigkeit, in neuen und unbekannten Situationen Ziele zu verfolgen. Diese Fähigkeit finden wir nicht nur bei Menschen, sondern auch bei Tieren und Maschinen – wenn auch in sehr unterschiedlichen Formen. Von Insekten bis zu Algorithmen, die Videos auf YouTube empfehlen, ist die Bandbreite der Intelligenz enorm. Der Turing-Test bleibt ein wichtiger Meilenstein in der Debatte um Maschinenintelligenz, aber er ist nur ein Teilaspekt einer weitaus umfassenderen Thematik.
Im Laufe der Jahre verfolgte die Forschung zwei parallele Richtungen, um Maschinen dazu zu bringen, diese Form der Intelligenz zu entwickeln. Zum einen versuchten Wissenschaftler, Maschinen die Fähigkeit zu verleihen, unsere Sprache zu verstehen und zu erzeugen, und zum anderen strebten sie an, diese Maschinen mit einem umfassenden Wissen über die Welt auszustatten, damit sie kompetent darüber sprechen könnten. Die erste Richtung brachte einfache Programme hervor, mit denen man eine Art von Konversation führen konnte, wie zum Beispiel „Eliza“, ein 1966 von Joseph Weizenbaum entwickeltes Programm, das einen Psychoanalytiker simulierte, aber keinerlei Verständnis für die Gespräche zeigte. In der zweiten Richtung entstanden riesige, von Menschen kuratierte Datenbanken, die Fakten und Konzepte sammelten und versuchten, „die Welt zu verstehen“, wie zum Beispiel CYC, ein Projekt, das 1984 von Douglas Lenat ins Leben gerufen wurde. Diese Programme konnten einige Fragen beantworten, aber nur dann, wenn sie sehr präzise gestellt wurden.
Trotz dieser Fortschritte blieb der eigentliche Durchbruch aus, und auch die jährlich stattfindende Loebner Prize-Wettbewerb, der von 1991 bis 2019 stattfand, brachte keine entscheidenden Ergebnisse. Kein Programm konnte den Preis gewinnen, der an das Programm vergeben wurde, das es am besten schaffte, die Interviewer zu täuschen und menschliches Verhalten zu imitieren. Doch in der Praxis war es nicht der Turing-Test, der das entscheidende Kriterium für den Erfolg in der Maschinenintelligenz darstellte, sondern eine Vielzahl anderer technischer Fortschritte, die schließlich zur Entwicklung von Systemen wie Alexa und Siri führten.
Der Turing-Test stellt letztlich eine philosophische Frage, die weit über das technische Interesse hinausgeht. Was bedeutet es wirklich, „zu denken“? Und kann eine Maschine denken, ohne dass sie dabei das gleiche „Denken“ wie der Mensch an den Tag legt? Turing selbst bemerkte in einer seiner 1951 gehaltenen Radiovorträge, dass der Versuch, eine „denkende“ Maschine zu schaffen, uns tiefere Einblicke in unser eigenes Denken verschaffen könnte. Diese Erkenntnis macht den Test nicht nur zu einem Maßstab für Maschinen, sondern auch zu einem Spiegel für das menschliche Bewusstsein. Turing deutete auch an, dass viele Menschen gegen die Vorstellung von denkenden Maschinen sind, nicht aufgrund rationaler Argumente, sondern aus einer instinktiven Angst vor dem, was dies für die Menschheit bedeuten könnte. Ein denkendes Wesen, das den Menschen in Intelligenz übertrifft, könnte das Machtgefüge der Spezies in Frage stellen und uns in unserer Rolle als „Krone der Schöpfung“ relativieren.
In den letzten Jahrzehnten hat sich die Definition von „Denken“ weiterentwickelt, und so wie der Begriff des „Fliegens“ heute nicht nur Vögel, sondern auch Flugzeuge und Ballons umfasst, könnte sich der Begriff des „Denkens“ irgendwann auch auf Maschinen ausdehnen. Doch wie genau Maschinen in Zukunft „denken“ werden, bleibt eine offene Frage, die nicht nur technologische, sondern auch philosophische Dimensionen hat.
Wie Maschinen Sprache verstehen: Die Entwicklung von Künstlicher Intelligenz und ihre Auswirkungen auf die Kommunikation
Die Herausforderung, dass Maschinen tatsächlich "denken" können, ist nicht neu und wird im Laufe des 21. Jahrhunderts wahrscheinlich weitgehend akzeptiert werden. Die allgemeine Bildung und die öffentliche Meinung zu Maschinen und ihren Fähigkeiten werden sich bis dahin so weit verändert haben, dass man von Maschinen denken sprechen wird, ohne mit Widerspruch rechnen zu müssen. Eine entscheidende Frage bleibt jedoch: Was kann eine Maschine noch tun, wenn sie mit solchen sprachlichen Fähigkeiten ausgestattet ist? Was passiert, wenn wir ihr die Fähigkeit zu kommunizieren verleihen?
Die erste Schwierigkeit, die bei der Übersetzung von Sprache durch Maschinen auftritt, ist die sogenannte Mehrdeutigkeit von Wörtern und Sätzen. Ein einfaches Beispiel zeigt dies: Wie übersetzt man die Ausdrücke "die Rinde des Baumes" und "die Rinde des Hundes"? Die Bedeutung eines Wortes ist oft nicht isoliert zu verstehen, sondern hängt vom Kontext und von anderen Wörtern im Satz ab. Dies ist ein zentrales Problem in der Linguistik, das auch Maschinen beim Übersetzen und Verstehen von Sprache begegnet.
Ein weiteres Beispiel für die Komplexität der Sprachverständnisaufgaben ist die Interpretation von Pronomen in Sätzen. In den beiden folgenden Sätzen muss das Pronomen „ihn“ unterschiedlich interpretiert werden: "2020 besiegte Biden Trump, und das machte ihn glücklich" und "2020 besiegte Biden Trump, und das machte ihn traurig". Der Unterschied in der Bedeutung hängt davon ab, welches Wissen wir über die politische Landschaft oder den Kontext haben. Die Herausforderung für Maschinen besteht darin, diese subtilen Abhängigkeiten und Bedeutungsnuancen zu verstehen.
Turing schlug vor, Gespräche als Test für eine „menschenähnliche“ Intelligenz zu verwenden, um die Fähigkeit von Maschinen zu bewerten, mit Menschen zu interagieren. Doch wie ein Computer verstehen soll, welche Wörter miteinander in Beziehung stehen und wie sich diese Beziehungen über längere Entfernungen im Satz entwickeln, stellt eine erhebliche Herausforderung dar. In einem Satz wie „Das Lied, das ich im Radio hörte, war gut“, hängt die Bedeutung von „war“ von der Wortwahl und der Syntax ab. Würden wir „Lied“ zu „Lieder“ im Plural ändern, müsste auch das Verb zu „waren“ geändert werden. Diese langen Abhängigkeiten sind schwer zu identifizieren und erfordern tiefes linguistisches Verständnis.
Die Schwierigkeit, solche langreichweitigen Abhängigkeiten zu erkennen, stellt eine der größten Herausforderungen für künstliche Intelligenz dar, und es ist kein Zufall, dass die Revolution in der künstlichen Intelligenz durch eine Idee ausgelöst wurde, die ursprünglich im Bereich der maschinellen Übersetzung entwickelt wurde. Die Fähigkeit von Maschinen, die „Abhängigkeiten“ von Wörtern zu erkennen, brachte einen erheblichen Fortschritt in der Sprachverarbeitung.
Die Entwicklung eines neuen Algorithmus namens Transformer im Jahr 2017 brachte eine dramatische Veränderung mit sich. Der Transformer-Algorithmus ermöglichte es Computern, riesige Textmengen effizient zu analysieren und nützliche statistische Regularitäten zu entdecken. Diese neue Fähigkeit war der Beginn einer Kettenreaktion, deren volle Konsequenzen noch nicht abzusehen sind. Transformer kann verschiedene Teile eines Satzes unabhängig voneinander betrachten und gleichzeitig deren Beziehungen erfassen. Das sogenannte „Aufmerksamkeits“-Mechanismus, der es dem Algorithmus ermöglichte, die richtigen Abhängigkeiten zu finden, hat die Leistung von maschinellen Übersetzungsprogrammen revolutioniert.
Der Transformer-Algorithmus hat auch von der Parallelverarbeitung profitiert, die mit der Entwicklung von Grafikprozessoren (GPUs) einhergeht. GPUs wurden ursprünglich für die Darstellung von Grafiken in Videospielen entwickelt, aber ihre Fähigkeit, Tausende von Berechnungen gleichzeitig durchzuführen, machte sie ideal für maschinelles Lernen. Diese Fähigkeit, eine riesige Menge an Daten gleichzeitig zu verarbeiten, ermöglichte es dem Transformer-Algorithmus, aus unzähligen Beispielen zu lernen und Übersetzungen viel schneller zu erzeugen als frühere Methoden.
Ein weiteres Merkmal der Transformer-Architektur ist, dass sie in der Lage ist, generative KI zu erzeugen – eine Form der künstlichen Intelligenz, die nicht nur Daten verarbeitet, sondern auch neue Inhalte erzeugt. Dies war der eigentliche Durchbruch. Als Google die theoretische Beschreibung des Transformers und den dazugehörigen Code veröffentlichte, war dies der erste Dominostein, der in einer langen Kettenreaktion fiel. Die Veröffentlichung der Forschungsergebnisse führte zu einer rasanten Entwicklung in der maschinellen Übersetzung und im maschinellen Lernen im Allgemeinen.
Ein entscheidendes Konzept, das mit dieser Entwicklung verbunden ist, ist das der „generativen KI“. Dies bezieht sich auf Maschinen, die nicht nur bestehende Daten verarbeiten, sondern auch eigenständig neue Inhalte generieren können. Der Transformer-Algorithmus war ein Vorreiter für diese neue Richtung der KI-Entwicklung und eröffnete zahlreiche Möglichkeiten, die weit über die ursprüngliche Anwendung der maschinellen Übersetzung hinausgehen.
Interessanterweise, trotz des rasanten Fortschritts und der Revolution in der künstlichen Intelligenz, wurde der Transformer-Algorithmus von vielen anfangs nur als eine interessante technische Neuerung wahrgenommen. Das hat sich jedoch schnell geändert, als mehr und mehr Menschen das Potenzial dieser Technologie erkannten. Was als spezialisiertes Forschungspapier begann, entwickelte sich zu einem unverzichtbaren Bestandteil der modernen KI und beeinflusste eine Vielzahl von Anwendungen, von automatisierter Übersetzung bis hin zu generativen Textmodellen, die inzwischen weit verbreitet sind.
Die Entwicklung von Künstlicher Intelligenz zeigt uns, dass Fortschritte nicht immer sofort erkannt werden und dass es oft kleine Veränderungen sind, die tiefgreifende und weitreichende Auswirkungen haben. Die Kettenreaktion, die durch die Entdeckung des Transformer-Algorithmus ausgelöst wurde, wird die Art und Weise, wie Maschinen Sprache verstehen und verwenden, für immer verändern. Doch trotz dieser bahnbrechenden Fortschritte bleibt die Frage offen, welche weiteren Anwendungen dieser Technologie noch nicht absehbar sind und welche ethischen und praktischen Herausforderungen auf uns zukommen werden, wenn Maschinen beginnen, zunehmend autonome Entscheidungen zu treffen.
Wie die Bildwiederholrate und die Expositionsdauer die Schwere der Cybersickness beeinflussen
Wie sich das Tea-Party-Kohäsion im US-Repräsentantenhaus manifestiert: Eine Analyse des Wahlverhaltens und der Presseerklärungen
Was sind die klinischen Merkmale und die Behandlung von Sarkoidose und anderen Hauterkrankungen?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский