Künstliche Intelligenz wird häufig dann diskutiert, wenn es um die Untersuchung komplexer Systeme geht, deren Erforschung menschliche Fähigkeiten übersteigt. Die weltweite Vernetzung bringt dabei nicht nur Chancen, sondern auch Risiken mit sich. Ein zentraler Aspekt solcher komplexen, nichtlinearen dynamischen Systeme ist der sogenannte Schmetterlingseffekt. Er beschreibt, dass selbst kleinste Änderungen der Anfangsbedingungen zu einer vollständigen Unvorhersagbarkeit der weiteren Entwicklung eines Systems führen können. Dieses Phänomen wurde populär durch den US-Meteorologen Edward N. Lorenz, der in den 1960er Jahren bei numerischen Wettervorhersagen erstmals entdeckte, wie empfindlich das Verhalten seines Modells auf winzige Differenzen reagierte. Er reduzierte die Genauigkeit von Zwischenergebnissen und stellte fest, dass die Resultate mit der Zeit immer stärker divergierten – trotz minimaler Abweichungen im Ausgangswert.
Lorenz' Arbeit führte zur Entdeckung des sogenannten Lorenz-Attraktors, einem seltsamen Attraktor, dessen dreidimensionale Bahn die Form von Schmetterlingsflügeln annimmt. Diese Gestalt symbolisiert anschaulich das chaotische Verhalten: Ein System kann deterministisch beschrieben werden, doch die langfristige Vorhersagbarkeit ist durch die hohe Empfindlichkeit gegenüber Anfangsbedingungen nahezu unmöglich. Die zugrunde liegenden Differentialgleichungen enthalten nichtlineare Terme, die komplexe Wechselwirkungen repräsentieren und zu dieser Dynamik führen.
Die rechnerische Umsetzung solcher Modelle ist durch die begrenzte Genauigkeit von Fließkommazahlen eingeschränkt. Computer repräsentieren Zahlen mit endlicher Mantisse, sodass Werte gerundet werden müssen. Dies führt zu kleinen Fehlern, die sich in chaotischen Systemen exponentiell verstärken können. Die Maschinengenauigkeit moderner Systeme ist zwar sehr hoch, reicht jedoch nicht aus, um langfristige Vorhersagen bei chaotischen Prozessen zu gewährleisten.
Chaos-Theorie beschreibt also nicht zufällige, stochastische Systeme, sondern deterministisch chaotische Systeme, bei denen Wiederholungen eines Experiments nicht exakt reproduzierbar sind, da selbst geringfügige Abweichungen in den Anfangsbedingungen zu stark unterschiedlichen Ergebnissen führen. Diese Eigenschaft unterscheidet sie klar von der Theorie komplexer Systeme, denn selbst sehr einfache Systeme können chaotisches Verhalten zeigen.
Im Kontext der Berechenbarkeit von Problemen ist die Komplexität entscheidend. Ein einfaches Beispiel ist die lineare Suche nach einem Buch in einer Reihe: Die Anzahl der notwendigen Schritte wächst proportional zur Anzahl der Bücher, also in O(n). Wenn man jedoch mehrere Regale oder gar eine ganze Bibliothek betrachtet, steigt die Komplexität auf O(n²) oder O(n³), abhängig von der Struktur. Solche Wachstumsraten, die durch Polynome beschrieben werden, gelten als Grenze zwischen praktisch lösbaren und unlösbaren Problemen. Allerdings hat die zunehmende Rechenleistung die praktische Bedeutung dieser Grenze relativiert.
Es ist nicht immer offensichtlich, ob ein Problem in polynomieller Zeit lösbar ist. Ein Beispiel ist die Primzahlerkennung, für die erst 2002 mit dem AKS-Primzahltest ein polynomieller Algorithmus gefunden wurde. Dies zeigt, dass der Übergang zwischen theoretisch „schwer“ und praktisch „lösbar“ fließend ist und sich mit neuen mathematischen Erkenntnissen und technologischen Fortschritten verändern kann.
Wichtig ist dabei zu verstehen, dass die Vorhersagefähigkeit und Berechenbarkeit in komplexen Systemen nicht nur von der Rechenkapazität abhängt, sondern grundlegend durch die Eigenschaften der Systeme selbst beschränkt ist. Der Schmetterlingseffekt und das Auftreten von Chaos legen nahe, dass es Bereiche gibt, in denen vollständige Kontrolle und exakte Prognosen prinzipiell nicht möglich sind. Gleichzeitig verdeutlichen die Beispiele aus der Komplexitätstheorie, dass sich durch den Fortschritt in Algorithmen und Hardware neue Lösungsmöglichkeiten eröffnen, die ehemals unzugängliche Probleme erreichbar machen.
Es ist daher essentiell, zwischen der praktischen Machbarkeit, die durch technische Entwicklung verbessert wird, und den theoretischen Grenzen, die sich aus der Systemnatur ergeben, zu differenzieren. Ein ganzheitliches Verständnis komplexer Systeme erfordert das Bewusstsein für beides: Die inhärente Unsicherheit chaotischer Dynamiken und die Fortschritte in algorithmischer Komplexität. Nur so lassen sich Chancen und Risiken der Globalisierung und Vernetzung realistisch einschätzen.
Wie Big Data die Zukunft verändert: Anwendungen und Herausforderungen
Big Data ist nicht nur ein Trend, sondern eine transformative Technologie, die unser tägliches Leben auf unzählige Weisen beeinflusst. Die Möglichkeiten zur Analyse massiver Datenmengen bieten tiefere Einblicke in nahezu jede erdenkliche Domäne, von Medizin bis Marketing, von Industrieprozessen bis hin zur Verbrechensbekämpfung. Die Methoden zur Auswertung dieser Daten sind äußerst vielfältig und reichen von der Regressionsanalyse bis hin zu komplexen Algorithmen des maschinellen Lernens. Doch trotz der bemerkenswerten Präzision, die diese Analysetools bieten, bleibt eine kritische Frage bestehen: Wie zuverlässig sind die Ergebnisse und wie sollten sie interpretiert werden?
Ein herausragendes Beispiel für den Einsatz von Big Data ist die Analyse von Epidemien. Google hat es mit einer speziellen Software geschafft, durch die Auswertung von Millionen von Suchanfragen 45 relevante Faktoren zu identifizieren, die mit dem Auftreten einer Epidemie zusammenhängen. Dies demonstriert, wie aufschlussreich die Datenanalyse sein kann, auch wenn keine direkte Ursache-Wirkungs-Beziehung zwischen den Faktoren und den tatsächlichen Ereignissen besteht. Im Jahr 2009 konnte Google mit dieser Methode die Verbreitung des H1N1-Virus vorhersagen, wobei die Vorhersagen weitgehend mit den tatsächlichen Zahlen übereinstimmten. Solche Analysen machen deutlich, dass selbst ohne ein klassisches kausales Modell wertvolle Vorhersagen getroffen werden können.
Ähnlich funktioniert die Anwendung von Big Data in anderen Bereichen. In der Medizin etwa können durch die Auswertung genetischer Informationen oder durch die Erhebung umfangreicher Patienten- und Behandlungshistorien die besten Therapieansätze für individuelle Patienten ermittelt werden. So ist es möglich, sehr präzise, auf den Einzelnen abgestimmte Behandlungen vorzuschlagen. Dies erfolgt unter anderem durch Unternehmen wie 23andMe, das seit 2007 genetische Tests für Privatpersonen anbietet. Diese Tests helfen dabei, genetische Prädispositionen für eine Vielzahl von Erkrankungen zu erkennen und bieten zudem Informationen zur geografischen Herkunft einer Person.
Die industrielle Anwendung von Big Data ist ebenso weitreichend. Unternehmen, die ihre eigenen Maschinendaten analysieren, können die Effizienz ihrer Produktionsprozesse erheblich steigern. Dies geschieht durch die Optimierung von Betriebsabläufen, die weitgehend auf der Echtzeitüberwachung von Maschinen und Produktionslinien basieren. Auch die Geschäftswelt nutzt Big Data intensiv, um Kundenbedürfnisse besser zu verstehen und maßgeschneiderte Angebote zu entwickeln. So wird es beispielsweise möglich, durch die Analyse von Kaufverhalten und Suchanfragen sehr präzise Kundenprofile zu erstellen, die eine personalisierte Ansprache ermöglichen.
In der Energiebranche geht es darum, Verbrauchsmuster zu erkennen und die Energieversorgung genau auf die Bedürfnisse der einzelnen Verbraucher abzustimmen. Dies erfordert umfangreiche Datensammlungen, die es ermöglichen, langfristig eine ressourcenschonende und effiziente Energieversorgung sicherzustellen. In ähnlicher Weise nutzt der Marketingsektor Big Data, um Zielgruppen präziser anzusprechen und die Kundenbindung zu verbessern.
Die Kriminalitätsbekämpfung hat ebenfalls von der Einführung von Big Data profitiert. Die massenhafte Nutzung von Überwachungstechnologien, wie etwa Kameras, hat dazu beigetragen, kleinere Delikte deutlich zu reduzieren. Dies ist ein Beispiel dafür, wie die ständige Erhebung von Daten zu einer besseren Vorbeugung und schnelleren Reaktion bei Verbrechen führen kann.
Die Analyse von Daten ist jedoch nicht nur eine Frage der Technologie, sondern auch der Methodik. Verschiedene Analyseverfahren kommen zum Einsatz, die auf unterschiedliche Weise dabei helfen, Muster zu erkennen und Vorhersagen zu treffen. Dazu gehören die Clusteranalyse, die Assoziationsanalyse, die Regressionsanalyse und die prädiktive Analyse. Jede dieser Methoden hat ihre spezifische Anwendung und kann für unterschiedliche Zielsetzungen genutzt werden. Die Clusteranalyse zum Beispiel identifiziert Gruppen von Objekten, die in bestimmten Aspekten ähnlich sind, ohne dass diese Gruppen vorher definiert werden müssen. Dies ermöglicht eine sehr flexible und dynamische Datenanalyse.
Die prädiktive Analyse geht einen Schritt weiter und nutzt die gesammelten Daten, um zukünftige Trends vorherzusagen. Dies ist besonders wertvoll für Unternehmen, die zukünftige Entwicklungen antizipieren möchten, um schnell auf Veränderungen reagieren zu können. Hierbei handelt es sich um ein hochentwickeltes Analysetool, das nicht nur Daten untersucht, sondern auch Muster für zukünftige Ereignisse identifiziert.
Ein weiteres bedeutendes Anwendungsfeld ist die Kriminalprävention, bei der der Staat immer stärker auf Big Data zurückgreift. Die Analyse von Massendaten, zum Beispiel durch Überwachungstechnologien, hat in vielen Bereichen zu einer Verringerung von Straftaten geführt. Besonders im Bereich der Prävention von Kleinkriminalität zeigt sich der Nutzen von Big Data, indem die Daten eine schnelle und präzise Identifikation von Tatorten und Tätern ermöglichen.
Die weitverbreitete Nutzung von Cloud-Technologien hat die Verarbeitung von Big Data weiter vereinfacht. Tools wie Hadoop, MapReduce und Spark bieten effiziente Möglichkeiten, riesige Datenmengen schnell und kostengünstig zu verarbeiten. Hadoop ist ein Open-Source-Framework, das Daten auf viele verschiedene Rechenknoten verteilt, um eine gleichmäßige Verarbeitung zu gewährleisten. MapReduce wiederum hilft, Daten zu kompilieren und zu organisieren, während Spark als besonders schnelle und flexible Lösung für die Analyse von Big Data gilt.
Es ist jedoch entscheidend zu verstehen, dass die Qualität der Daten und der verwendeten Analyse-Tools von größter Bedeutung ist. Fehlerhafte oder verzerrte Daten können zu falschen Schlussfolgerungen führen, was insbesondere in kritischen Bereichen wie der Medizin oder der öffentlichen Sicherheit katastrophale Folgen haben kann. Dies zeigt, wie wichtig es ist, Big Data nicht nur mit den richtigen Technologien zu analysieren, sondern auch die ethischen und datenschutzrechtlichen Implikationen dieser Technologien zu berücksichtigen.
Ein weiteres wichtiges Element ist die kontinuierliche Verbesserung der Analysetools. Der Einsatz von Künstlicher Intelligenz (KI) wird zunehmend genutzt, um die Analyseergebnisse zu verfeinern und immer präzisere Vorhersagen zu ermöglichen. Ein Beispiel aus der Medizin zeigt, wie KI bei der Erkennung von Darmkrebs helfen kann, indem sie Polypen während einer Koloskopie erkennt, die von Ärzten möglicherweise übersehen werden. KI kann auch dazu beitragen, die Qualität der Diagnose zu erhöhen und den Aufwand für histopathologische Untersuchungen zu verringern.
Wie verändert Künstliche Intelligenz Musik und Architektur grundlegend?
Die Verschmelzung von künstlicher Intelligenz und künstlerischer Praxis eröffnet neue Räume der Kreativität, insbesondere in den Bereichen Musik und Architektur. Musik – die wohl unmittelbarste und sinnlichste aller Kunstformen – wurde bereits früh zur Spielwiese für algorithmische Systeme. Der Wunsch, Maschinen Musik erzeugen zu lassen oder ihnen das Komponieren beizubringen, begleitet die Informatik seit ihren Anfängen. Dabei geht es nicht bloß um die technische Reproduktion, sondern um die Frage, inwiefern Software ästhetische Entscheidungen treffen kann.
Schon 1957 entstand mit der „Illiac Suite“ – auch bekannt als „String Quartet No. 4“ – das erste Werk, das vollständig von einem Computer komponiert wurde. Das ILLIAC I-System der University of Illinois folgte bei der Erzeugung von Melodien, Harmonien und Strukturen vordefinierten Wahrscheinlichkeiten, generativen Grammatiken und Markov-Ketten. In vier Sätzen führte das Werk verschiedene algorithmische Experimente durch. Auch wenn das Ergebnis musikalisch nicht überzeugte, markierte es einen bedeutenden konzeptuellen Meilenstein.
Ray Kurzweils Beitrag aus dem Jahr 1965, ein durch Mustererkennung generiertes Klavierstück, brachte eine neue Qualität der algorithmischen Komposition. David Cope führte dieses Denken in den 1980er-Jahren mit seinem System EMI (Experiments in Musical Intelligence) weiter, das über tausend Werke in verschiedenen Stilen erschuf. EMI analysierte vorhandene Werke, extrahierte deren Strukturen und komponierte daraus stilistisch kohärente neue Werke – ein Prozess, der dem Komponieren durch Variation nahekommt.
In jüngerer Zeit hat sich Aiva Technologies einen Namen gemacht. Ihre KI-Komponistin „Aiva“ wurde bei der SACEM urheberrechtlich als Künstlerin anerkannt. Sie komponiert vor allem klassische Musik und hat bereits Alben veröffentlicht. Diese rechtliche und kulturelle Anerkennung algorithmischer Kreativität deutet auf eine Verschiebung der Autorschaft im digitalen Zeitalter hin.
Parallel dazu entstanden hybride Systeme wie „Shimon“, ein von Gil Weinberg entwickelter Marimba-Roboter, der komponiert, singt und sich choreografisch bewegt. Trainiert mit Texten aus Jazz, Prog Rock und Hip-Hop, produziert er melodische und lyrische Strukturen. Auch Projekte wie „Noah 9000“ von Michael Katzlberger zeigen den Versuch, durch tausende Iterationen algorithmisch perfekte Klangstrukturen zu erzeugen, inspiriert von Beethoven bis hin zur Science-Fiction.
Der Anspruch solcher Systeme ist nicht nur technische Komposition, sondern das Erzeugen eines musikalischen Ausdrucks, der als menschlich empfunden wird. Sounddesign und Instrumentierung rücken dabei in den Fokus, da sie entscheidend sind für emotionale Wirkung und ästhetische Qualität.
Parallel zur Musik verändert KI auch Architektur grundlegend. Der Entwurfsprozess, traditionell von Erfahrung, Intuition und manueller Berechnung geprägt, erfährt durch KI eine funktionale und konzeptionelle Transformation. Mittels Building Information Modeling (BIM) lassen sich nicht nur Entwürfe automatisieren, sondern auch Produktinformationen, Zeitpläne, Materialdaten und Kosten integrieren. Dadurch entsteht ein digitaler Zwilling des Bauwerks, der nicht nur Entwurf und Bau umfasst, sondern auch Betrieb, Wartung und Rückbau.
CAD-Systeme werden durch KI-gestützte Analysen erweitert, die Materialeffizienz, energetische Optimierung und strukturelle Integrität mit einbeziehen. Intelligente Systeme erkennen Muster und Ineffizienzen in großen Datenmengen, die zuvor nur manuell oder gar nicht ausgewertet werden konnten. Dadurch entsteht eine datengestützte Ästhetik, die nicht nur Form, sondern auch Funktion reflektiert.
Sensorik und vernetzte Gebäudetechnik ermöglichen adaptive Systeme. Intelligente Beleuchtung, automatisiertes Regenwassermanagement oder lernfähige Thermostate wie das Nest-System schaffen eine Umwelt, die sich dynamisch an Nutzerverhalten und äußere Bedingungen anpasst. Die Architektur wird zum Interface zwischen Mensch, Raum und Information.
Auch die Bauwirtschaft – bisher eine der technologiefernsten Branchen – erlebt durch KI einen Paradigmenwechsel. Automatisierte Planungsprozesse, vorausschauende Wartungssysteme und intelligente Überwachung senken nicht nur Kosten, sondern erhöhen auch Sicherheit und Nachhaltigkeit. Selbst in der Sicherheitstechnik transformieren KI-Systeme die Überwachung durch Mustererkennung in Videoanalysen, wodurch Reaktionszeiten verkürzt und Fehlerquellen minimiert werden.
Diese Entwicklungen werfen grundlegende Fragen auf: Was bedeutet Urheberschaft in einer durch Algorithmen gestalteten Kunstwelt? Wo endet maschinelle Kreativität und beginnt menschliche Intention? Die wachsende Fähigkeit von Maschinen, sinnstiftende und emotional resonante Werke zu schaffen, zwingt uns, unser Verständnis von Kreativität neu zu definieren.
Künstlerisch bedeutend wird die Schnittstelle zwischen menschlichem Ausdruck und algorithmischer Struktur. Der Mensch wird zum Kurator, zum Lehrer, zum Interaktionspartner einer Kreativität, die nicht mehr exklusiv menschlich ist, sondern in kybernetischer Kooperation entsteht. Dabei liegt das kreative Potenzial nicht nur im maschinellen Output, sondern in der Interaktion selbst – im Spannungsfeld von Kontrolle und Emergenz.
Wichtig ist zu erkennen, dass die Wertigkeit eines Werks nicht allein von seiner Herkunft – menschlich oder maschinell – abhängt, sondern vom Kontext, in dem es rezipiert wird. KI kann sowohl banale Reproduktion als auch originelle Abweichung erzeugen. Die Qualität liegt nicht im Medium, sondern im Maß der Reflexion, das der Betrachter oder Hörer mitbringt. Damit wird kulturelle Bildung zur Schlüsselkompetenz im Umgang mit künstlich erzeugter Kunst.
Wie hat sich die Programmierung von den Anfängen bis zur Gegenwart entwickelt?
Die Geschichte der Programmierung und die Entwicklung von Programmiersprachen sind eng mit der fortschreitenden Mechanisierung und Automatisierung von Aufgaben verbunden. Zu Beginn der Industriellen Revolution im Jahr 1880 begannen viele manuelle Tätigkeiten, von Maschinen übernommen zu werden. Diese Maschinen waren besonders für wiederholende Aufgaben geeignet, da sie nach einem zyklischen Muster arbeiteten. Ein bemerkenswerter Meilenstein in dieser Entwicklung war die Einführung des programmierbaren Webstuhls durch Joseph Marie Jacquard zu Beginn des 19. Jahrhunderts. Dieser Webstuhl wurde durch Lochkarten gesteuert, die Informationen über das zu webende Muster enthielten. Der Webstuhl machte das Handwerk des Webens zu einer „Programmierkunst“, wobei das Muster auf einem Medium analog zum Gewebe aufgebracht wurde.
In den 1930er und 1940er Jahren wurde das Gebiet der Programmierung weiter verfeinert. Mit der Entwicklung von Berechnungsmaschinen und der Anwendung der Booleschen Algebra begannen sich programmiertechnische Ansätze klarer herauszubilden. Besonders hervorzuheben sind die Patente von Konrad Zuse aus dem Jahr 1937, in denen er eine Computerarchitektur beschrieb, die später als von-Neumann-Architektur bekannt wurde. Zuse entwickelte zudem eine Programmiersprache namens „Plankalkül“, die Ideen aus dem Lambda-Kalkül aufgriff und als Grundlage für spätere Entwicklungen diente. Die von-Neumann-Architektur bildet noch heute die Grundlage für die meisten Computer, die wir kennen, und bezieht sich auf ein Modell, bei dem Programminformationen und Daten im selben Speicher abgelegt sind.
In den 1950er Jahren kam es zu einem weiteren Durchbruch. Grace Hopper, eine amerikanische Informatikerin, entwickelte erstmals die Idee, Computerprogramme in einer für den Menschen verständlichen Sprache zu schreiben. Sie ermöglichte mit der Entwicklung des ersten Compilers und der Programmiersprache FLOW-MATIC einen entscheidenden Schritt hin zur Schaffung von COBOL, einer der ersten weit verbreiteten Programmiersprachen. In den USA wurden zu dieser Zeit die ersten modernen Programmiersprachen entwickelt: FORTRAN (1954) und LISP (1959), die bis heute eine wichtige Rolle spielen. Ein weiteres bedeutendes Ereignis in dieser Ära war die Entwicklung von ALGOL 58 und 60, einer internationalen Programmiersprache, die viele spätere Programmiersprachen beeinflusste.
Die 1960er und 1970er Jahre waren von der Entwicklung neuer Paradigmen in der Programmierung geprägt. In dieser Zeit wurden zahlreiche neue Programmiersprachen entwickelt, wobei der größte Erfolg durch Weiterentwicklungen bestehender Sprachen erzielt wurde. Ein gutes Beispiel ist die Programmiersprache C, die von Ken Thompson und Dennis Ritchie entwickelt wurde und auch heute noch weit verbreitet ist. Gleichzeitig begann in dieser Zeit die sogenannte „Softwarekrise“, bei der die Kosten für Software die für Hardware überstiegen. Dies führte zu einem deutlichen Bewusstsein für die Notwendigkeit, neue Entwicklungsprozesse zu etablieren und die Effizienz von Softwareprojekten zu steigern.
Die Entwicklung von Programmiersprachen und Programmiermethoden zeigt einen klaren Trend hin zu immer höherer Abstraktion und Modularität. Moderne Programmiersprachen und Entwicklungswerkzeuge erlauben es Entwicklern, mit weniger direkter Arbeit auf der Maschine zu arbeiten und sich auf die Problemlösung auf höherer Ebene zu konzentrieren. Das führt zu einer besseren Wartbarkeit, Wiederverwendbarkeit und Benutzerfreundlichkeit von Software. Diese Prinzipien, zusammen mit der kontinuierlichen Verbesserung der Entwicklungsprozesse und der Entstehung neuer Testmethoden, haben die Softwareentwicklung entscheidend geprägt.
Ein Aspekt, der für die Praxis der Softwareentwicklung von zentraler Bedeutung ist, ist die enge Zusammenarbeit im Team. Moderne Entwicklungsprozesse sind oft von iterativen und parallelen Arbeitsabläufen geprägt, wobei spezialisierte Entwickler und Tools eine wichtige Rolle spielen. In diesem Zusammenhang muss stets bedacht werden, dass das Testen von Software nie zu 100% sicherstellt, dass alle Fehler eliminiert sind. Auch wenn ein Testlauf erfolgreich verläuft, garantiert das nicht, dass bei einer anderen Eingabe das gleiche Ergebnis erzielt wird. Dieser Umstand zeigt die Komplexität und die Herausforderungen, die mit der Entwicklung von Software verbunden sind.
Darüber hinaus ist es wichtig, dass Unternehmen, die Software entwickeln oder kaufen, immer einen zuverlässigen Partner an ihrer Seite haben. Sollte der Lieferant versagen oder das Projekt nicht wie erwartet voranschreiten, müssen Notfallpläne existieren. Das gilt besonders für Unternehmen, die Software selbst entwickeln. In jedem Fall sollte immer ein Plan B bereitstehen, um das Risiko von Fehlschlägen zu minimieren.
Die Geschichte der Programmierung und der Programmiersprachen zeigt, dass die Entwicklung nicht nur technologische, sondern auch organisatorische und soziale Dimensionen umfasst. Die kontinuierliche Verbesserung von Prozessen, die Einführung neuer Paradigmen und die Entwicklung von Programmiersprachen, die immer leistungsfähiger und benutzerfreundlicher werden, sind das Ergebnis jahrelanger Forschung und Zusammenarbeit von Informatikern weltweit. Dabei bleibt die Softwareentwicklung ein sich ständig weiterentwickelndes Feld, das heute mehr denn je von der Kreativität und Zusammenarbeit der Entwickler abhängt.
Wie die Explosion der USS Maine zu einem Mythos wurde: Falsche Fakten und Kriegsmythen im späten 19. Jahrhundert
Wie Ziggy Stardust den Rock’n’Roll neu definierte und die Musikgeschichte prägte
Wie vermittelt man Kindern Verantwortung und Werte ohne Zwang?
Wie beeinflusst Digitalisierung die Wertschöpfung und Organisation von Unternehmen?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский