Die Integration moderner Technologien in industrielle Systeme erfordert eine umfassende Betrachtung der Wechselwirkungen zwischen Technologie, Aufgaben, Kultur, Struktur, Macht, Strategie, Regulierung, Gesellschaft und Märkten. Diese komplexen Dynamiken können nur durch fortschreitende Digitalisierung und insbesondere durch den Einsatz Künstlicher Intelligenz (KI) ökonomisch effizient verarbeitet werden. KI-gestützte Systeme, wie Bildanalysealgorithmen in der Qualitätssicherung oder große Sprachmodelle zur Analyse und Gestaltung von Prozessanweisungen, ermöglichen eine tiefgehende Verknüpfung globaler Trends mit lokalen Realitäten. Doch mit der zunehmenden Abhängigkeit von IT-Infrastrukturen wachsen auch die Anforderungen an das Sicherheitsmanagement und integrierte Managementsysteme (IMS), da Cybersecurity-Risiken ansteigen. Dabei ist es entscheidend, KI nicht nur zur Standardisierung und Bürokratisierung von Entscheidungsprozessen einzusetzen, sondern auch menschliches Fachwissen und soziale Interaktionen zu fördern, um Entfremdung entgegenzuwirken.
Im Kontext von Industrie 5.0 stehen insbesondere die sogenannten Cobots im Fokus, also kollaborative Roboter, die gemeinsam mit Menschen arbeiten. Diese erfordern nicht nur objektive Produktsicherheit, sondern müssen auch ein subjektives Gefühl von Sicherheit bei den Mitarbeitenden erzeugen. Hier zeigt sich die Relevanz des Begriffs der „wahrgenommenen Produktsicherheit“ aus individueller Perspektive. Während Ingenieure Sicherheit primär objektiv über akzeptierte und berechnete Risiken definieren, ist die tatsächliche Nutzung eines Produktes stark davon abhängig, ob der Nutzer sich sicher fühlt.
Das Gefühl von Sicherheit basiert auf der Erfüllung grundlegender menschlicher Bedürfnisse, wie sie Maslows Bedürfnishierarchie beschreibt: physiologische Bedürfnisse, Sicherheit, soziale Bindungen, Selbstwert und Selbstverwirklichung. Diese psychologischen Dimensionen gewinnen vor dem Hintergrund der Zusammenarbeit mit Cobots an Bedeutung, da die Interaktion von Mensch und Roboter nicht nur technisch sicher sein muss, sondern auch vertrauenswürdig und komfortabel erscheinen soll.
Zur systematischen Erfassung und Gestaltung von wahrgenommener Sicherheit wurden Modelle entwickelt, die zahlreiche Einflussfaktoren und deren Wechselwirkungen berücksichtigen. Ein Beispiel ist ein Modell aus dem Bereich des autonomen Fahrens der Stufe 3, das 17 Einflussfaktoren auf die wahrgenommene Sicherheit von Fahrzeuginsassen identifiziert und in fünf Kategorien zusammenfasst: Kontrolle, Schutzgefühl, Messungen, externe Einflüsse und Körperhaltung des Fahrers.
Die Kategorie „Kontrolle“ umfasst Faktoren wie die Mensch-Maschine-Schnittstelle (HMI) und Fahrerassistenzsysteme (ADAS), die für die Kommunikation und Sicherheit entscheidend sind. Hierbei spielen akustische, haptische und visuelle Elemente eine zentrale Rolle, da sie das Sicherheitsgefühl beeinflussen. Die „Körperhaltung“ berücksichtigt sowohl objektive Maße wie Anthropometrie und Bewegungsfreiheit als auch subjektive Komfortempfindungen, die durch individuell einstellbare Sitze verbessert werden können.
„Messungen“ beziehen sich auf haptische Reize, Gerüche, Beleuchtung sowie Schallwahrnehmungen, die alle die Qualität und das Sicherheitsgefühl beeinflussen können. „Externe Einflüsse“ umfassen Umweltbedingungen wie Temperatur und Luftfeuchtigkeit, deren optimale Einstellung für subjektives Wohlbefinden wichtig ist. Das „Schutzgefühl“ umfasst den wahrgenommenen Raum und das Feedback der Bedienelemente, die das Sicherheitsgefühl stärken.
Diese Faktoren wirken nicht isoliert, sondern interagieren miteinander, wodurch sie sich gegenseitig verstärken oder abschwächen können. Die objektive Messung der Faktoren erfolgt etwa durch Sensorik, während subjektive Eindrücke über Befragungen erfasst werden. Ziel ist es, durch diese multidimensionale Betrachtung nicht nur die technische Sicherheit zu garantieren, sondern auch die Akzeptanz und das Vertrauen der Nutzer zu fördern.
Damit die Transformation zur Industrie 5.0 erfolgreich verläuft, ist es unerlässlich, das Zusammenspiel von Mensch und Technologie ganzheitlich zu verstehen und zu gestalten. Die Entwicklung von Systemen, die nicht nur objektiv sicher sind, sondern auch subjektiv als sicher wahrgenommen werden, ist zentral. Hierbei muss berücksichtigt werden, dass Sicherheitsempfinden individuell unterschiedlich ist und von einer Vielzahl von physischen, psychologischen und sozialen Faktoren beeinflusst wird.
Darüber hinaus ist zu bedenken, dass wahrgenommene Sicherheit auch durch soziale Interaktionen und kulturelle Prägungen geprägt wird, die in globalen, aber lokal unterschiedlichen Märkten variieren können. Unternehmen sollten daher neben technologischen Lösungen auch kommunikative und organisatorische Maßnahmen entwickeln, um Vertrauen und ein positives Sicherheitsgefühl zu fördern.
Die Akzeptanz von KI und Cobots wird maßgeblich davon abhängen, wie gut es gelingt, diese subjektiven Sicherheitsaspekte in der Produktentwicklung, der Arbeitsplatzgestaltung und der Sicherheitskultur zu integrieren. Nur durch eine Balance von technischer Präzision und menschlicher Erfahrung kann die Symbiose von Mensch und Maschine gelingen, die Industrie 5.0 verspricht.
Wie können Convolutional Neural Networks in der optischen Inspektion der Holz-Gabelproduktion eingesetzt werden?
Die Anwendung von Convolutional Neural Networks (CNNs) hat sich als äußerst effektiv in verschiedenen Bereichen erwiesen, insbesondere bei Aufgaben wie der Bildklassifikation, der Objekterkennung und der Segmentierung. Ihre Fähigkeit, hierarchische Merkmale von Daten zu extrahieren und zu lernen, hat zu bedeutenden Fortschritten in Bereichen wie der Gesichtserkennung, der medizinischen Bildanalyse und auch in der Automobilindustrie, insbesondere im autonomen Fahren, geführt. In diesem Kapitel wird untersucht, wie CNNs zur optischen Inspektion in der Produktion von Holz-Gabeln verwendet werden können, um sicherheits- und funktionskritische Defekte zu identifizieren und so die Qualität der produzierten Waren zu gewährleisten.
Der Produktionsprozess von Holz-Gabeln ist je nach Hersteller und Art des Bestecks unterschiedlich, lässt sich jedoch grundsätzlich in mehrere Hauptschritte unterteilen. Zunächst werden aus Holzblöcken glatte und saubere Holzfurniere mittels eines Rotationsverfahrens geschnitten, wobei auch unregelmäßige Rinden entfernt werden. Anschließend werden die Furniere gestanzt, um die Grunddimensionen der Gabel zu erhalten, die dann in die richtige Form gefräst werden. Besonders relevant sind hier die Zinken der Gabeln, die während des Fräsens präzise bearbeitet werden müssen, um keine scharfen Kanten oder Fransen zu hinterlassen. Nach der Fräsbearbeitung werden die Gabeln poliert, um das Risiko von Ausfransungen oder scharfen Kanten zu minimieren. Nach einer Zwischentrocknung erfolgt das Heißpressen, um die gewünschte Form zu erzielen, und eine abschließende Beschichtung mit lebensmittelechten Materialien schützt vor Feuchtigkeit und erhöht die Haltbarkeit des Produkts.
Trotz dieser präzisen Herstellung können im Produktionsprozess Defekte auftreten, die die Funktionalität und Sicherheit der Gabeln beeinträchtigen können. Solche Fehler müssen durch visuelle Inspektion erkannt werden, um sicherzustellen, dass keine defekten Produkte in den Handel gelangen. Beispiele für solche Fehler sind: sprödes Besteck, das aufgrund ungeeigneten Holzes oder unzureichender Trocknung schnell bricht; Risse im Holz, die während des Trocknens oder der Verarbeitung entstehen können und die Gabeln anfällig für Brüche machen; ungleichmäßige Beschichtungen, die zu Flecken oder rauen Oberflächen führen; scharfe Kanten, die durch den Fräs- oder Stanzprozess entstehen und zu Verletzungen führen können; sowie unregelmäßige Oberflächen oder Verfärbungen, die durch falsche Temperaturbehandlung während des Heißpressens entstehen.
Um diese Fehler zuverlässig zu erkennen, wurden für diese Fallstudie 673 Bilder von Holz-Gabeln aufgenommen, wobei 401 Gabeln als fehlerfrei und 273 als defekt gekennzeichnet wurden. Die Bilder wurden unter konstanten Bedingungen in einem speziell entwickelten Testaufbau aufgenommen, der eine gleichmäßige Beleuchtung gewährleistet und eine starke Kontrastwirkung zwischen den Gabeln und dem Hintergrund erzeugt, was die Erkennung von Defekten erleichtert. Diese Bilder dienten als Grundlage für die Entwicklung eines AI-Modells, das mit Hilfe eines Convolutional Neural Networks (CNN) trainiert wurde.
Die vier wichtigsten Fehlerarten, die im Rahmen der Fallstudie identifiziert wurden, sind brüchige Zinken und Griffe, ausgefranste Kanten, natürliche Löcher im Holz sowie verbrannte Oberflächen, die durch fehlerhafte Temperaturbehandlung beim Heißpressen entstehen. Diese Defekte können durch gezielte Bildverarbeitung und die Anwendung eines trainierten CNNs in Echtzeit erkannt werden. Ein solcher automatisierter Inspektionsprozess ist nicht nur effizient, sondern auch wesentlich präziser als manuelle Inspektionen. Durch die frühzeitige Identifikation von Fehlern können Produktionsparameter in Echtzeit angepasst werden, um die Qualität der gefertigten Gabeln zu optimieren und die Wahrscheinlichkeit von sicherheitskritischen Mängeln zu minimieren.
Neben der praktischen Anwendung von CNNs zur Fehlererkennung spielt auch die Qualität und Menge der verwendeten Daten eine entscheidende Rolle für den Erfolg eines solchen Modells. Die Daten müssen nicht nur fehlerhafte und fehlerfreie Beispiele umfassen, sondern auch eine ausreichende Varianz in den aufgenommenen Bildern aufweisen, um eine breite Generalisierbarkeit des Modells zu gewährleisten. Dabei sind nicht nur die Bilder selbst von Bedeutung, sondern auch die Vorverarbeitung der Rohdaten, die Auswahl der richtigen Modellarchitektur und die Wahl der geeigneten Hyperparameter während des Trainingsprozesses.
Wichtig ist, dass der Erfolg eines CNN-Modells nicht nur von der Qualität der Daten abhängt, sondern auch von der kontinuierlichen Anpassung und Verbesserung des Modells im laufenden Betrieb. In der Praxis bedeutet dies, dass ein System, das einmal trainiert wurde, kontinuierlich überwacht und bei Bedarf mit neuen Daten und verbesserten Modellen nachtrainiert werden muss, um eine langfristige Fehlererkennung zu gewährleisten.
Wie die dynamische Rekonfiguration und Simulation die Zuverlässigkeit in automatisierten Systemen sichern
Die zunehmend automatisierten Systeme in modernen Fahrzeugen erfordern neue Architekturen, die die zuverlässige Ausführung kritischer Funktionen sicherstellen, auch bei unerwarteten Fehlern. Eine solche Architektur ist die zonale Architektur, bei der die Fahrzeugfunktionen in verschiedene Zonen unterteilt werden, um eine effizientere Kommunikation und eine einfache Skalierbarkeit zu gewährleisten. In diesen Zonen können elektronische Steuergeräte (ECUs) lokal miteinander kommunizieren und Ressourcen teilen. Dies reduziert nicht nur die Verkabelungskomplexität, sondern auch die Latenzzeiten, da die Distanzen zwischen den Geräten minimiert werden. Ein großer Vorteil dieser Architektur liegt in der verbesserten Redundanz, da Fehlertoleranzstrategien wie 2oo2 DFS (2-out-of-2 Dual-Channel Fail-Safe) oder 2oo3 TMR (2-out-of-3 Triple Modular Redundancy) innerhalb der Zonen oder sogar zonenübergreifend angewendet werden können.
Trotz dieser Vorteile stellt die spezialisierte Funktionalität der ECUs eine Herausforderung dar, da die Geräte innerhalb einer Zone mehrere Aufgaben gleichzeitig übernehmen müssen, was die Komplexität der Systeme erhöht. Besonders kritisch wird dies bei sicherheitsrelevanten Systemen, die über mehrere Zonen hinweg arbeiten und eine nahtlose Kommunikation und Ressourcennutzung sicherstellen müssen. Die Integration von Sicherheitsfunktionen über Zonen hinweg stellt dabei eine der größten technischen Herausforderungen dar.
Ein weiteres Schlüsselmerkmal moderner Fahrzeugarchitekturen ist die Fähigkeit zur dynamischen Rekonfiguration. Hierbei handelt es sich um die Fähigkeit von ECUs, ihre Aufgaben und Funktionen in Echtzeit anzupassen, um auf Fehler oder Störungen zu reagieren und den Betrieb des Systems ohne Ausfälle fortzusetzen. Diese Fähigkeit wird besonders in fehlerresistenten Systemen benötigt, bei denen der Betrieb auch nach dem Ausfall eines kritischen Teils weiter gewährleistet sein muss. In einem vollständig automatisierten Fahrzeug, das die Kontrolle über sicherheitskritische Funktionen übernimmt, ist diese Eigenschaft unerlässlich, um eine kontinuierliche und sichere Fahrt ohne menschliche Intervention zu ermöglichen.
Dynamische Rekonfiguration wird sowohl durch hardware- als auch softwarebasierte Anpassungen realisiert, die es den ECUs ermöglichen, Aufgaben oder Funktionen zwischen redundanten Komponenten zu verteilen. Ein typisches Beispiel findet sich in der Bremse- und Lenkkontrolle eines Fahrzeugs, wo mehrere ECUs zusammenarbeiten. Fällt eine der ECUs aus, übernimmt eine weitere, die sich im Bereitschaftsmodus befindet, deren Aufgaben. Diese Art der Rekonfiguration ist ein entscheidender Schritt hin zu selbständigen und sicheren Fahrzeugen der Zukunft.
Zur Modellierung und Simulation solcher dynamischen Rekonfigurationsprozesse werden häufig Markov-Prozesse eingesetzt. Diese probabilistischen Modelle beschreiben den Übergang von Systemzuständen, etwa vom normalen Betrieb zu einem rekonfigurierten Zustand nach einem Fehler. Für die Analyse des Systemverhaltens und die Bewertung der Ausfallwahrscheinlichkeiten müssen die Übergangsraten und -wahrscheinlichkeiten genau bestimmt werden. So lässt sich die Zeitspanne für den Übergang von einem funktionsfähigen Zustand zu einem sicheren Rekonfigurationszustand präzise vorhersagen. Ein Beispiel wäre die Bremssteuerung eines Fahrzeugs, bei der die Reaktionszeit auf einen Ausfall unter 30 Millisekunden liegen muss, um die Sicherheit zu gewährleisten.
Zudem ist es notwendig, dass die Reaktionszeit auf einen Ausfall kürzer ist als die Ausfalltoleranzzeit (Failure Tolerance Time Interval, FTTI), um gefährliche Ereignisse zu vermeiden. Diese Anforderungen sind in internationalen Normen wie der ISO 26262 festgelegt und stellen sicher, dass kritische Systeme wie Bremsen und Lenkung auch im Falle eines Teilausfalls weiter funktionsfähig bleiben.
Parallel dazu sind Simulationstechniken von zentraler Bedeutung, um die Zuverlässigkeit solcher komplexer Systeme zu überprüfen. Durch Simulationen können Ingenieure das Verhalten von Systemen unter verschiedenen Betriebsbedingungen vorab analysieren, ohne auf physische Tests angewiesen zu sein. Dies ist insbesondere in sicherheitskritischen Bereichen wie dem autonomen Fahren von Bedeutung, da reale Tests sowohl ethische als auch wirtschaftliche Herausforderungen mit sich bringen. Simulationen ermöglichen es, das Versagen von Komponenten oder Systemen präzise zu modellieren und so den Ausfall von sicherheitskritischen Systemen zu minimieren.
Simulationen spielen auch eine zentrale Rolle in der Wartungsplanung von Fahrzeugen, insbesondere bei Systemen, die aus mehreren interagierenden Komponenten bestehen. Sie können helfen, Schwachstellen zu identifizieren, bei deren Verbesserung die Zuverlässigkeit des Systems erhöht werden kann. Auch für komplexe Wartungsstrategien für reparierbare Systeme bieten Simulationen wertvolle Einblicke. So können beispielsweise Sensordaten integriert werden, um digitale Zwillinge für die Echtzeitüberwachung der Systemgesundheit zu schaffen. Diese Modelle ermöglichen eine vorausschauende Wartung, bei der potenzielle Ausfälle frühzeitig erkannt und behoben werden können, bevor sie zu größeren Problemen führen.
Die Fähigkeit, durch dynamische Rekonfiguration und fortgeschrittene Simulationstechniken sicherzustellen, dass selbst bei Fehlern der Betrieb fortgesetzt werden kann, ist ein entscheidendes Element der modernen Fahrzeugtechnik. In Zukunft wird es zunehmend notwendig sein, solche Systeme zu entwickeln, die selbst bei schwerwiegenden Fehlern weiterarbeiten können, ohne die Sicherheit und Funktionalität des Fahrzeugs zu beeinträchtigen.
Wie moderne Modelle das Fahrverhalten im Straßenverkehr beschreiben: Von konstanten Zeitlücken zu komplexen Fahrzeug- und Fußgängerdynamiken
Im dichten Verkehr wird die Geschwindigkeit der Fahrzeuge häufig als proportional zum Abstand zum vorausfahrenden Fahrzeug betrachtet. Die sogenannte Zeitlücke (T) ist der Kehrwert des Proportionalitätsfaktors und beschreibt die Zeitspanne, die vor einem potenziellen Zusammenstoß zwischen einem Fahrzeug und seinem Vordermann verbleiben würde, wenn letzterer abrupt stoppen würde, während das nachfolgende Fahrzeug konstant weiterfährt. Dieses Konzept ist als „Konstant-Zeit-Gap-Strategie“ bekannt und wurde in den 1980er Jahren im kalifornischen Verkehrskodex eingeführt, um den Sicherheitsabstand zu modellieren und fand schnell Anwendung in den damals aufkommenden Systemen für Adaptive Cruise Control (ACC). Es ist mittlerweile in ISO-Normen verankert, wie etwa in der ISO15622, die eine Zeitlücke von 0,8 bis 2,2 Sekunden empfiehlt, mit spezifischen Richtlinien von 1,8 Sekunden in den deutschen ADAC-Vorgaben.
Mit dem Aufkommen neuerer Modelle in den 1990er Jahren hat sich das Verständnis von Fahrzeugverhalten im Straßenverkehr weiterentwickelt. Ein wichtiger Bestandteil dieser Entwicklung waren nichtlineare Modelle, die die Dynamik des Fahrverhaltens realistischer abbildeten. Diese Modelle, die als „Optimal Velocity“-Modelle (OV-Modelle) bekannt wurden, basieren auf einer nichtlinearen Gleichgewichtsgeschwindigkeitsfunktion, die von der Entfernung zum vorausfahrenden Fahrzeug abhängt. Ein bahnbrechendes Beispiel für diese Art von Modell stammt aus den frühen Arbeiten von Reuschel, Chandler und Newell, die erstmals die Idee einer Geschwindigkeitsfunktion einführten. Trotz des irreführenden Begriffs „Optimal Velocity“, der den Eindruck einer Optimierung vermittelt, handelt es sich eher um eine beschreibende Funktion, die das Fahrverhalten in Relation zum Abstand und der Geschwindigkeit des vorausfahrenden Fahrzeugs modelliert. Diese Modelle wurden weiterentwickelt und beinhalten unter anderem den Ansatz von Bando et al., bei dem eine sigmoidal-arc-tangente Funktion als Grundlage verwendet wird. Auch neuere Varianten wie das Full Velocity Difference (FVD) Modell, das von Jiang et al. entwickelt wurde, betrachten neben dem Abstand auch die Geschwindigkeitsdifferenz zum Vordermann.
Der Übergang von den einfacheren klassischen Modellen zu den komplexeren OV-Modellen wurde durch Simulationsergebnisse angestoßen, die zeigten, dass Stop-and-Go-Wellen im stationären Zustand realistisch abgebildet werden konnten. Dies ermöglichte eine genauere Vorhersage von Verkehrsstörungen und eröffnete die Möglichkeit zur Modellierung und Kontrolle von Staus und Stop-and-Go-Dynamiken. Die mathematische Analyse dieser Modelle brachte wichtige Erkenntnisse, wie etwa die notwendige Reaktionszeit, die im Verhältnis zur Zeitlücke stehen muss, um stabile Verkehrsströme zu gewährleisten.
In den letzten Jahren hat die Entwicklung fahrerloser Fahrzeuge und die Einführung von fortschrittlichen Assistenzsystemen wie dem Adaptive Time Gap-Modell, das eine dynamische Anpassung der Zeitlücke in Echtzeit ermöglicht, zu einer weiteren Verfeinerung der Modelle geführt. Diese Modelle sind stabil und ermöglichen eine genauere Steuerung und Anpassung des Fahrverhaltens an die Verkehrsbedingungen.
Der Bereich der Fußgängerdynamik stellt eine zusätzliche Herausforderung dar, da Fußgänger nicht auf festen Bahnen bewegen und somit in zwei Dimensionen agieren. Daher müssen Fußgängermodelle eine Vielzahl von Variablen berücksichtigen, die mit den Positionen und Geschwindigkeiten der umgebenden Fußgänger interagieren. In Gegensatz zu Fahrzeugmodellen, die häufig nur die Nachbarn in einer Dimension berücksichtigen, interagieren Fußgänger in zwei Dimensionen, was die Komplexität ihrer Modellierung erhöht. Interaktionen zwischen Fußgängern basieren auf Faktoren wie dem Abstand, der Geschwindigkeitsdifferenz und sicherheitsrelevanten Variablen wie der Zeit bis zum Zusammenstoß (TTC). Pionierarbeiten im Bereich der Fußgängermodelle umfassen die soziale Kraft, ein Konzept, das ursprünglich in der sozialen Psychologie von Lewin entwickelt wurde und später auf die Modellierung des Fußgängerverhaltens angewendet wurde.
Force-based Modelle, wie das Social Force-Modell, beschreiben die Fußgängerdynamik durch die Superposition von verschiedenen Kräfte, die zwischen Fußgängern in der Umgebung wirken. Diese Kräfte umfassen Anziehungs- und Abstoßungskräfte sowie Kräfte zur Ausrichtung der Geschwindigkeit. Später wurde das Konzept der sozialen Kräfte durch Modelle wie das Centrifugal Force-Modell und das Generalised Centrifugal Force-Modell erweitert, die die Reichweite der Interaktionen vergrößern und das Verhalten realistischer abbilden.
Wichtige Weiterentwicklungen in der Fußgängermodellierung umfassen Optimierungsansätze, die auf Kollisionsvermeidung und Antizipation basieren. Diese Ansätze berücksichtigen die Bewegungen und Interaktionen der Fußgänger in komplexen Umgebungen, in denen zahlreiche Variablen gleichzeitig wirken.
Zusätzlich zu den mechanischen Aspekten der Interaktionen zwischen Fahrzeugen und Fußgängern spielen zunehmend auch die psychologischen und sozialen Faktoren eine Rolle. Wie reagieren Fahrer oder Fußgänger auf Veränderungen im Verkehrsgeschehen oder auf plötzlich auftretende Gefahren? Diese Fragen sind entscheidend, wenn es darum geht, die Dynamik des Straßenverkehrs nicht nur physikalisch zu verstehen, sondern auch in menschliche Verhaltensmuster zu integrieren. Weiterhin müssen die Modelle in der Lage sein, unterschiedliche Szenarien wie Notfälle oder unvorhersehbare Ereignisse zu berücksichtigen, was die Notwendigkeit für eine kontinuierliche Verbesserung und Anpassung der Verkehrsmodelle verdeutlicht.
Wie das Doppelspalt-Experiment die Unsicherheit in menschlichen Entscheidungen widerspiegelt
Wie man Sucht bei einem nahen Angehörigen erkennt: Ein Fallbeispiel
Welche Wege eröffnen sich durch Schulbasierte Mental Health Programme?
Wie russische Online-Aktivitäten die US-Wahlen beeinflussten: Eine Analyse der Social-Media-Manipulation

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский