Die Annahme, dass Wissen automatisch Einstellungen und Verhalten beeinflusst, ist zu simpel und wird durch empirische Befunde infrage gestellt. Das elaboration likelihood model (ELM) verdeutlicht, dass Informationsverarbeitung über zwei verschiedene Wege erfolgt: einen zentralen, systematischen und einen peripheren, heuristischen Pfad. Die Wahl des Pfades hängt maßgeblich von Motivation und kognitiver Kapazität ab. Menschen mit geringer Motivation oder kognitiver Ressourcen neigen dazu, Informationen peripher zu verarbeiten, sodass rein faktenbasierte Botschaften oft nicht den gewünschten Einstellungswandel oder Verhaltensänderungen bewirken. Daraus folgt, dass edukative Maßnahmen nicht allein auf Wissensvermittlung setzen sollten, sondern auch die Motivation und die Art der Informationsaufnahme der Zielgruppe berücksichtigen müssen.

Darüber hinaus zeigen Studien, dass Verhalten durch häufige Wiederholung in stabilen Kontexten zur Gewohnheit wird. Im Durchschnitt bedarf es etwa 66 Tage, um eine neue Handlung zu automatisieren. Dies legt nahe, dass Sicherheits- und Schulungsprogramme so gestaltet sein sollten, dass sie eine regelmäßige und langfristige Wiederholung des gewünschten Verhaltens ermöglichen, um nachhaltige Verhaltensänderungen zu erzielen. Dabei ist die Rolle von „Habit Shaping“ zentral, da es nicht immer eine Änderung der Einstellungen erfordert, sondern durch Gewohnheitsbildung eine Verhaltensfestigung bewirken kann.

Ein weiterer entscheidender psychologischer Mechanismus für sicherheitskritische Systeme ist das Konzept der Affordanzen, das auf der ökologischen Wahrnehmungstheorie basiert. Affordanzen beschreiben die unmittelbare Beziehung zwischen Wahrnehmung und Handlung, ohne dass kognitive Zwischenschritte nötig sind. Ein Objekt oder System „zeigt“ durch sein Design, wie es verwendet werden kann. Dies wurde von Don Norman populär gemacht und auf den Straßenverkehr mit dem Konzept der „self-explaining roads“ übertragen. Ein Beispiel hierfür ist eine schmale Straße, die automatisch zu einer niedrigeren Fahrgeschwindigkeit führt, was sich positiv auf die Verkehrssicherheit auswirkt. Das gezielte Design von Maschinen, Arbeitsplätzen und Systemen, das Affordanzen berücksichtigt, kann somit erwünschtes sicheres Verhalten unmittelbar fördern.

Die partizipative Einbeziehung der Nutzer bei der Entwicklung oder Änderung von Arbeitsplätzen und Sicherheitssystemen ist ebenfalls essenziell. Nutzerzentriertes Design (nach DIN EN ISO 9241-210) trägt dazu bei, Systeme optimal an die Bedürfnisse, Fähigkeiten und Präferenzen der Anwender anzupassen. Außerdem erhöht die Beteiligung der Nutzer an der Systemgestaltung die Akzeptanz und die korrekte Anwendung sicherheitsrelevanter Technologien wie Assistenzsystemen.

Das 4-E-Konzept (Enforcement, Education, Encouragement, Engineering) stellt eine integrative Strategie zur Sicherheitsförderung dar. Enforcement beinhaltet Maßnahmen zur Regelsetzung und Sanktionierung von Regelverstößen. Education umfasst Schulungen und Informationsmaßnahmen zur Wissensvermittlung und Verhaltenswiederholung. Encouragement nutzt Anreize, um die Kosten-Nutzen-Bilanz des sicheren Verhaltens zu verbessern, etwa durch Belohnungen. Engineering schließlich bezieht sich auf die technische Gestaltung und Optimierung von Systemen und Arbeitsplätzen zur Förderung sicheren Verhaltens.

Ein praktisches Beispiel für die Anwendung des 4-E-Konzepts ist ein Fertigungsbetrieb, der Manipulationen an Sicherheitseinrichtungen reduzieren möchte. Dies könnte durch eine Kombination aus disziplinarischer Sanktionierung, langfristiger Sicherheitsschulung mit Verhaltensprotokollierung, Anreizsystemen für manipulationsfreies Arbeiten und partizipativer Entwicklung benutzerfreundlicher Sicherheitseinrichtungen erfolgen. Die Kombination der vier Komponenten sorgt für ein vielschichtiges und effektives Sicherheitsmanagement.

Die reine Fokussierung auf Enforcement, wie es frühe Taylor’sche Modelle nahelegen, ist nicht ausreichend, um Unfälle oder unsichere Systemergebnisse zu verhindern. Die Einbindung von Encouragement und Educa

Wie kann Resilienz kritischer Infrastrukturen trotz unvermeidbarer Störungen gewährleistet werden?

Die zunehmende Bedeutung von Resilienz geht einher mit der Erkenntnis, dass nicht jede Störung verhindert werden kann. Es ist deshalb unerlässlich, zu lernen, wie mit den Folgen solcher Ereignisse umzugehen ist. Im Kontext kritischer Infrastrukturen wird Resilienz zum entscheidenden Faktor, um die Kontinuität und Zuverlässigkeit essenzieller Dienstleistungen auch angesichts der Unsicherheit und Unvorhersehbarkeit von Bedrohungen sicherzustellen. Durch die Entwicklung von Strategien, die auf den Umgang mit Störungen abzielen, kann der Einfluss gefährlicher Bedingungen minimiert und die Funktionsfähigkeit der Infrastruktur selbst in Extremsituationen erhalten werden.

Zur Beurteilung der Resilienz von Infrastrukturen existieren unterschiedliche methodische Ansätze. Eine grundlegende Unterscheidung lässt sich zwischen outcome-basierten (leistungsbasierten) und property-basierten (attributbasierten) Ansätzen treffen. Outcome-basierte Methoden bewerten die Resilienz anhand der Ergebnisse von Störereignissen, denen ein System ausgesetzt war. Dabei werden oft Leistungs- oder Resilienzkruven herangezogen, die den zeitlichen Verlauf der Systemleistung während einer Störung abbilden. Aus diesen Kurven können diverse Kennzahlen extrahiert werden, die beschreiben, wie gut das System das Ereignis bewältigt hat. Wichtig ist, dass für eine umfassende Bewertung mehrere Leistungsprofile berücksichtigt werden sollten, um die Komplexität realer Störungen abzubilden.

Property-basierte Ansätze messen Resilienz über den Zustand bestimmter Systemeigenschaften, die die Fähigkeit des Systems bestimmen, Störungen zu bewältigen. Hierzu gehören oft zusammengesetzte Indikatorrahmenwerke, die verschiedene Parameter zu einem aggregierten Resilienzstatus zusammenführen. Insgesamt zeigt sich, dass Sicherheitsmaßnahmen darauf abzielen, die Anfälligkeit eines Systems gegenüber Angriffen zu minimieren, während Resilienzkonzepte auf die Fähigkeit fokussieren, Leistungseinbußen durch Störungen möglichst gering zu halten und eine schnelle Erholung zu ermöglichen. Die Kombination beider Ansätze ist notwendig, um kritische Infrastrukturen umfassend zu schützen, denn Sicherheitsmaßnahmen können in bestimmten Szenarien versagen, während Resilienzstrategien bei unvorhersehbaren Kaskadeneffekten an ihre Grenzen stoßen.

Die Darstellung der Resilienz anhand von Leistungs- oder Resilienzkruven wurde maßgeblich von Bruneau et al. geprägt. Diese zeitabhängigen Kurven zeigen den Abfall der Systemleistung infolge eines plötzlichen Störfalls und die anschließende Erholung bis zum Ursprungsniveau. Die Resilienz eines Systems manifestiert sich in einer möglichst gering ausgeprägten Leistungseinbuße und einer raschen Rückgewinnung. Manche Systeme können sogar durch Störungen lernen und ihre Leistung über das ursprüngliche Niveau hinaus steigern. Die Resilienzverluste werden mathematisch häufig durch Integration der Differenz zwischen dem optimalen Leistungsniveau und dem tatsächlichen Leistungsprofil über die Dauer der Störung beschrieben.

Für eine präzise Modellierung von Absorptions- und Erholungsphasen bieten sich logistische Funktionen an. Parameter wie die Tiefe des Leistungseinbruchs, die Geschwindigkeit des Leistungsabfalls (Rapidität) und der Zeitpunkt des Wendepunkts erlauben es, sowohl robuste Systeme mit geringem Leistungseinbruch als auch solche mit sanfterer Degradation zu beschreiben. Die Erholungsphase wird analog modelliert, wobei eine schnelle Rückkehr zur Ausgangsleistung das Ziel ist. Maßnahmen, die die Parameter in Richtung geringerer Leistungseinbußen und schneller Erholung verändern, erhöhen die Resilienz maßgeblich.

Die Bewertung der Verwundbarkeit gegenüber physischen Angriffen erfolgt meist durch die Wahrscheinlichkeit, dass ein Angriff nicht rechtzeitig unterbrochen werden kann. Ein physisches Schutzsystem reduziert diese Verwundbarkeit durch Erkennung, Verzögerung und Intervention. Hierbei ist die Identifikation möglicher Angriffspfade entscheidend, die als räumlich-zeitliche Abfolge von zu überwindenden Barrieren modelliert werden können. Mehrere Angriffspfade ergeben sich aus sogenannten Adversary Sequence Diagrams, die Zonen und Schutzbarrieren graphisch darstellen. Die Wirksamkeit von Sicherheitsmaßnahmen lässt sich durch die Schutz-, Beobachtungs- und Interventionsfähigkeiten jedes Barrierenpunkts charakterisieren. Beobachtungskapazitäten werden häufig durch die Wahrscheinlichkeit einer Detektion parametrisiert, Schutz- und Interventionsfähigkeiten durch Verzögerungs- und Reaktionszeiten, die es erlauben, Angreifer rechtzeitig zu stoppen.

Es ist wichtig zu erkennen, dass Resilienz nicht als Ersatz für Sicherheit zu verstehen ist, sondern als komplementärer Ansatz, der die Systemfunktion auch bei erfolgreichem Angriff oder Störung aufrechterhält. Dabei ist die Integration beider Konzepte entscheidend, um komplexe und dynamische Bedrohungsszenarien abzudecken. Die quantitative Modellierung von Resilienzkurven und die Bewertung der Verwundbarkeit ermöglichen nicht nur eine differenzierte Analyse, sondern auch die Entwicklung gezielter Maßnahmen, die sowohl präventiv als auch reaktiv wirken.

Zusätzlich ist zu berücksichtigen, dass Resilienzentwicklung ein dynamischer Prozess ist, der kontinuierliche Anpassung und Lernen einschließt. Systeme sollten nicht nur auf einmalige Störungen vorbereitet sein, sondern auch in der Lage sein, aus Erfahrungen zu lernen und ihre Fähigkeiten stetig zu verbessern. Dabei spielt die Vernetzung und Interdependenz kritischer Infrastrukturen eine große Rolle, da Störungen in einem Teilbereich Kaskadeneffekte auslösen können, die das gesamte System gefährden. Resilienzstrategien müssen deshalb auch diese komplexen Wechselwirkungen abbilden und adaptive Maßnahmen vorsehen, um die Auswirkungen solcher Kaskaden zu minimieren.

Wie kann die Sicherheit bei der Herstellung und Verarbeitung reaktiver Metallpulver gewährleistet werden?

Die Handhabung reaktiver Metallpulver birgt erhebliche Sicherheitsrisiken, da diese Materialien bei Kontakt mit Sauerstoff oder einer Zündquelle schnell zu thermischen Reaktionen, wie Verbrennung oder Explosion, neigen können. Insbesondere Titanpulver zeigt eine hohe Empfindlichkeit: Schon Energieeinträge im Bereich von 3 bis 30 mJ können eine Zündung auslösen, und Temperaturen zwischen 300 und 700 °C reichen aus, um die thermische Selbstbeschleunigung zu starten. Während der Verarbeitung entsteht häufig Staub, der in Form von Wolken in der Luft schwebt und bei entsprechender Konzentration und Zündung zu heftigen Reaktionen führen kann.

Aluminium und seine Legierungen weisen ebenfalls eine hohe Reaktivität gegenüber Sauerstoff auf. Die Gefährdung durch pyrophore Partikel hängt stark von der Partikelgröße, Morphologie und der Oberflächenbeschaffenheit ab. Bereits Partikel im Nanometerbereich – deutlich kleiner als die in der additiven Fertigung eingesetzten Pulvergrößen – können spontan entzünden. Insbesondere während der Pulverherstellung durch Atomisierung entstehen feine Staubpartikel, die sich an Maschinenteilen ablagern und die Explosionsgefahr erhöhen. Die minimale Zündtemperatur (MIT) für Aluminiumstaub liegt etwa bei 330 °C, abhängig von der Dichte der Staubwolke.

Refraktäre Metalllegierungen wie Wolfram, Molybdän und Tantal, die in Hochtemperaturanwendungen wie der Luftfahrt oder der Kerntechnik verwendet werden, stellen besondere Herausforderungen dar. Trotz ihrer hohen Schmelzpunkte zeigen sie eine geringe Oxidationsbeständigkeit. Die Bildung instabiler oder flüchtiger Oxide führt zu einem schnellen Materialabbau, weshalb eine umfassende Schutzatmosphäre nicht nur während der Verarbeitung, sondern auch bei Lagerung und Transport unerlässlich ist.

Magnesiumlegierungen erfahren zunehmendes Interesse, insbesondere im Bereich biokompatibler Implantate und leichter Strukturbauteile für die Luft- und Automobilindustrie. Reines Magnesium oxidiert sehr schnell und unkontrolliert, was eine Lagerung unter Sauerstoffabschluss erforderlich macht. Deshalb wird die additive Fertigung von Magnesium oft in Form von Draht-basierten Verfahren wie WAAM bevorzugt, die eine bessere Kontrolle der Materialdichte und Homogenität ermöglichen.

Die Herstellung der Pulver erfolgt überwiegend durch Inertgas-Atomisierung, die eine präzise Kontrolle über Partikelgröße, Form und Zusammensetzung erlaubt. Dabei werden Verfahren wie die vakuumgestützte Inertgasatomisierung (VIGA) und die Elektrodenschmelz-Gasatomisierung (EIGA) eingesetzt. Letztere eignet sich besonders für Materialien, die mit Tiegelmaterialien reagieren würden, da hier das Material kontinuierlich an der Elektrodenspitze geschmolzen und sofort vernebelt wird. Ultrasonische Atomisierung bietet flexible Möglichkeiten zur Herstellung kleiner Pulvermengen mit spezifischen Zusammensetzungen, besonders in der Forschung.

Nach der Pulverherstellung folgen Schritte wie das Absaugen, Sieben und Klassieren der Pulverfraktionen unter streng kontrollierten, sauerstofffreien Bedingungen. Dies ist notwendig, um Verunreinigungen zu vermeiden und die Sicherheit im Umgang mit den Pulvern zu gewährleisten. Zudem ist eine sorgfältige Reinigung der Anlagen essenziell, da Rückstände die Prozesssicherheit gefährden können.

Eine wichtige Maßnahme zur Erhöhung der Sicherheit ist die Passivierung der Pulveroberflächen. Dabei wird das frische Pulver gezielt einer kontrollierten Sauerstoffatmosphäre ausgesetzt, wodurch sich eine dünne, stabile Oxidschicht bildet. Diese Schicht schützt vor weiteren Reaktionen, reduziert die Entzündungsgefahr und ermöglicht einen sichereren Umgang während des Siebens und der Zuführung in die additiven Fertigungsmaschinen. Die Passivierung kann entweder in sauerstoffreicher Luft oder in einem inerten Gas mit kontrolliertem Sauerstoffanteil durchgeführt werden. Auch Beschichtungen zur Passivierung sind möglich, finden aber seltener Anwendung.

Neben der reinen chemisch-physikalischen Betrachtung ist für den sicheren Umgang mit reaktiven Pulvern das Verständnis der Prozessparameter sowie der Wechselwirkungen zwischen Partikelgröße, Oberflächenbeschaffenheit, Umgebung und Handhabungsbedingungen entscheidend. Die Implementierung umfassender Sicherheitskonzepte, einschließlich geeigneter Schutzmaßnahmen gegen Staubwolkenbildung, kontrollierte Atmosphären und präziser Temperaturüberwachung, ist unerlässlich. Nur so lassen sich Unfälle durch spontane Reaktionen vermeiden und die industrielle Nutzung reaktiver Metallpulver nachhaltig gestalten.

Wie verändert sich TiC durch Recycling und Legierungsanpassung und welche Auswirkungen hat das auf Werkstoffeigenschaften und Materialeffizienz?

Der Vergleich von TiC-Partikeln, die aus Zerspanungs-Spänen oder abgenutzten Werkzeugen zurückgewonnen wurden, mit dem ursprünglich eingesetzten TiC offenbart signifikante Veränderungen in Morphologie und Partikelgröße. Insbesondere die aus Spänen recycelten TiC-Partikel sind wesentlich feiner, da sie beim Zerspanungsprozess in kleinere Fragmente zerbrechen. Im Gegensatz dazu zeigen die aus Bulkmaterial recycelten TiC-Partikel eine korallenartige Morphologie und größere Partikelgrößen, was auf die Sinterstruktur des ursprünglichen TiC zurückzuführen ist. Die chemische Zusammensetzung des TiC verändert sich ebenfalls: Ursprünglich bestehen die TiC-Partikel aus etwa 80 Masseprozent Titan und 20 Masseprozent Kohlenstoff. Durch Recycling steigt der Molybdängehalt auf etwa 6,22 Masseprozent an.

Diese Anreicherung von Mo in den TiC-Partikeln entsteht während der Primärverarbeitung der Legierung Nikro128 durch eine ausgeprägte Mo-Diffusion in das TiC. Dabei bilden sich thermodynamisch stabilere TiMo-Monokarbide. Das Element Molybdän, mit größerem Atomdurchmesser und höherer Anzahl an Valenzelektronen im Vergleich zu Titan, erhöht durch seine Diffusion den metallischen Charakter der Monokarbide, was eine Verlängerung der Ti-C- und Mo-C-Bindungslängen zur Folge hat. Diese strukturellen Veränderungen führen zu einer Abnahme der Härte. Zudem ist die Wiederverwendung der TiMoC-Recyclate problematisch, da diese nur kraftschlüssig, nicht aber metallurgisch in die Matrix eingebunden werden können. Die Diffusion von Mo aus der Metallmatrix in das TiC erweist sich daher als wesentlich für eine metallurgische Integration.

Um diese Problematik zu lösen, wurde die Legierung Nikro128 durch Zugabe von Elementen mit einer stärkeren Neigung zur Bildung von Monokarbiden mit Titan weiterentwickelt. Dies verfolgt das Ziel, das TiC metallurgisch in die Matrix zu integrieren und gleichzeitig das Molybdän in der Matrix zu halten, um die Korrosionsbeständigkeit zu steigern. Niob wurde dabei als homologes Element zu Titan gewählt, da es ebenfalls Monokarbide bildet und eine hohe Löslichkeit in TiC besitzt. Die Auflösung von Nb in TiC führt zu einer Verkürzung der Bindungslängen und damit zu einer Stärkung der kovalenten Bindung, was wiederum die Scherhärte und Bruchzähigkeit erhöht.

DFT-Berechnungen bestätigen, dass die Härte mit steigender Nb-Lösung bis zu einem Anteil von 25 At.% zunimmt, während die Bruchzähigkeit ihr Maximum bei etwa 10 At.% Nb erreicht und bei höheren Konzentrationen abnimmt. Experimentelle Untersuchungen mit Nikro128-Proben, die zwischen 0 und 4 Masseprozent Nb enthielten, zeigten, dass sowohl Mo als auch Nb während der Verarbeitung in den harten TiC-Partikeln angereichert werden. Während der Molybdängehalt in der Matrix verbleibt und dort die Korrosionsbeständigkeit verbessert, führt die Zugabe von Nb zu einem Anstieg des Volumenanteils der harten Phase und einer Härtezunahme von etwa 3114 HV auf 3468 HV bei 2 Masseprozent Nb. Bei höheren Nb-Gehalten nimmt die Härte jedoch wieder ab, was durch sub-stöchiometrische Monokarbidbildungen ohne entsprechende Kohlenstoffanpassung erklärt wird.

Neben der Härte beeinflusst Nb auch die Morphologie der Monokarbide: Während die ursprüngliche TiC-Struktur in Nikro128 eine korallenartige Morphologie aufweist, wandeln sich die Partikel bei Nb-Zugabe zu einer größeren, sphärischen Form. Diese Veränderung wird durch kohärente Spannungen an der TiC-Oberfläche verursacht, welche die Auflösung und Neubildung der Karbide fördern. Größere, grobkörnige Karbide zeigen eine verbesserte Verschleißfestigkeit gegenüber gröberen Abrasivstoffen.

Wärmebehandlungsstudien verdeutlichen, dass die erhöhte Mo-Konzentration in der Matrix auch zu einer gesteigerten Korrosionsbeständigkeit des recycelten Nikro128-Materials führt. Diese Entwicklungen zeigen eindrucksvoll, dass ein tiefes Verständnis der Materialveränderungen während des Recyclings und eine gezielte Legierungsanpassung zu einer qualitativen Aufwertung der recycelten Werkstoffe führen können, was im Sinne eines Upcyclings zu bewerten ist.

Neben der metallurgischen Optimierung von TiC-Teilchen ist die Umnutzung (Repurposing) von gebrauchten Werkzeugen ein weiterer Ansatz, Ressourcen- und Energieeinsparungen zu realisieren. Anstelle eines klassischen Recyclings durch Einschmelzen und Neubildung von Halbzeugen können Werkstücke wie z.B. abgenutzte Kreismesser durch geeignete Schneidverfahren (Wasserstrahl, Laser) in neue Werkzeugrohlinge umgewandelt werden. Dadurch entfallen energieintensive Schritte wie Remelting, Umformung und erneute Wärmebehandlung, was den CO2-Fußabdruck erheblich reduziert. Die Umnutzung trägt somit neben der Materialersparnis auch zur Nachhaltigkeit in der Stahl- und Werkzeugindustrie bei.

Die hier beschriebenen Materialentwicklungen unterstreichen die Bedeutung eines integrativen Ansatzes, der chemische Zusammensetzung, Mikrostruktur und thermische Behandlung aufeinander abstimmt, um die Leistung recycelter Werkstoffe zu optimieren. Insbesondere die gezielte Steuerung von Legierungselementen in Monokarbidphasen kann eine Balance zwischen Härte, Zähigkeit und Korrosionsbeständigkeit schaffen, die für Hochleistungsanwendungen entscheidend ist.

Wichtig ist zu verstehen, dass die Materialeigenschaften nicht nur von der reinen Legierungszusammensetzung abhängen, sondern auch stark von der Mikrostruktur und deren Veränderung durch Prozessschritte wie Recycling und Wärmebehandlung beeinflusst werden. Die Diffusionsprozesse von Elementen wie Mo und Nb in die Karbidphasen sind hierbei zentral, da sie die Bindungsverhältnisse auf atomarer Ebene modifizieren und dadurch die mechanischen und chemischen Eigenschaften maßgeblich steuern. Diese Wechselwirkungen zu kontrollieren, eröffnet Potenziale für eine nachhaltige Werkstoffentwicklung, die sowohl ökologische als auch ökonomische Vorteile bietet.