Die Navier-Stokes-Gleichung, die das Verhalten von Fluiden beschreibt, bildet die Grundlage für viele Bereiche der Strömungsmechanik, von der Meteorologie bis zur Biophysik. Eine der wichtigsten Kennzahlen in diesem Zusammenhang ist die Reynolds-Zahl, die es ermöglicht, verschiedene Strömungssysteme miteinander zu vergleichen, indem sie den Einfluss von Trägheit und Reibung in einer Strömung quantifiziert.
In ihrer normalisierten Form lautet die Navier-Stokes-Gleichung:
wobei die Dichte, die Geschwindigkeit, der Druck und die Viskosität des Fluids sind. Der Parameter, der die Bedeutung der Viskosität und der Trägheit in einer Strömung bestimmt, ist die Reynolds-Zahl, definiert als:
wobei die Geschwindigkeit des Fluids, eine charakteristische Länge und die dynamische Viskosität des Fluids darstellt. Diese Zahl spielt eine entscheidende Rolle bei der Bestimmung des Strömungsverhaltens, da sie den Übergang von laminarer zu turbulenter Strömung anzeigt.
Betrachten wir als Beispiel ein Bakterium, das sich mit einer Geschwindigkeit von im Wasser bewegt und dabei eine Größe von hat. Wenn wir den Wert für des Wassers als und als annehmen, ergibt sich eine Reynolds-Zahl von:
Diese niedrige Zahl zeigt, dass der Reibungsterm in der Navier-Stokes-Gleichung dominieren wird, was zu einer stark viskosen Strömung führt, die als „Stokes-Strömung“ bezeichnet wird. In ähnlicher Weise könnte man für ein Protein, das sich im Inneren eines Bakteriums bewegt, eine Reynolds-Zahl berechnen, die ebenfalls sehr klein ist. Dies bedeutet, dass in vielen mikroskopischen Systemen wie Bakterien und Proteinen die Viskosität das Strömungsverhalten entscheidend beeinflusst.
Wenn wir jedoch die gleiche Größe auf den Menschen skalieren, würde die Reynolds-Zahl explodieren und das Strömungsverhalten würde sich dramatisch ändern. Ein Mensch müsste bei einer Geschwindigkeit von etwa 10 m/s durch ein Fluid schwimmen, das so viskos ist wie Teer, um dieselben Gleichungen der Bewegung zu befolgen. Dies zeigt, dass der Einfluss der Reynolds-Zahl nicht nur das Strömungsverhalten beeinflusst, sondern auch, dass die Übergänge zwischen verschiedenen Strömungsregimen — von laminar zu turbulent — von der Reynolds-Zahl abhängen.
Es ist auch wichtig, die Bedeutung der verschiedenen Strömungszustände zu verstehen. Bei niedrigen Reynolds-Zahlen dominieren die Reibungskräfte, und die Strömung bleibt laminar und stabil. Bei höheren Reynolds-Zahlen hingegen können sich Vortex-Strukturen und Turbulenzen bilden, die zu chaotischen und schwer vorhersagbaren Strömungen führen. Dies ist ein grundlegendes Konzept in der Strömungsmechanik, das in vielen praktischen Anwendungen von entscheidender Bedeutung ist.
In extremen Fällen, in denen die Reibungskräfte so stark sind, dass die Trägheitskräfte vernachlässigt werden können, wie es bei sehr kleinen Reynolds-Zahlen der Fall ist, vereinfacht sich die Navier-Stokes-Gleichung zur sogenannten Stokes-Gleichung:
was für Systeme mit niedrigen Reynolds-Zahlen, wie sie in der Mikrobiologie vorkommen, besonders wichtig ist. Diese Gleichung beschreibt das Verhalten von Flüssigkeiten, bei denen die Trägheitskräfte vernachlässigt werden, und ist daher von zentraler Bedeutung für die Untersuchung von Systemen wie Proteinen und Bakterien.
Ein weiteres Beispiel ist die Anwendung der Bernoulli-Gleichung, die aus der Euler-Gleichung hervorgeht, wenn man den Fall betrachtet, bei dem die Reibungskräfte vernachlässigt werden. Die Bernoulli-Gleichung beschreibt das Verhalten von nicht-viskosen Strömungen und erklärt unter anderem den „Venturi-Effekt“, der besagt, dass in einem Rohr mit verengtem Querschnitt die Strömungsgeschwindigkeit zunimmt und der statische Druck abnimmt. Dies wird durch die folgende Gleichung veranschaulicht:
Venturi zeigte, dass die Geschwindigkeit in einem verengten Rohrabschnitt zunimmt und der statische Druck sinkt, was eine praktische Anwendung der Bernoulli-Gleichung ist und in vielen Ingenieur- und medizinischen Anwendungen verwendet wird.
Letztlich zeigt sich, dass die Reynolds-Zahl als Schlüsselgröße dient, um das Strömungsverhalten in verschiedenen physikalischen Systemen zu verstehen und zu modellieren. Sie ermöglicht die Einteilung von Strömungen in verschiedene Regimes und hilft dabei, die richtigen Modelle und Näherungen für bestimmte Anwendungsfälle zu wählen. Besonders in der Mikroskala, wo die Viskosität eine dominante Rolle spielt, können Strömungen weitgehend durch die Stokes-Gleichung beschrieben werden. In größeren Systemen, wo die Trägheitskräfte stärker wirken, kommen die komplexeren Navier-Stokes-Gleichungen und die Bernoulli-Gleichung zur Anwendung. Das Verständnis dieser Prinzipien ist unerlässlich, um das Strömungsverhalten von Flüssigkeiten in unterschiedlichen Kontexten korrekt zu modellieren und zu erklären.
Wie Maxwell die Geschwindigkeitsverteilung von Gasen ableitete
Die kinetische Energie der Atome in einem Gas wird durch die Formel beschrieben, wobei die Boltzmann-Konstante und die Temperatur ist. Diese Beziehung bietet eine erste Annäherung an das Verhalten von Gasen auf atomarer Ebene und basiert auf der Annahme, dass die Atome sich in einer zufälligen Bewegung befinden. Diese Überlegung wurde erstmals von James Prescott Joule und später detailliert von Ludwig Boltzmann in seinen Vorlesungen zur Gasteorie formuliert. Es ist eine schöne, erste Schätzung, die die Bedeutung des atomistischen Ansatzes verdeutlicht. Es ist jedoch wichtig zu verstehen, dass nicht alle Atome in einem Gas dieselbe Geschwindigkeit haben werden. Einige werden schneller, andere langsamer sein. Diese Variation in den Geschwindigkeiten führt zu einer komplexeren Verteilung der Bewegungen, die nicht durch eine einfache mittlere Geschwindigkeit beschrieben werden kann.
Maxwell, der 1860 in seiner Veröffentlichung die Geschwindigkeitsverteilung von Gasen untersuchte, stellte fest, dass die Verteilung der Geschwindigkeiten nicht nur von der mittleren Geschwindigkeit der Moleküle abhängt, sondern auch von einer Vielzahl von Faktoren, die die genaue Geschwindigkeit eines jeden Teilchens beeinflussen. Wenn zwei Atome innerhalb eines Gases kollidieren, hängen ihre Geschwindigkeitskomponenten nach der Kollision nicht nur von den Massen und den Anfangsgeschwindigkeiten der Teilchen ab, sondern auch vom Kollisionswinkel und dem genauen Punkt der Kollision. Wenn ein schnelleres Atom ein ruhendes Atom nur leicht streift, wird nur ein kleiner Teil der relativen Geschwindigkeit übertragen. Dies bedeutet, dass nach vielen Kollisionen die Wahrscheinlichkeit, dass ein Atom mit einer Geschwindigkeit weit von der Durchschnittsgeschwindigkeit abweicht, immer geringer wird.
Maxwell suchte nach einer Möglichkeit, die Form der Geschwindigkeitsverteilung eines Gases aus einfachen Symmetrieüberlegungen abzuleiten. Er fragte sich, ob eine Funktion für die Geschwindigkeiten der Gasteilchen existieren könnte, die nur auf der Symmetrie der Raumrichtungen basierte. Da die Geschwindigkeitskomponenten orthogonal sind, müssen die Verteilungsfunktionen für jede dieser Komponenten die gleiche Form haben. Die Gesamtwahrscheinlichkeit, ein Teilchen mit einer bestimmten Geschwindigkeit zu finden, ergibt sich als Produkt der Wahrscheinlichkeiten für jede Geschwindigkeitskomponente. Diese Annahme führte zur Überlegung, dass die Geschwindigkeitsverteilung nur von der Größe der Gesamtgeschwindigkeit abhängen kann und dass diese Funktion sphärisch symmetrisch ist.
Die von Maxwell abgeleitete Geschwindigkeitsverteilung folgt der Exponentialfunktion. Diese ist in der Form beschrieben, wobei ein Normalisierungsfaktor und ein konstanter Faktor ist, der die Abhängigkeit von der Geschwindigkeit beschreibt. Dies bedeutet, dass die Wahrscheinlichkeit, ein Teilchen mit einer bestimmten Geschwindigkeit zu finden, exponentiell mit der Quadratgeschwindigkeit abnimmt. Die Funktion beschreibt die Dichte der Geschwindigkeiten im Geschwindigkeitsraum.
Maxwell’s Ansatz beruht auf der Annahme, dass die Geschwindigkeit in allen drei Raumrichtungen gleichverteilt ist und dass die Verteilung der Geschwindigkeiten von der Gesamtenergie des Systems und der Temperatur abhängt. Durch diese Annahme konnte er eine spezifische Form der Verteilung ableiten, die den bekannten Maxwell-Boltzmann-Verteilungsgesetzen entspricht. Diese Verteilung beschreibt die Wahrscheinlichkeit, ein Teilchen mit einer bestimmten Geschwindigkeit in einem idealen Gas zu finden, und ist von zentraler Bedeutung für das Verständnis von thermischen Prozessen in Gasen.
Es ist wichtig, die Rolle der Temperatur in diesem Zusammenhang zu verstehen. Die Temperatur eines Gases steht in direkter Beziehung zur mittleren kinetischen Energie der Teilchen. Eine höhere Temperatur bedeutet eine größere mittlere Geschwindigkeit der Gasteilchen und damit eine breitere Geschwindigkeitsverteilung. Diese Beziehung ist nicht nur für das Verständnis von Gasdynamik und Thermodynamik entscheidend, sondern auch für die Berechnungen in der Molekularkinetik und der statistischen Mechanik.
Zusätzlich ist zu beachten, dass die Maxwell-Boltzmann-Geschwindigkeitsverteilung eine ideale Annahme darstellt, die nur für ideale Gase gilt, bei denen Wechselwirkungen zwischen den Molekülen vernachlässigbar sind. In realen Gasen, in denen Wechselwirkungen zwischen Molekülen auftreten, weicht die Geschwindigkeitsverteilung von der Maxwell-Boltzmann-Verteilung ab. In solchen Fällen müssen Korrekturen berücksichtigt werden, die durch die Wechselwirkungen und den Molekülaufbau bedingt sind. Diese Abweichungen sind vor allem bei hohen Drücken und niedrigen Temperaturen von Bedeutung, wenn die intermolekularen Kräfte signifikant werden.
Ein weiteres wichtiges Konzept, das sich aus der Untersuchung der Geschwindigkeitsverteilung ergibt, ist die Vorstellung von der Entropie. Die Entropie eines Systems ist eng mit der Verteilung der Teilchen und ihrer Energie verbunden. Eine breite Verteilung der Geschwindigkeiten führt zu einem Zustand hoher Entropie, während eine schmale Verteilung mit einer geringeren Entropie assoziiert wird. Dieser Zusammenhang hilft, das Verhalten von Gasen auf einer tieferen, thermodynamischen Ebene zu verstehen und ist entscheidend für die Entwicklung von Modellen in der statistischen Mechanik.
Die Mechanik von Langkettenmolekülen und Fasern: Anwendung auf DNA und das Zellzytoskelett
Die Mechanik von langen Ketten oder Fasern spielt eine entscheidende Rolle in vielen biologischen Prozessen. Ein gutes Beispiel für die Anwendung dieser Mechaniken ist die Struktur und Funktionsweise der DNA, die als langes Polymer die genetische Information speichert. Ein menschliches Chromosom enthält etwa 150 Millionen Basenpaare, die sich bei vollständiger Entfaltung auf eine Länge von etwa fünf Zentimetern erstrecken. Um diese lange Kette kompakt im Zellkern zu speichern, hat die Natur elegante Mechanismen entwickelt. In Abbildung 4.1 wird ein Nucleosom gezeigt, das ein Histonprotein darstellt, um das DNA-Molekül so zu wickeln, dass die genetische Information dicht verpackt werden kann. Dabei ist es wichtig zu verstehen, wie stark sich die DNA lokal biegen lässt, um in so engen Räumen wie dem Zellkern effizient organisiert zu werden.
Ein weiteres Beispiel für die Bedeutung der Mechanik von Fasern findet sich im Zellzytoskelett, das der Zelle ihre Form und mechanische Stabilität verleiht, sie in die Lage versetzt, sich zu bewegen, und es ihr ermöglicht, sich an ihre Umgebung zu binden und Kräfte auf diese auszuüben. Das Zytoskelett besteht aus drei verschiedenen faserartigen Strukturen: Aktinfilamenten, intermediären Filamenten und Mikrotubuli. Diese Fasern sind aus Proteinen aufgebaut, deren mechanische Eigenschaften entscheidend für die Funktionsweise der Zelle sind. Abbildung 4.2 zeigt Aktinfilamente und Mikrotubuli in einer Zelle, die an ein speziell gestaltetes Substrat gebunden sind. In diesem Bild wird deutlich, wie wichtig die faserartigen Strukturen für die Zellstruktur sind.
Die Mechanik dieser Fasern ist komplex und erfordert ein detailliertes Verständnis der Wechselwirkungen der Moleküle. Ein einzelnes Aminosäurekettenmolekül, das nur wenige hundert Aminosäuren umfasst, faltet sich zu einer dreidimensionalen Struktur, bei der die Möglichkeit zur lokalen Verdrehung der Aminosäuresegmente entscheidend für die Flexibilität und Funktionalität ist. Ohne diese Rotationsfähigkeit könnten keine globulären, dreidimensionalen Proteine entstehen – die Ketten würden nur vollständig gestreckt bleiben.
In diesem Zusammenhang ist es wichtig, die Mechanik von Polymere genauer zu betrachten. Die einzelnen globulären Proteine der Aktinfilamente beispielsweise aggregieren und bilden lange Fasern oder Bündel, deren mechanische Eigenschaften spezifisch für das jeweilige Protein sind. Aktinfilamente sind die dünnsten der drei faserartigen Proteine, mit einem Durchmesser von nur 6 nm. Die kleinste Untereinheit, das G-Aktin, ist ein Protein, das in verschiedenen Isoformen vorkommt und aus 375 Aminosäuren besteht. In ihrem gefalteten Zustand zeigt G-Aktin eine enorme Zahl von Bindungspartnern, was zu seiner evolutionsbiologisch außergewöhnlich gut konservierten Struktur und Aminosäuresequenz führt. G-Aktin kann ATP binden und polymerisiert in seiner ATP-gebundenen Form zu F-Aktin, einem faserigen Aktin, das eine linkshändige Helix bildet. Diese Filamente können sich zu Netzwerken verbinden und sind von zentraler Bedeutung für das Zytoskelett und die Zellform, die Bewegung sowie die Anpassung an sich verändernde Umgebungen.
Die Dynamik der Aktinfilamente ist ebenfalls von wesentlicher Bedeutung, da diese Strukturen ständig polymerisieren und depolymerisieren. Dies ermöglicht der Zelle, sich aktiv an Veränderungen in ihrer Umgebung anzupassen. Ein Beispiel für diese Dynamik wird in Abbildung 4.4 gezeigt, wo ein Ring aus Aktinfilamenten eine von Bakterien induzierte transzelluläre Öffnung umgibt, um das Wachstum des Tunnels zu verhindern.
Die zweite Gruppe von wichtigen faserartigen Proteinen sind die intermediären Filamente, die mit einem Durchmesser von 8–12 nm größer sind als Aktinfilamente, aber kleiner als Mikrotubuli. Diese Fasern sind in ihrer Struktur und Funktion sehr unterschiedlich von den anderen beiden faserartigen Strukturen. Ihre Hauptaufgabe ist es, die strukturelle Integrität der Zelle zu bewahren, was sie besonders widerstandsfähig gegenüber mechanischen Belastungen macht. Im Vergleich zu Aktinfilamenten und Mikrotubuli sind intermediäre Filamente in der Lage, Spannungen und Torsionskräfte besser zu widerstehen. Diese Eigenschaft ist von zentraler Bedeutung für ihre Funktion im Zellzytoskelett, insbesondere in Zellen, die besonderen mechanischen Belastungen ausgesetzt sind, wie etwa in Hautzellen oder in Zellen des Nervensystems. Die Struktur dieser Fasern basiert auf Monomeren, die sich zu sogenannten Coiled-Coil-Strukturen zusammenlagern, die wiederum größere Filamente bilden.
Die mechanischen Eigenschaften der intermediären Filamente sind besonders relevant in Zellen, die hoher mechanischer Belastung ausgesetzt sind, etwa in Haaren, Nägeln oder Horn. Ihre Widerstandsfähigkeit gegenüber physischen Belastungen macht sie zu einer unverzichtbaren Komponente für die Aufrechterhaltung der Zellstruktur und des Zellverbundes. Auch in Zellen des Nervensystems, wie beispielsweise in Neurofilamenten, spielen intermediäre Filamente eine Schlüsselrolle, da sie den Zellen Stabilität verleihen und die Funktion des Zytoskeletts unterstützen.
Zusammenfassend lässt sich sagen, dass das Verständnis der Mechanik von langen Kettenmolekülen und faserartigen Strukturen von grundlegender Bedeutung ist, um die biologische Funktionsweise von Zellen und deren Interaktion mit ihrer Umgebung zu begreifen. Diese Fasern sind nicht nur strukturelle Elemente, sondern auch dynamische Akteure, die aktiv an der Anpassung der Zelle an ihre Umgebung beteiligt sind. Ihre Fähigkeit zur Flexibilität und Anpassung ist von entscheidender Bedeutung für die Zellen in verschiedenen biologischen Prozessen, wie etwa der Zellbewegung, der Zellteilung und der Aufrechterhaltung der Zellstruktur unter mechanischen Belastungen.
Wie verläuft die Zellteilung und was geschieht in den einzelnen Phasen des Zellzyklus?
Die Vorstellung, dass jede Zelle nur aus einer bereits existierenden Zelle hervorgehen kann – wie Rudolf Virchow es formulierte: „Omnis cellula e cellula“ – war ein fundamentaler Schritt im Verständnis biologischer Prozesse. Robert Remak erkannte früh die Rolle des Zellkerns in diesem Prozess und stellte fest, dass sich dieser während der Zellteilung ebenfalls teilt, anstatt neu zu entstehen. Die Beobachtungen von Walther Flemming führten schließlich zur Definition der Begriffe Chromatin und Mitose und ermöglichten durch gezielte mikroskopische Studien eine erste zeitliche Modellierung des Ablaufs der Zellteilung. Die Debatten jener Zeit – etwa über die Existenz des Spindelapparats – verdeutlichen den kritischen Charakter wissenschaftlicher Erkenntnisfindung.
Erst die Kombination aus verbesserten Mikroskoptechniken und neuen Färbemethoden im späten 19. Jahrhundert erlaubte es, die einzelnen Stadien der Mitose im Detail zu erkennen. Flemming arrangierte verschiedene beobachtete Zellteilungsphasen zu einer logischen Sequenz und schuf damit eine visuelle Grundlage für das Verständnis dieses dynamischen Prozesses. Besonders die Ausbildung des Spindelapparats und die Organisation der Chromosomen in einer Metaphasenplatte wurden als zentrale Strukturen erkannt. Dennoch blieb die molekulare Funktionsweise dieser Strukturen bis weit ins 20. Jahrhundert unbekannt.
Lange Zeit galt die Mitose als die eigentliche Phase der Zellteilung, während der Rest des Zyklus pauschal als Interphase verstanden wurde. Erst mit der Entdeckung der DNA als Träger genetischer Information in der Mitte des 20. Jahrhunderts wurde klar, dass die Verdopplung des Erbmaterials zu einem definierten Zeitpunkt in der Interphase stattfindet – in der sogenannten S-Phase (Synthesis-Phase). Diese Erkenntnis führte zur heutigen Einteilung des Zellzyklus in die Phasen G1, S, G2 und M.
In der G1-Phase befindet sich die Zelle unmittelbar nach der Teilung. Ihre Masse ist zunächst nur halb so groß wie zuvor, daher beginnt sie mit intensiver Biosynthese, um wieder zu ihrer funktionalen Größe zu gelangen. Viele Zellen nutzen diese Phase zur Differenzierung und treten anschließend in einen Ruhezustand ein – die sogenannte G0-Phase. Hier verweilen sie oft über lange Zeit oder dauerhaft, ohne weitere Teilungen durchzuführen. Dennoch können äußere Signale eine Rückkehr in die G1-Phase auslösen, sofern bestimmte Bedingungen erfüllt sind.
Der Übergang von der G1- zur S-Phase ist streng reguliert. Ein molekularer Kontrollpunkt, der sogenannte G1-Checkpoint, stellt sicher, dass die Zellumgebung und der physiologische Zustand für die DNA-Replikation geeignet sind. Ist dies der Fall, beginnt die S-Phase, in der nicht nur das genetische Material, sondern auch die Zentrosomen dupliziert werden. Die DNA-Replikation ist bei Eukaryoten mit großen Chromosomen eine hochkomplexe Aufgabe. Sie beginnt synchron an vielen Initiationspunkten und führt zur Bildung zweier identischer Chromatiden, die durch den Cohesin-Komplex verbunden sind.
An die S-Phase schließt sich die G2-Phase an – eine weitere „Gap“-Phase, in der die Replikation überprüft und mögliche Fehler im Erbgut erkannt und repariert werden. Der G2-Checkpoint ist hierbei von entscheidender Bedeutung. Er wird unter anderem durch die Kinasen ATM und ATR kontrolliert, die auf DNA-Schäden reagieren. Erst wenn alle Schäden behoben sind, wird durch die Aktivierung der Kinase Cdk1-Cyclin B1 der Eintritt in die Mitose ausgelöst.
Die Mitose – die M-Phase – stellt einen spektakulären Umb
Wie kann Ansible Playbooks effizient einsetzen und konfigurieren?
Wie beeinflusste die Einführung von Eisen die Gesellschaften im antiken Indien?
Roald Amundsen: Pionier der Polarerforschung und unermüdlicher Streiter gegen die Elemente
Wie kann man den Beschleunigungs- und Gyroskopsensor des Arduino Nano 33 IoT präzise auslesen und nutzen?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский