Eine etwas andere Weihnachtsgeschichte

Es begab sich vor ca. 13,8 Milliarden Jahren, zu einer Zeit, an der es noch keine Materie gab, aber unglaubliche hohe Energie verteilt auf einen, aus heutiger Sicht, winzigen Raum etwas ungeheuerliches. Wir nennen diesen Zeitpunkt t=0. Ein Angehöriger bestehend aus lebender Materie wird 13,8 Milliarden Jahre später vom Tag ohne Gestern sprechen. Was genau dieses Ereignis bei t=0 ausgelöst hat, ist unbekannt, fest steht nur, wie schon gesagt, dass viel Energie im Spiel war und diese konzentriert auf einen sub-atomaren Bereich. Daher war es “dort” auch ziemlich heiß, richtig heiß (ca. 10 hoch 32 Kelvin).

Eine Plank Zeit später, also wirklich nicht viel später und streng genommen gab es noch gar nicht so etwas wie Zeit und Raum, kann es so etwas wie eine vereinigte Urkraft gegeben haben. Welche Urkräfte kennt man heute? Da wären zu nennen:

  • Die starke Kernkraft
  • Die elektromagnetische Kraft
  • Die schwache Kernkraft
  • Die Gravitation (die nach Einstein, und seiner Allgemeinen Relativitätstheorie eher als eine Fähigkeit von Masse ist, die Raumeigenschaft zu verändern).

Ich möchte dabei noch die Kräfteverhältnisse zwischen diesen Elementarkräften an einem Diagramm verdeutlichen. Normiert man die stärkste der Kräfte, die starke Kernkraft, auf eins, ergeben sich folgende Verhältnisse:

relative Kraftverhältnisse zwischen den Elementarkräften (nicht maßstabsgetreu).

Man sieht die Dominanz der starken Kernkraft, die z.B. den positiv geladenen Kern bestehend aus Protonen und Neutronen mit Hilfe der Gluonen zusammenhält. Ebenso halten sie die Quarks, aus denen die Protonen und Neutronen bestehen, zusammen.

Doch ihre Reichweite ist dafür winzig, sie fällt mit R 7, wenn R der Abstand zwischen zwei Teilchen ist.

Als mittel starke Kraft gilt die elektromagnetische Kraft. Sie verhindert immerhin, dass wir im Boden versinken, auch wenn wir es manchmal gerne täten. Denn die Größenverhältnisse im Mikrokosmos sind schon skurril. Der positive geladene Kern bestehend eben aus Protonen und Neutronen ist sehr konzentriert verteilt. Der Kern Aufenthaltsbereich ist dabei zwischen 20.000 bis 150.000 fach kleiner als der, der “umhüllenden” Elektronen. Es ist also genug Platz, um im Boden zu versinken aber die Außenelektronen unseres Körpers stoßen sich elektrisch ab mit den Außenelektronen des Bodens und so bleiben wir oben, gut so. Ja und die Gravitation, diese Kraft ist so winzig im Verhältnis zu den anderen Kräften, so dass man meinen könnte, sie spielt keine Rolle. Gemein hat sie mit der elektromagnetischen Kraft, dass sie mit R2 abfällt, wenn R der Abstand zwischen zwei Massen bzw. Ladungen sind. Die Gravitation jedoch wirkt, obwohl sie viel schwächer ist als die elektromagnetische Kraft, weit in den Raum hinein. Das liegt an zwei Dingen:

  • Der Kosmos besteht hauptsächlich aus elektrisch neutraler Materie.
  • Elektromagnetische Kräfte lassen sich abschirmen (Faradayscher Käfig) die Gravitationskraft aber nicht.

Aber ich bin schon schon wieder viel zu sehr im hier und jetzt, ich springe mal wieder zurück zum Zeitpunkt t=10-47s, das ist nämlich die Planck Zeitdauer. Die Quantenmechanik postuliert, dass unterhalb dieser Zeitdauer gar keine Wirkung, die eine Zustandsänderung eines Systems bewirken kann, eintreten kann (das wiederum liegt an der endlichen Geschwindigkeit von Licht). Aber das ist halt nur Theorie.

Zum Zeitbereich 10-47s < t < 10-35s gibt es immer noch keine genauen Vorstellungen, was da wirklich war. Man geht aber davon aus, dass die ersten Elementarteilchen sich “bildeten”, z.B. die Quarks und Anti Quarks. Mit diesem Satz ist man dann auch gleich im Teilchen Zoo der Atomphysiker gelandet. Dazu dann eine Abbildung, die man als Periodensystem der Elementarteilchen verstehen kann:

Aufbau der Elementarteilchen, Quelle Wikipedia.

Elementarteilchen bedeutet, das ist die kleinste Einheit von Teilchen, man kann sie nicht weiter sinnvoll aufteilen. Wir bestehen hauptsächlich aus dem linken Baum den Quarks und Leptonen. Die Leptonen ist die Familie aller elektrisch negativ geladener Teilchen. Das stabilste und bekannteste Teilchen dieser Familie ist das Elektron. Die Quarks wiederum sind sehr schwach positiv geladen haben aber eine deutlich höhere Ruhemasse als das Elektron. Ich mache jetzt aber noch einen Schritt zurück, um die Quarks besser einzuordnen.

Aus der Schulzeit weiß man vielleicht noch, dass die Atome aus einem elektrisch positiv geladenen Atomkern und einer negativ geladenen Elektronenhülle aufgebaut sind. Die Elektronenhülle wird durch die Elektronen realisiert, die den positiv geladenen Kern neutralisieren. Der Atomkern wiederum besteht aus elektrisch positiv geladenen Protonen und Neutronen, die wie der Name schon sagt, elektrisch neutral sind. Aber im Gegensatz zum Elektron kann man das Proton und Neutron noch weiter aufspalten in Quarks und Gluonen:

Aufbau eines Protons bzw. Neutrons, Quelle: Chip Magazin.

Es gibt zwei Arten von Quarks: Die UP und DOWN Quarks. UP und DOWN steht für eine quantenmechanische Eigenschaft, die man sich wie eine Farbe vorstellen kann. Bis auf diese Farbe sind UP and DOWN Quarks komplett identisch, sie haben exakt die gleiche Ruhemasse und die gleiche positive elektrische Ladung. Aber hatten wir nicht in der Schule gelernt, dass gleichnamige Ladungen sich abstoßen. Wie können dann Quarks sich auf fm=femto Meter = 10-15 m nähern (siehe dazu nochmal die folgende Abbildung aus Wikipedia, die noch mit der Anmerkung garniert ist, wenn der untere Pfeil maßstabsgetreu eingezeichnet wäre, dann wäre er 100m lang).

Größenordnungen zwischen Atomkern und Elektronenhülle.

Nun die Antwort, warum die Quarks nicht das Weite suchen sondern in fm Nähe zusammen hocken, von Abstandsgebot ist da keine Rede, darauf ist: Es sind die Gluonen. Die Gluonen gehören zu Klasse der Austauschteilchen. Sie realisieren die Kernkraft, die 100 mal stärker ist als die elektrische Coulomb Kraft. Diese Teilchen haben selber keine Ruhemasse aber bewegen sich mit Lichtgeschwindigkeit um die Quarks und “binden” sie dadurch wie durch eine Feder zusammen. Diese Gluonen halten aber auch insgesamt den Atomkern zusammen. Ein Helium Atomkern z.B. besteht aus zwei Protonen, die sich ja wieder stark elektrisch abstoßen sollten und auch tun aber die Bindungskraft der Gluonen, die mit Lichtgeschwindigkeit um die beiden Protonen sausen ist halt 100 mal stärker als die elektrische Abstoßung. Erst wenn die Atomkerne sehr groß werden (z.B. Uran mit 92 Protonen) schaffen es die Gluonen nicht mehr den Kern zusammenzuhalten und er zerfällt radioaktiv.

Ich hatte zuvor noch gesagt, dass sich Protonen und Neutronen eigentlich “nur” um die Anzahl von UP und DOWN Quarks unterscheiden. Protonen haben zwei UP Quarks und Neutronen nur eins. Die augenscheinlichste Konsequenz ist, dass in der zwei DOWN, ein UP Quark Konfiguration das System elektrisch neutral ist. Aber es fällt ein kleiner feiner, weiterer Unterschied auf. “Wiegt” man ein isoliertes Quark Teilchen und multipliziert es mal drei sollte man meinen, dass man die Masse eines Protons bzw. Neutrons bestimmt hätte. Es stellt sich aber heraus, dass sowohl Proton wie Neutron deutlich mehr Masse haben als die einzelnen Quark Massen zusammen. Die Erklärung ist wohl die berühmteste Physik Formel unseres Planeten: E = mc 2

Diese Formel besagt, das Energie und Materie im Grunde zwei Seiten einer Medaille sind. Energie kann in Materie und Materie in Energie umgewandelt werden. Der Wechselkurs, die Lichtgeschwindigkeit, stellt dabei einen gewaltigen Hebel dar. Die Gluonen, die selbst keine Ruhemasse haben aber auch nie in Ruhe sind und mit Lichtgeschwindigkeit um die Quarks “zischen” verleihen über ihre Bindungsenergie dem Quark/Gluonen System ein wesentlich höhere Energie und dementsprechend steigt auch die Masse dieses Systems. Der geneigte Leser kommt jetzt zum Ergebnis: Die drei Quarks mit dem Gluon werden dann doch hoffentlich gleich “schwer” sein bzw. gleiche Energie als System haben. Die Antwort ist, dass das Massenverhältnis zwischen Neutron und Proton 1,004 ist. Das Neutron ist also nur einen Hauch “schwerer” als das Proton, was wiederum auch bedeutet nach E = mc 2 es beinhaltet mehr Energie und das hat dramatische Konsequenzen, denn Systeme mit höherer Energie sind immer instabiler bzw. anfälliger als Systeme mit niedrigerer Energie.

Ein isoliertes Neutron, Teilchenbeschleuniger können diese z.B. erzeugen, existiert nur ca. 15 Minuten dann zerfällt es in seine Bestandteile Quarks und Gluonen. Das Proton wiederum ist stabil und existiert unbegrenzt auch im isolierten Zustand. Wäre das Masse Verhältnis zwischen Proton und Neutron andersherum, wir hätten ein vollkommen anderes Universum. Dort hätten sich nicht freie Elektronen zu den Atomkernen gesellt und zur baryonischer Materie geführt, aus der wie bestehen. Tja, es kommt manchmal doch auch auf den feinen Unterschied an.

Wieder zurück zum Zeitbereich 10-47s < t < 10-35s, ich gebe zu, weit sind wir noch nicht gekommen. Weiter geht’s mit dem Zeitinterval 10-35s < t < 10-13s (keine Sorge es geht nicht die “ganze” Zeit in diesen Intervallen weiter;-)). Auch für diesen Zeitbereich gibt es eher nur theoretische Annahmen. So nimmt man an, das alle heute bekannten Elementarteilchen und auch heute noch unbekannte (Stichwort: dunkle Materie) wohl schon in diesem Zeitraum vorlagen. Die Urkraft erfuhr ihre Aufspaltung in die oben benannten Grundkräfte, wobei schwache und starke Kernkraft, wohl zu diesem Zeitpunkt gleich stark waren. Und es begannt das erste “Aussterben” von Teilchen: den Antiteilchen.

Antiteilchen bzw. Antimaterie ist exakt das gleiche, wie die “normale” Materie nur dass alle elektrisch geladenen Teilchen exakt die umgekehrte Ladung besitzen. Man kann z.B. Anti Wasserstoff herstellen, bestehend aus einem negativ geladenen Proton und einem umhüllenden Positron. Das Spektrum von diesem Anti Wasserstoff ist exakt identisch zu dem des “normalen” Wasserstoffs. Bis auf die Ladung verhält sich Anti Wasserstoff exakt symmetrisch zu “unserem” bekannten Wasserstoff. Einstein hat mit seinem E = mc 2 vorhergesagt, dass man aus Licht Teilchen erzeugen kann. Der Breit-Wheeler Prozess hat dies konkretisiert. In diesem Prozess werden hoch energetische Gamma Photonen=(Lichtteilchen) zur Kollision gebracht und dabei entsteht pro Kollision ein Elektron-Positron Paar. Das Problem ist, dass Theorie und Praxis zeigen, dass bei der Umwandlung von Licht, das aus ruhe masselosen Teichen besteht (Photonen), in Masse behafte Teichen, (Elektron/Positron) immer ein Teilchen/Antiteilchen Paar entstehen muss. Was ist daran wieder problematisch? Wenn Materie auf Antimaterie trifft, was ja leicht passiert, da sie sich elektrisch anziehen, dann zerstrahlen sie wieder zu eine ruhe masselosen Photonen. Das wiederum bedeutet, wir dürften gar nicht existieren. Schlaue Physiker haben ausgerechnet, dass jedes fünf milliardste Teilchen kein Antiteilchen fand und daher als Masse behaftetes Teilchen der “normalen” Materie bestehen blieb. Es muss im frühen Universum eine kleine Asymmetrie bei der Umwandlung von Energie in Materie gegen haben. Nur warum, der Raum war ja viel kleiner als heute, die Materie/Anti Materie Paare hätten sich doch alle ausnahmslos finden müssen. Die Antwort der Physik: “No clou!”

Ab 10-13s ahnt der Urknall wahrscheinlich nicht, dass 13,8 Milliarden Jahre später eine Spezi, die sich Homo Sapien nennt, diese Phase als Mini Urknall experimentell auf ihrem Heimatplaneten nachstellen können. Dazu bauen sie unter einem schweren Bergmassiv Kilometer Lange Röhren, durch die winzige Teilchen auf fast Lichtgeschwindigkeit beschleunigt werden und zur Kollision gebracht werden. Diese Apparatur in der Schweiz (Large Hadron Colider = LHC) gehört zu der kompliziertesten, die je die Menschheit gebaut hat und hat etliche Milliarden an Steuergeldern der internationalen Staatengemeinschaft gekostet:

LHC, Quelle Internet

Bevor ich aber versuche zu beschreiben, was man in diesem LHC nun entdeckt, muss ich noch auf den Raum zu sprechen kommen, der sich von t=0 bis ca. 10-32 s gebildet haben soll. Es fing an mit subatomaren Größen. Abgesehen davon, dass man sich atomare Größenordnungen schlecht vorstellen kann, kann man sich subatomare Größenordnungen erst recht nicht vorstellen. Aber im oben genannten Zeitfenster soll sich der Raum um den Faktor 1030 bis 10100 ausgedehnt haben. Dies entspräche der Vergrößerung eines Protons (1,5fm s.o.) auf eine Kugel mit Radius Erde zur Sonne.

Die Phase der Inflation des Kosmos zu Beginn des Urknalls, Quelle scinexx.de

Dabei muss man eine Sache beachten, in dieser Zeit hat sich der Raum mit über Lichtgeschwindigkeit ausgedehnt. Gleichzeit gilt aber nach Einstein’s spezieller Relativitätstheorie, die auch zu E=mc2geführt hat, dass innerhalb dieses Raumes sich nichts schneller als mit der Lichtgeschwindigkeit des Lichts im Vakuum = 3*108m/s fortbewegen kann. Das ist schwere Kost. Man fragt sich unweigerlich, wie sich etwas ausbreiten kann in etwas, was gar nicht existiert. Meine Erklärung ist, dass es schon eine Unendlichkeit gibt. Im Raum außerhalb unseres Universums gelten z.T. andere vielleicht sogar weniger Gesetze, als die wir in unserem Universum kennen. Wird dieses “Gebiet” vom Raum unseres expandierendem Universum erfasst gelten die uns bekannten Naturgesetze mit den oben genannten Grundkräften. Außerdem gilt z.B., dass innerhalb dieses Raumes nichts sich schneller fortbewegen kann als mit Lichtgeschwindigkeit (außer natürlich die Enterprise mit ihrem “Warp Speed” ;-)).

Nun wieder zurück zum Zeitbereich t >= 10-13, dem Zeitbereich, den wir im LHC simulieren können. Um in der Zeit auch etwas voran zu kommen, das ganze in tabellarischer Darstellung:

ZeitAction
Nach
10-13
Bis zu diesem Zeitpunkt sind die Teilchenbeschleuniger heute in der Lage, die Situation des frühen Universums zu simulieren. Daher weiß man genau, welche Teilchen existierten, nämlich alle Teilchen des Standardmodells, also die Elementarteilchen sowie die Austauschteilchen der 3 Kräfte (Graviton wird noch gesucht). Es existierten noch keine Verbindungen zwischen Quarks, da die Energie der Teilchen noch zu hoch ist.
10-10 bis 10-5Nach 10-10 Sekunden begann die Ära des Quark-Gluonen-Plasmas und das Universum hatte einen Radius von 300 Millionen Kilometern. Nach 10-5 Sekunden war das Universum so weit abgekühlt, dass sich Quarks zu Protonen und Neutronen verbinden konnten. Das Universum ist zu diesem Zeitpunkt so groß wie unser Sonnensystem.
Nach 300.000 JahrenErst nach etwa 300.000 Jahren ist das Universum auf etwa 3000 Kelvin abgekühlt und die Elektronen konnten sich an die Atomkerne binden. Die ersten Wasserstoffatome und Heliumatome entstehen (zur Info die Oberflächentemperatur unserer Sonne beträgt ca. 6000 Kelvin).
Nach 380.000 JahrenNach etwa 380.000 Jahren wird das Universum durchsichtig, und die Photonen können entweichen. Ab diesem Zeitpunkt ist das Universum beobachtbar.
Urknall im Zeit/Raum-raffer

Hier noch eine Anmerkung zum Quark/Gluonen Plasma aus folgendem Link https://www.weltderphysik.de/mediathek/podcast/quark-gluon-plasma/

Quelle: weltderphysik.de

Für die Menschheit insbesondere Astronomen ist der Zeitpunkt ca. 380.000 Jahre nach dem Urknall besonders. Nüchtern sagt der Physiker: “Ab diesem Zeitpunkt wurde das Universum elektrisch neutral und dadurch auch transparent”. Was bedeutet das? Die Zeit des Quark/Gluonen Plasma war längst abgelaufen, jedoch war das Universum noch immer unglaublich heiß und dicht. Zwar hatten sich Protonen, Neutronen und freie Elektronen gebildet. Diese fanden durch die Kernkräfte (Protonen/Neutronen) und elektrische Anziehung (Protonen/Elektronen) auch zusammen aber einerseits waren die kinetische Energie der Teilchen noch so hoch, dass bei Kollisionen Protonen/Elektronen Bindungen wieder aufgebrochen wurden andererseits gab es noch eine Klasse von Teilchen: “Die Photonen“. Photonen sind die Träger der elektro-magnetischen Strahlung. Zum Spektrum der elektromagnetischen Strahlung gehört unser Augenlicht mit Wellenlängen von 700 nm (Nanometer) (rot) bis hin zu 450 nm blau. Das gesamte EM Spektrum ist jedoch viel größer. Wir nehmen diese Strahlung eher als ein homogenes und kontinuierliches Gebilde war. Licht erscheint uns eher wie eine Welle (Beugung von Licht in Schatten Bereiche) oder als ein Bündel feiner Strahlen. Tatsächlich ist es ein “Stream” aus winzigen Energie Paketen, die eine spezifische Eigenfrequenz haben, die wir im uns sichtbaren Bereich als Farbe wahrnehmen. Die Energie dieser Pakete ist direkt Proportional zur Frequenz. Je blauer das Licht (also höhere Frequenz) um so energiereicher das Licht. Newton hatte diese Struktur des Lichtes vorhergesagt, da wir in Experimenten aber auch eine Wellennatur des Lichtes (Interferenzerscheinungen) feststellen können, blieb ein Widerspruch zu unserer Vorstellung von Licht. 1905 konnte Einstein aber die quantenhafte Natur des Lichtes auch widerspruchsfrei quantifizieren mit der Formel E = h*f. Die Energie eines Lichtteilchens ist proportional zu dessen Eigenfrequenz multipliziert mit der Konstante des planckschen Wirkungsquantum, die auf Max Planck zurückgeht, der wiederum unfreiwillig im Jahre 1900 mit der Theorie zur Strahlung des “schwarzen” Körpers die Physik Teildisziplin: Quanten Mechanik gegründet hatte. Seit Einsteins Erklärung des photoelektrischen Effektes für den er den Nobelpreis erhielt (und damit die Scheidungsansprüche seiner Frau abgegolten hatte), spricht man vom Welle/Teilchen Dualismus. Das ist ganz hartes Brot und ich glaube diesen Dualismus hat noch keiner so richtig verstanden. Denn wir Menschen sind doch auf das “Entweder” bzw. “Oder” konditioniert und nicht auf das “sowohl als auch”.

Um den Zeitraum t>380.000 Jahre nach dem Urknall besser zu verstehen, reicht es aus, sich Licht als einen Art Strom von Schrotkugeln vorzustellen nur dass ihre Energie nicht von der Größe und Geschwindigkeit abhängt sondern von der Höhe ihrer Eigenfrequenz. Nun gab es zu dieser Zeit sehr viel Photonen. Woher kamen sie? Zum Teil wurden sie gebildet aus dieser ominösen Anfangsenergie zum Zeitpunkt t=0, ein weiterer Teil ergab sich aus der oben genannten Teilchen/Antiteilchen Annihilation, wie der Physiker den Lateiner bemüht. Wenn Materie auf Antimaterie trifft verschwindet die Materie und wandelt sich in “reine” Energie in Form eines Gama Photons um also in ein hoch energetisches Photon um. Diese Photonen schossen nun in dem noch kleinen Universum auf die sich gerade ausbildenden Wasserstoff und Helium Atome (also Protonen+Elektronen). Immer wenn ein Proton ein Elektron gerade eingefangen hatte, kam ein Photon um die Ecke und trennte mit seiner Energie die Bindung zwischen Elektron und Proton wieder auf. Es herrschte also ein wildes “Tontaubenschießen” fast 400.000 Jahre im Universum. Das hatte zwei Effekte:

  • Zum einen konnten sich nicht stabil Atome, H und He, bilden,so wie wir sie kennen,
  • Die Photonen (das Licht) konnte sich nicht ausbreiten, da die sich gerade bildenden Wasserstoff und Helium Atome im Weg waren.

Das änderte sich ca. 380.000 Jahre nach dem Urknall. Die Gesamt Durchschnittstemperatur des Kosmos hatte sich auf 3.000 Kelvin abgekühlt und die Zusammenstöße zwischen Protonen mit verbundenen Elektronen und Photonen nahmen ab und innerhalb einer relativ kurzen Zeit wurde der Kosmos zu einem sehr homogenen Wasserstoff (90%) und Helium (10%) Ballon. Gleichzeitig mit dem sich weiter ausdehnendem Raum kann sich das Ur Licht des Kosmos ausbreiten und einige 100 Millionen Jahre später kommt das Licht der Sonnen von mehreren 100 Milliarden entstehenden Galaxien hinzu.

Gibt es Belege für diese Story? Einige und ein ganz wesentlicher Beleg ist die kosmische Hintergrundstrahlung im englischen so schön “the after glow radiation” genannt. Die 50+ Generation, der ich angehöre, wird sie auch bestimmt schon gehört und sogar gesehen haben. Die Digitale Generation muss aber nicht darauf verzichten, denn es gibt ja Youtube:

Die kosmische Hintergrundstrahlung auf Youtube

Als Kind habe ich immer meinen Vater damit genervt, dass ich am Röhrenfernseher, die Sendereinstellung verstellte. Das Signal, was man zwischen den Sendefrequenzen empfing war sehr eintönig aber auch etwas schaurig. Ich fragte meinen Vater, was ist das für ein Signal, er sagte: “Das ist das thermische Rauschen der Bildröhre”. Das hörte sich gut an und ich glaubte es. Es sind aber die UR Photonen, die bei der Entstehung des Universums vor ca. 13,8 Milliarden Jahren mit entstanden. Diese Photonen durchdringen den gesamten Kosmos. Das Signal kommt (fast) vollkommen isotrop aus allen Richtungen. Pro cm3 befinden sich ca. 400 Photonen generiert mit dem Urknall.

Spektrum des kosmischen Hintergrundstrahlung in cm Band.

Aus den ursprünglichen hoch energetischen Gama Strahlung wurden tief infrarote Photonen im cm Band. Diese starke Vergrößerung der Wellenlänge der UR Photonen hängt mit der unglaublichen Vergrößerung des Kosmos seit eben dieser Zeit zusammen. Mit der Vergrößerung des Raumes wurden die Wellenlänge der Photonen gestreckt wie eine Feder (siehe folgende Abbildung):

Quelle: Internet, Quora.de

Die Strahlung kam aus dem UV Bereich, ging in den sichtbaren Bereich über und ist heute im cm Band, was einer Temperatur von 2,7 Kelvin. Das wichtigste Argument, dass diese Strahlung vom Urknall kommt, ist, dass der gesamte “beobachtbare” Weltraum, immerhin ein Gebiet mit dem Durchmesser von ca. 90 Milliarden Lichtjahren diese isotrope 2,7 Kelvin Strahlung aufweist. So ein groß ausgedehntes thermisches Gleichgewicht kann nur erklärt werden, wenn es einen zentralen Ursprung mit dem sich Raum ausbreitendem Universum hat.

Aber auch aus dieser Betrachtung ergibt sich wieder ein Problem. Wenn das entstandene Wasserstoff und Helium Gas vollkommen isotrop im Raum verteilt gewesen wäre, wie die isotrope Hintergrundstrahlung suggeriert, dann würde es uns nicht geben. Wasserstoff und Helium hätten sich schön gleichmäßig verteilt und das wäre es dann gewesen. Wie konnte aus so einer Ausgangslage 100 von Milliarden Galaxien (heute sind ca. 300 Milliarden Galaxien bekannt) entstehen und jede Galaxie “beherbergt” ca 200-400 Milliarden Sterne? Und jeder Stern beherbergt mindestens einen Planeten. Daher wollten es die Wissenschaftler genau wissen und haben die isotrope kosmische Hintergrund Strahlung ganz genau vermessen. Hier hat sich insbesondere die ESA (European Space Agency) mit ihrem Satelliten Planck sehr verdient gemacht:

Vermessung der kosmischen Hintergrundstrahlung durch die ESA mit Satelliten Planck.

Ich zitiere aus folgender Seite: https://www.leifiphysik.de/astronomie/kosmologie/grundwissen/kosmische-hintergrundstrahlung

Dennoch sind durch mehrere Satellitenexperimente (COBE, WMAP, Planck) kleine Variationen um die mittlere Temperatur von weniger als einem Millikelvin nachgewiesen worden.Diese Temperaturfluktuationen gelten als Hinweis auf eine leicht inhomogene Verteilung der Materie im frühen Universum. Diese dienten als gravitative Senken, in denen sich nach und nach Gas anhäufte und zu den ersten Sternen und Galaxien kondensierte. Nach heutiger Anschauung war in dem frühen, heißen Universum nur die Dunkle Materie in der Lage, solche Ansammlungen zu formen.

Die Häufigkeitsverteilung der Fluktuationen nach ihrer Winkelgröße lässt Rückschlüsse auf die Zusammensetzung des Universums zu. Demnach besteht der Kosmos zu 4,9% aus gewöhnlicher Materie, zu 26,8% aus Dunkler Materie und zu 68,3% aus Dunkler Energie

Ja jetzt muss ich zugeben, dass alles was ich bisher beschrieben habe nur auf 4,9% der Materie zutrifft aus der wir bestehen z.B. (Kohlenstoff, Wasserstoff, Sauerstoff, Phosphat etc.). Zur dunklen Materie und dunklen Energie komme ich gleich. Zunächst hat man festgestellt, dass schon im Babyalter des Kosmos, 380.000 Jahre nach dem Urknall, die Materie nicht ganz isotrop verteilt war, sondern dass es Dichte Schwankungen gab. Diese haben dazu geführt, dass der Wasserstoff verklumpte und durch die Gravitation sich so verdichtet, dass der Wasserstoff sich entzündete und zu einem Kernfusionsreaktor wurde. So einen Kernfusionsreaktor nennt man dann eben auch Sonne:

Entstehung einer Sonne, Quelle Welt:https://youtu.be/bAUvcN2fzqk

Eine Sonne fusioniert Wasserstoff zu Helium (Wasserstoff hat ein Proton und Helium zwei). Dabei wird nach E=mc2 viel Energie frei, denn die zwei Protonen in der Helium Konfiguration sind wesentlich “leichter” als zwei einzelne Wasserstoff Protonen. Aber das reicht ja alles noch nicht, um Kreaturen aus DNA zu erklären. Am Ende des Lebenszyklus einer Sonne geht der Wasserstoffvorrat zur Neige und es kann weniger Energie erzeugt werden, die den Gegendruck zur Gravitation durch den Wasserstoff bildet. Dadurch steigt der Druck in der Sonne immer mehr und so kann sie dann auch schwerere Atome wie Sauerstoff (8 Protonen), Kohlenstoff (6 Protonen), Stickstoff (7 Protonen) etc. produzieren bis hin zu schweren radioaktiven Stoffen. Beim Supernova Prozess werden dann diese Brutstoffe in den inter-stellaren Raum geschleudert und mit etwas Glück kann daraus eine neue Sonne mit Planeten entstehen. Das sind dann wirklich nachhaltige “Recycling Prozesse”:

Lebenszyklus einer Sonne, Quelle:https://www.dlr.de/next/desktopdefault.aspx/tabid-6572/10788_read-24352/usetemplate-printany/

Aber bis heute ist nicht vollkommen geklärt, wie der Wasserstoff vom Anfangszustand verklumpen konnte, dass daraus Galaxien mit Sonnen und schwarzen Löchern entstanden. Die gängige Lehrmeinung ist, dass es neben unserer leuchtenden Materie, die mit elektromagnetischer Strahlung wechselwirkt noch eine dunkle Materie gibt, die nur gravitativ wechselwirkt. Die Teilchen dazu konnte man aber noch nicht messen, was wohl daran liegt, dass, wie ganz oben geschrieben, die Gravitation im Vergleich zu den anderen Kräften so schwach ist. Aber man fahndet fieberhaft nach diesen WIMPs (Weakly Interacting Massive Particles).

Und so sieht er Universum schließlich heute aus:

Das heutige Universum, Quelle NASA

Das ist natürlich eine typisch menschliche Sichtweise auf das Universum. Wir stecken natürlich mittendrin und schauen nicht von oben herab. Wir können nicht mal sagen wie groß die Würfelkanten Länge ist. Wir können “nur” eine Länge von 90 Milliarden Lichtjahre messen aber wahrscheinlich ist das Universum noch viel größer. Und was sieht man in obiger Grafik? Das meiste ist die Struktur der dunklen Materie, die wir gar nicht sehen können. Die dunkle Materie ist wie ein Art organisches Gerüst anzusehen, in deren Knotenpunkten sich die leuchtenden Galaxien des Universums eingenistet haben. Man glaubt, dass die Dunkle Materie versucht optimal den leeren Raum auszufüllen, was natürlich ein schwerer Kampf ist, weil sich der Raum immer schneller ausbreitet. Hierzu gibt es auch eine seltsame Analogie im zwei dimensionalen Raum auf der Erde:

Das Kosmische Web, Quelle: Welt: https://youtu.be/bAUvcN2fzqk

Nun man sieht, da gibt es noch einige Fragen rund um bzw. innerhalb des Universums zu klären.

Eines der eindrucksvollsten Belege, dass die Urknall Theorie nicht nur eine abgekartete Verschwörungstheorie von Edwin Hubbel, der Preisboxer werden wollte, Georges Lemaître, der auch Priester war oder des begnadeten russischen Atom Physikers Georgi Antonowitsch Gamow ersonnen wurde, ist dieses Bild:

Blick in den dunken Raum vom Hubble Weltraum Teleskop ;-).

Ein beeindruckender Blick in die Dunkelheit des Weltalls. Man hat das Hubbel Teleskop so positioniert, dass es die Hälfte des Tages, während seiner Rotation um Erde und Sonne in das dunkle nichts schaut. Und in der Tat wir sehen da nichts aber das Hubble Teleskop hat eine super Kamera/Sensor, die eine sehr lange Belichtungszeit zulässt und dann sieht es mit einiger Verzögerung dieses Bild:

This view of nearly 10,000 galaxies is called the Hubble Ultra Deep Field. The snapshot includes galaxies of various ages, sizes, shapes, and colours. The smallest, reddest galaxies, about 100, may be among the most distant known, existing when the universe was just 800 million years old. The nearest galaxies – the larger, brighter, well-defined spirals and ellipticals – thrived about 1 billion years ago, when the cosmos was 13 billion years old. The image required 800 exposures taken over the course of 400 Hubble orbits around Earth. The total amount of exposure time was 11.3 days, taken between Sept. 24, 2003 and Jan. 16, 2004.

Jeder auch noch so kleiner Punkt der “Hubble Deep Field” Aufnahme stellt eine Galaxie dar. Dieses Bild hätten wir vor 9 Milliarden Jahren vom Universum gesehen, hätten wir unser Handy dabei gehabt. Wie man sieht, sind ganz viele Galaxien viel näher beieinander als heute.

Und nun zum 1. Weihnachtstag am 25.01.2021 rund 25 Jahre nach dem Hubble Launch soll ein noch größeres und leistungsfähigeres Weltraumteleskop uns noch einen tieferen Einblick in den Beginn des Universums liefern: James Webb Teleskop. Wenn alles gut geht, soll man mit dieser gigantischen Apparatur (Größe eines Tennisspielfeldes) bis zu 13 Milliarden Jahre zurück schauen können. Zur Info: Wenn wir in den Himmel schauen, ist das wegen der endlichen Lichtgeschwindigkeit immer ein Blick in die Vergangenheit. Licht was von der Sonne auf die Erde trifft, verließ acht Minuten vorher die Sonne. Die Sterne der Milchstraße, die wir am Abendhimmel beobachten können, haben ihr Licht vor einem bis tausend Jahren abgeschickt.

Um das viel geschriebene nochmal bildlich zu unterfüttern, diese schöne Grafik über den Urknall von https://www.gutefrage.net/frage/genaue-grafik-zur-expansion-des-universums

der Urknall im Zeitraffer, nicht maßstabsgetreu 😉

Fazit?

Obwohl ich als Ingenieur natürlich begeistert bin, was alles möglich ist und letztlich auf der Theorie weniger hochintelligenter Menschen zurückzuführen ist, die trotz ihrer Intelligenz niemals sich vorstellen konnten, das, was heute eben möglich ist, wäre es mir lieber, wir würden auf der ursprünglichen christlichen Weihnachtsbotschaft Erfolge verzeichnen. Naturwissenschaftler und Ingenieure werden unseren Planeten nicht retten, mögen wir noch so tief an den Anfang allen Seins blicken. Die Botschaft lautet für mich, wir sollten Demut einnehmen zu dem was wir sind und was uns umgibt. Wenn wir nicht erkennen, dass wir zusammenarbeiten müssen, um dem Glück des Lebens weiter eine Chance zu geben, werden wir scheitern…unklar bleibt dann nur das Wann.

Ich beende diesen Blog mit einem berühmten Selfie: Little Pale Blue dot.

Pale Blue Dot is a photograph of planet Earth taken on February 14, 1990, by the Voyager 1 space probe from a record distance of about 6 billion kilometers (3.7 billion miles, 40.5 AU), as part of that day’s Family Portrait series of images of the Solar System.

Klimawandel

Es gibt wohl kein Thema, dass in den letzten Jahren/Jahrzehnten die Menschen so bewegt hat, wie das Phänomen Klimawandel und ohne große hellseherische Fähigkeiten zu haben, kann man schon jetzt sagen, das wird so bleiben. Während die Anzahl derer, die den Klimawandel negieren doch abgenommen hat, bleibt die Aussage, ob der Klimawandel antropogen (menschen gemacht) ist, in breiten Teilen der Bevölkerung umstritten.

Das dies so ist, dass ist auch nicht weiter verwunderlich, da es wirklich um sehr komplizierte und komplexe Wechselwirkungen in der Natur geht, die subsumiert werden unter Thermodynamik, Elektromagenetismus, Quantenmechanik, Geologie und Metrologie. Jedes einzelne Thema ist schon ein dickes Brett. Die entsprechende Kombination der Bretter macht sie nicht dünner. Aber neben der naturwissenschaftlichen und technischen Beurteilung trifft dieses Thema auf Widerstand, weil es eben mit den Themen Ethik, Eigenverantwortung und Schuld verbunden ist aber noch schlimmer der Klimawandel hat mit Macht zu tun und dann wird es richtig schwierig für uns Menschen. Die Macht spielt in das Thema Klimawandel herein, weil der Klimawandel in Kern nicht wirklich ein Problem mit dem Umgang von Treibhausgasen ist sondern ein Problem mit dem Umgang von Energie. Wer die Energietransfomation (ich betone Transformation nicht Erzeugung) in der Hand hat, der hat die Macht auf seiner Seite. Und was wir Menschen für die Macht tun, das wäre auch ein  interessantes Thema für einen Blog ;-).

Um es vorweg zu sagen, ich glaube, dass der Klimawandel antropogen ist. Aus meiner Sicht hat die Wissenschaft sehr gute Gründe anzunehmen, dass die derzeitige Erderwärmung menschengemacht ist. Ich bin alles andere als ein Klimaforscher aber ich habe das Fach Elektro-Optik bei Professor Schiffner an der Ruhr-Universität Bochum vertieft und in diesem Segment auch beruflich gearbeitet. Der Bereich der Elektro-Optik befasst sich dabei sehr umfassend mit dem Thema, wie elektro-magnetische Energie mit Materie wechselwirkt mit dem Fokus auf die Funktionsweise eines LASERS und seinen Anwendungen. Die Maxwellschen Wellengleichungen des Elektromagnetismus aber auch das gleichzeitige Verstehen der teilchenhaften Natur elektro-magnetischer Phämome ist unabdingbar, um einen LASER zu verstehen und hilft auch, die Kern Ursache des Treibhauseffektes im Detail zu verstehen. Dazu muss man halt kein Klimaforscher sein.

Wie für alle meine Blogs gilt, dass ich hier meine persönliche Meinung vertrete. Trotz gewisser Vorkenntnisse in diesem Bereich bin ich bestenfalls eine interessierter Laie auf diesem Feld. Ich habe mich in den letzten 20 Jahren aber immer wieder mit dem Thema Klimawandel beschäftigt und will in diesem Blog mein Verständnis zum Thema Klimawandel erläutern.

Der Blog ist in folgende Kapitel aufgeteilt, um sich dem komplexen und komplizierten Thema Klimawandel zu nähern.

  1. Klimawandel und Artensterben, wie hängen sie zusammen?
  2. Der Siegeszug der fossilen Brennstoffe. Wie kam es zur industriellen Revolution?
  3. Asymmetrische Kipp- und Streckschwingungen des CO2 Moleküls.
  4. Globaler mittlerer Temperaturverlauf der letzten 22.000 Jahre.
  5. Verlauf der CO2 Konzentration in den letzen 400.000 Jahren.
  6. Wo ist die Verbindung zwischen Anstieg der CO2 Konzentration und dem Temperaturanstieg (Treibhauseffekt)?
  7. Psychologische Blockaden auf dem Weg zur CO2 Neutralität.

Klimawandel und Artensterben wie hängen sie zusammen?

Nun das Artensterben wurde der Öffentlichkeit noch vor dem Problem Klimawandel kund getan. Es war der Club of Rome, gegründet 1968, der etwas unerhörtes aussprach: “Die Grenzen des Wachstums“, dass musste kommunistische Propaganda sein. Im Kern sagte der Club of Rome, dass durch immer weitere Ausbeutung des Bodens aufgrund unseres Rohstoffhungers, wir die Erdkruste so maltretieren, dass wir den Lebensraum von immer mehr Arten gefährden und damit letzlich uns selbst. Als Hauptproblem wurde die Bevölkerungsexplosion der Menschen gesehen, die aufgrund von bahnbrechenden Erfolgen in der Medizin (man denke nur an Penizilin) aber natürlich auch durch den unglaublichen Fortschritt der Technik, der zu einer Mittelschicht ungeahnter Größe führte, wuchs und wuchs bis heute. Dass ein immer weiteres Vordringen des Menschen in die natürlichen (Natur (griechisch=kommt von selbst, Techne (griechisch=kommt vom Mensch)) Ökosysteme aber auch viele Nachteile für uns Menschen bringen würde, das wurde zum ersten mal in den 70zigern des 20. Jahrhunderts einer größeren Öffentlichkeit bewusst. Heute ist es in der Wissenschaft “common sense”, dass industrieleller und landwirtschaftlicher Flächenverbrauch zu einem nie da gewesenen Artensterben geführt hat und weiter führt. Das Artensterben ist also zunächst eine Krise des Bodens und der Klimawandel eine Krise der Atmosphäre. Wer auch das Artensterben bezweifelt, dem möchte ich folgende persönliche Anekdote erzählen. In meiner Kindheit den 70zigern fuhren wir fast immer mit den Auto in den Sommerurlaub. Man brauchte nur wenige Minuten auf der Autobahn zu sein und schon klatschen die Insekten auf die Frontscheibe. Besonders beliebt bei mir war das Aufklatschen der Libellen, weil das meinen Vater beim Fahren so erschreckte und ich deswegen lachen musste. Dafür ließ mein Vater mich nach einer Stunde Fahrt an der Tankstelle den Insektenfriedhof abwaschen, was schon ganz schön eckelig war. Dann lachte mein Vater. Väter können so grausam sein. Versuchen sie jetzt mal bei einer Autofahrt in den Süden Deutschlands so etwas zu erleben. Die Frontscheibe wird nahezu unberührt sein. Jetzt kann man natürlich sagen, ist das schlimm, dass wir nicht mehr im Sommer gestochen werden und die Frontscheibe sauber bleibt. Dieser Gedanke zeigt genau wieweit wir uns von unseren natürlichen Lebensgrundlagen entfernt haben. Wer es genauer wissen will, dem empfehle ich folgenden Link:

https://www.zdf.de/dokumentation/terra-x/artensterben-die-fakten-mit-dirk-steffens-100.html

Das Pandemien wie COVID-19 durch das fortwährende Eindringen des Menschen in die Naturräume eben auch wahrscheinlicher werden, liegt aus meiner Sicht auf der Hand.

Der Siegeszug der fossilen Brennstoffe. Wie kam es zur industriellen Revolution?

Um den Siegeszug der fossilen Brennstoffe besser zu verstehen, hilft ein Blick auf die britische Insel am Anfang des 18. Jahrhunderts. Die Menschen hatten sich langsam aber sicher aus dem dunklen Mittelalter befreit, die Aufklärung bahnte sich ihren Weg ans “Licht” und Größen wie Isaak Newton hatten mit Hilfe von Kopernikus, Kepler, Galilei Galeleo, Giordano Bruno, Martin Luther (muss hier aufhören die Liste nähme doch etwas viel Platz) und vielen mehr die Geozentrische Weltsicht der Kirche ins Wanken gebracht. Die Bevölkerung wuchs insbesondere in Europa aber auch global. Wenn man sich nun fragt, warum die industrielle Revolution gerade in England loslegte und zu diesem Zeitpunkt dann wird gerne auf die sozio-ökonomische Stellung Groß Britanniens verwiesen. Es gab schon dort so etwas wie eine Marktwirtschaft und Großbritannien war Dank seiner riesigen Schiffsflotte führend im Welthandel. Doch diese Gegebenheiten galten auch für die Niederlande und Frankreich. Warum fand die industrielle Revolution also in Großbritannien im 18. Jahrhundert statt? Mein Favorit in der Erklärung ist die ökologische Notlage Großbritanniens, die sich schon ab dem 13. Jahrhundert abzeichnete. In keinem europäischen Land wie Großbritannien war der Waldbestand so zurück gegangen  (man geht von einer Reduktion auf 20% der Waldfläche aus im Vergleich zum frühen Mittelalter) (siehe auch: https://www.oekosystem-erde.de/html/energiegeschichte.html und https://www.oekosystem-erde.de/html/industrielle_revolution.html).

vorindustrielle Zeit um 1700

Ursache für diesen Umstand war zu einem kleineren Teil das benötigte Holz für die Schiffsflotte aber zu einem vielen größeren Teil war Holz eben der Brennstoff Nummer eins für Wärme und Licht. Eine wachsende Bevölkerung benötigte natürlich auch viel mehr davon, nicht nur um den Winter zu bestehen sondern auch zur Metallherstellung und Bearbeitung. So besann man sich auf der Insel als Erste im größeren Maßstab die Steinkohle zu nutzen, die schon Römer von der Insel “exportierten”. Die Steinkohle war unbeliebt denn sie stank beim Verbrennen und natürlich entstanden bei der Verbrennung von Steinkohle viel giftigere und dreckigere Gase als bei der Holzverbrennung. Doch dass der Brennwert bei der exothemen Oxidation des Kohlenstoffs viel größer war als beim normalen Holz, dass fanden die Briten auch schnell heraus. Die Kohle war in Großbritannien zur Zeit des 13. Jahrhunderts an der Oberfläche zu finden und daher leicht verfügbar aber das änderte sich natürlich mit der großen Nachfrage. Je tiefer man graben musste, um an die Kohle zu gelangen, um so mehr kam man in den Konflikt mit dem Grundwasser und um den zu gewinnen brauchte man starke Pumpen. 1712 war es dann soweit ein Mr. Thomas Newcomen entwickelte eine Dampfmaschine zum Abpumpen des Grubenwassers und ein Mr. James Watt verbesserte sie so gut, dass sie sich von nun wie geschnittenes Brot über den Globus verteilte. Vielleicht kann man die industrielle Revolution ganz einfach verkürzt damit zusammenfassen: Not macht erfinderisch. Wenn das mal so “einfach” beim Lösen des Klimawandels wäre. 

Zur Dampfmaschine von Newcomen und Watt gesellten sich die Verbrennungsmotoren von Otto und Diesel und lösten eine weitere industrielle Revolution aus. Der Rest ist bekannt, sage ich jetzt einfach mal.

Asymmetrische Kipp- und Streckschwingungen des CO2 Moleküls

Ja das ist eine schöne Überschrift und ein harter Bruch zu den beiden ersten Kapiteln. Wir begeben uns jetzt in den Mikrokosmos. Man mag kaum glauben, dass durch die Molekülschwingungen von CO2 Molekülen ein ganzer Planet zum Kochen gebracht werden kann. Doch wer es bezweifelt, der möge sich mal mit dem Treibhauseffekt auf der Venus beschäftigen. Soweit sind wir aber auf der Erde ja nun wirklich nicht. Aber für uns Kohlenstoffeinheiten, reichen auch schon zwei, drei Grad mehr, um uns zum Kochen zu bringen. Da bei diesem Bereich die Physik und Chemie etwas länglich wird, bitte ich die Leser, die sich nicht zu sehr damit abmühen wollen, nach dem Begriff “Schnelleinstieg” zu zu suchen und die kommenden Paragraphen zu überspringen.

Für das bessere Verständnis der Schwingungen des Kohlendioxid Moleküls, möchte ich mich doch zunächst mit den Grundbausteinen der Materie beschäftigen. Schauen wir uns das einfachste Atom an: “Den Wasserstoff.”

Im Inneren ruht das elektrisch, positiv geladene Teilchen Proton, dass im Gegensatz zum negativen Elektron kein Elementarteilchen ist. Und hier fängt schon das ganze Dilemma an. Wo ist das Elektron? Da gibt es so einen kugelzentrischen hellblauen Bereich um das Proton und nochmal eine extra dunkelblau ausgezeichnete Kreisbahn um das Proton. Willkommen in der Quantenmechnik mit der Heisenbergschen Unschärferelation, Welle-Teilchen Dualismus, diese Theorien führten Erwin Schrödinger in den zwanzigern des letzten Jahrhunderts zu seiner Teilchen-Wellenfunktion Ѱ. Wahrscheinlich habe ich jetzt sehr viele verschreckt aber Quantenmechanik hat selbst einen Albert Einstein an den Rand der Verzweiflung gebracht. Bis heute bleibt da ein gewisses Mysterium um diesen Welle-Teilchen Dualismus aber dass er notwendig ist, möchte ich im folgenden erklären.

Wer Physik Leistungskurs zu meiner Zeit hatte, der blieb meistens beim Bohrschen Atommodel für Wasserstoff stecken. Bohr postulierte, dass das Elektron um das Proton in konzentrischen Kreisen umrundet ähnlich wie die Erde um die Sonne oder der Mond um die Erde.

Bohrsches Atommodell aus https://www.studienkreis.de/chemie/atommodell-bohr/

Bohr psotulierte, dass das Elektron dabei sich nur auf diskreten Umlaufbahnen, nicht beliebigen, bewegen kann. Diese diskreten Radien der Umlaufbahnen des Elektrons brauchte er um das zu erklären:

Das diskrete Linienspektrum des Wasserstoffs, das Bohr damit erklärte, dass ein Elektron, beim “Sprung” von einer “höheren” Umlaufbahn, die einem höheren Energieniveau entspricht, auf eine niedrigere Bahn, Licht emittiert. Jede Spektrallinie wurde erzeugt über den Abfall eines Elektrons von einer höheren Bahn auf eine niedrigere. Dieses diskrete Linienspektrum war ein weiteres Indiz, dass Energie im atomaren Bereich nur in ganz speziellen Portionen=Quanten aufgenommen bzw. abgegeben wird, so wie es Max Plank bei seinen Studien zum Strahlungsverhalten eines “schwarzen” Körpers um 1900 und Albert Einstein beim fotoelektrischen Effekt 1905 herausgefunden hatte.

Die diskreten Umlaufbahnen des Elektrons um das Proton waren jedoch problematisch. Wenn das Elektron ein klassisches Teilchen wäre, das um den Kern rotiert, wie der Mond um die Erde, dann würde ein gerichteter Strom fließen, der nach Faraday und Maxwell wiederum ein Magnetfeld erzeugt, das wiederum in den Raum Energie abstrahlt. Durch den Energieverlust verlöre das Elektron aber seine Geschwindigkeit und fiele letztlich in den Kern, so dass Materie und somit auch wir gar nicht existieren könnten. Tun wir aber oder nicht?

Die klassische Elektro Dynamik würde also so etwas voraussagen:

Das Elektron als konzentrierte Punktladung würde in seiner Rotation um den Kern permanent elektromagnetische Energie abstrahlen und würde sehr schnell im Kern landen. Aber was ist das Elektron denn dann, wenn es kein konzentriertes “blaues” Kügelchen ist? So stellen wir uns doch Teilchen vor. Wenn ich das jetzt so gut erklären könnte, dann würde ich sicherlich nicht diesen Blog schreiben 😉

Die Heisenbergschen Unschärferelationen, die besagen, dass man nicht gleichzeitig Ort und Geschwindigkeit eines Elektrons bestimmen kann und ebenfalls kann man nicht genau die Energie eines Elektrons zu einem bestimmten Zeitpunkt bestimmen und dass in den zwanziger Jahren des 20. Jahrhunderts durchgeführte Doppelspalt Experiment mit freien Elektronen, führte u.a. Erwin Schrödinger zur kühnen These, dass das Elektron sich wie eine Materien Welle verhält. Was zum Kukuk ist eine Materien Welle? Es stellt sich heraus, dass wir nur eine Wahrscheinlichkeitsaufenthaltsdichte vom Elektron bestimmen können. Wir können also nur sagen, wo wahrscheinlich das Elektron sich um den Kern zu einem bestimmten Zeitpunkt befindet. Niemals sind wir in der Lage die genaue Position des Elektrons zu einem gewissen Zeitpunkt vorherzusagen , ähnlich z.B. wie man die Position einer Gewehrkugel, die aus einem Gewähr geschossen kommt, bis ins kleinste Detail vorher berechnen kann. Wie skurril das mit dem Elektron und anderen Elementarteilchen ist, dass zeigt dieses schöne Video auf Youtube über das Dopplespalt Experiment: https://youtu.be/7BV0Fs4eM0I (ich sage nur “spooky”).

Das gebundene Elektron des Wasserstoffs pulsiert um den Atom Kern wie eine stehende Welle. Eine stehende Welle enthält Energie, die an jedem Ort der Welle schwankt, sie transportiert sie aber nicht. So schirmt das Elektron in seiner Verteilung als stehende Welle die positive Ladung des Protons ab, ohne dass ein “Netto” Stromfluss sich ergibt und dementsprechend auch keine elektromagnetische Welle abgestrahlt wird, die zu einem Energieverlust führe. Oder anders ausgedrückt, weil das Elektron als Elementarteilchen ganz anders “verhält” als die “normalen” Teilchen, die wir kennen, deswegen ist Materie stabil und wir existent.

Wem es jetzt zu wild wird, bitte nicht verzweifeln, einfach hinnehmen. Genauer ausdrücken kann man diese Zusammenhänge nur über die Mathematik. Doch wer beherrscht diese Sprache? Das sind doch nur sehr wenige, selbst ich als Ingenieur gehöre dazu eher nicht. Ich kann nur folgenden Schwank aus meiner Studentenzeit dazu sagen. Im vierten Semester am Ende des Vorstudiums endete auch unsere Pflicht-Mathematik Vorlesungen. Im letzen Kapitel behandelten wir das Thema Funktionentheorie:

Die Funktionentheorie ist ein Teilgebiet der Mathematik. Sie befasst sich mit der Theorie differenzierbarer komplexwertiger Funktionen mit komplexen Variablen. Da insbesondere die Funktionentheorie einer komplexen Variablen reichlich Gebrauch von Methoden aus der reellen Analysis macht, nennt man das Teilgebiet auch komplexe Analysis.

(Ausschnitt aus Wikipedia)

In den letzen Stunden entwickelte unser Mathe Prof. dazu ein grandioses Tafelfeuerwerk und schaffte in 45 Minuten acht Tafel in gefühlter Font Größe Arial 8 voll zuschreiben. Etwas genervt lief ich nach der Vorlesung in meinem Stundentenwohnheim zu meinem Freund dem Mathematiker, der im 4. Semester Mathematik studierte. Aufgeregt stellte ich Fragen zu dem gerade gehörten und er beantwortete sehr präzise aber auch gelangweilt meine Fragen und endete mit der Bemerkung: “Was ihr da alles macht, das ist doch nur Kopfrechnen“. So ging ich wieder geerdet zurück in meine 11qm Stube und wusste, warum es für E-Techniker so wichtig ist, das Null Potenzial zu kennen.

Zurück zum Wasserstoff und nochmal in komprimierte Form ein Ansatz, das einfachste Atom zu erklären:

Wasserstoff Atom

Die obige Zeichnung zeigt mit der blauen Skizzierung den Aufenthaltsbereich, in dem man das Elektron vorfinden kann aber nicht muss. Das Elektron kann ganz dicht am Kern sein (aber eher unwahrscheinlich) am ehesten findet man es an der dunkelblauen konzentrischen Schale vor, die eben genau zusammenfällt mit dem Bohrschen Postulaten. Exakt berechnet man die Aufenthaltswahrscheinlichkeit des Elektrons, in dem man den Hamilton Differential Operator auf die Wellenfunktion Ѱ anwendet. Nur mit Hilfe der Modellierung, dass das Elektron sich wie eine Welle durch Raum und Zeit bewegt, werden Halbleiter, die die Basis von Computerchips sind, verständlich und möglich.

Schauen wir uns nun noch das nächst größere Atom an: Das Helium Atom He

Das Helium Atom besteht aus zwei Protonen, Neutronen und zwei Elektronen, die sich wieder in einem kugel konzentrischem “Nebel” verteilen auch s-Orbital genannt (genauer 1s Orbital). Die Neutronen sind elektrisch neutral und haben in etwa die gleiche Masse wie die Protonen. Normalerweise besteht der Kern eines Atoms aus der gleichen Anzahl von Protonen und Neutronen. Variiert die Anzahl der Neutronen von der Anzahl der Protonen spricht man von Isotopen (wird später nochmal wichtig). Für die chemischen Eigenschaften spielen Neutronen aber eine untergeordnete Rolle und daher lass ich sie jetzt mal weg. 

Anmerkung: Der Begriff Orbit beschreibt ein Objekt, dass definiert um ein festes Drehzentrum rotiert. Wegen der quantenmechanischer Natur des Elektrons ist der Begriff Orbital begrenzt anwendbar. In der Atomphysik/Chemie bezeichnet der Begriff die Aufenthaltswahrscheinlichkeit mit der das Elektron den Kern “umgibt” und damit die elektrische Neutralität eines Atomes garantiert. Man unterscheidet u.a. zwischen Kugel zentrischen s-Orbitalen und Keulen förmigen p-Orbitalen. Zumeist wird noch zusätzlich eine Ordnungszahl vorangestellt, z.B. 1s oder 2s. Die Ordnungszahl gibt das Energieniveau des Elektrons an. Je höher die Ordnungszahl, um so höher ist das entsprechende Energieniveau.

Doch wie war das nochmal? In der Schule hatte man doch schon einem erzählt, dass gleichnamige Ladungen sich abstoßen und je näher sie sind umso stärker. Außerdem sind die elektromagnetischen Kräfte gegenüber der Gravitation doch um das hundertfache stärker. Die Gravitation hat jedoch ein viel, viel größere Reichweite als elektromagnetische Kräfte, da sie u. a. eben nicht abschirmbar ist durch z.B. einen faradayschen Käfig.

Tja neben Gravitation und elektromagnetischer Kraft gibt es noch die starke und schwache Kernkraft. Kommen zwei Protonen dicht genug zusammen, also sehr dicht, dann schnappt die starke Kernkraft zu, die (“Achtung”), 10 hoch 36 größer ist als die elektrische Coulomb Kraft. Allerdings fällt die starke Kernkraft mir einem Abstand r in der siebten Potenz ab im Gegensatz zur Coulomb Kraft, die nur mit dem Quadrat zum Abstand zur Ladung abfällt.

Wenn sich also zwei Protonen nähern, dann wirkt zunächst die elektrische Coulomb Kraft abstoßend, erst wenn die beiden Protonen sich fast berühren, dann schnappt die große Kernkraft zu und die elektrisch abstoßende Coulomb Kraft hat keine Chance mehr. Woher kommt diese unglaublich starke Kernkraft? Dazu muss man akzeptieren, dass ein Protonen wiederum ein Set aus Elementarteilchen ist: Den Quarks. Der Zusammenhalt der Quarks zu einem Proton aber auch zwischen den Protonen untereinander liefern masselose Elementarteilchen Namens Gluonen (Eselsbrücke Glu = glew), die mit Lichtgeschwindigkeit um die Protonen, bestehend aus Quarks, rasen und sie wie eine ultra starke Feder fest zusammenhalten. Wenn die Kerne zu groß werden, dann schaffen die Gluonen es nicht mehr den Kern zusammenzuhalten und er zerfällt radioaktiv.

(siehe auch: http://www.kernfragen.com/der-atomkern)

So zwei Protonen so dicht zusammenbringen können nicht viele aber unser Kernfusionsreaktor Nummer 1, auch Sonne genannt, kann das ganz gut. Wir Menschen mühen uns damit schon 70 Jahre ab allerdings doch mit recht überschaubaren Erfolg.

Jetzt aber endlich zum “gefährlichen” CO2 Molekül. Leider sind das Kohlen- und Sauerstoffatom schon viel komplexer als Wasserstoff und Sauerstoff. Das Sauerstoffatom hat acht Protonen ergo acht Elektronen. Und wie verteilen sich diese acht Elektronen um den Kern. Nun zwei Elektronen befinden sich relativ dicht zum Kern und nehmen wieder ein 1s-Orbital an so wie beim Helium Atom. Diese sogenannten inneren Elektronen sind sehr stark durch den Kern gebunden und spielen bei einer chemischen Bindung unterschiedlicher Atome eine untergeordnete Rolle. Konzentrieren wir uns auf die sechs übrig bleibenden Außenelektronen.

Die sechs übrigen Elektronen sind auf einem sogenannten 2s und drei 2p-Orbitalen verteilt, die eher wie keulenartige Hanteln aussehen:

Sauerstoff Orbitalmodel vor sp Hybridisation aus Chemgapedia

Man sieht innerhalb der Orbitale noch Pfeilchen nach oben und unten. Diese sollen den sogenannten Spin eines Elektrons symbolisieren. Ja die Elektronen rotieren um die eigene Achse und es ist wichtig zu wissen, dass maximal zwei Elektronen eines solches Orbital zusammen betreten können und zwar mit ungleichem Spin. Das ist wichtig mit dem ungleichen Spin, weil sonst zwei Elektronen, die sich ja eigentlich abstoßen, nicht bereit sind gemeinsam so ein Orbital miteinander zu teilen.

Wir sind aber leider immer noch nicht fertig mit der Elektronenverteilung des Sauerstoffatoms. Denn wie man sicherlich weiß, kommt ein einzelnes Sauerstoffatom ja in der Natur gar nicht vor, man spricht ja immer von O2 also einem Molekül aus zwei Sauerstoffatomen. Bei der Wechselwirkung von Atomen zu benachbarten Atomen “verformen” sich die Aufenthaltsräume der beteiligten Atome zu sogenannten Hybrid (=Zusammensetzung aus Verschiedenartigem) Orbitalen. Durch die “Verformung” der Orbitale kann die Energie der einzelnen Atome im Verbund zu einem Molekül abgesenkt werden und daher ist das Molekül stabiler als die Atome alleine. Das ist immer der Fall, wenn wir von einer exothermen chemischen Reaktion sprechen.  Während der Reaktion orientieren sich die beteiligten Atome neu und gehen eine chemische Bindung ein, die zu einem energieärmeren aber stabileren Molekül führt. Die Energie, die durch die Bindung der Atome zum Molekül frei wird, nennt man chemische Bindungsenergie und sie wird eben bereitgestellt durch eine Veränderung der ursprünglichen Aufenthaltsräume der Elektronen um ihren Kern.

Was heißt das konkret für das Sauerstoff Atom? Bei der Annäherung eines Sauerstoff Atomes mit einem anderen Sauerstoffatom verändern sich das kugel symmetrische 2s Orbital und die drei hantelförmigen 2p Orbitale zu vier keulen-artigen Hybrid Orbitalen, die zusammen ein Tetraeder aufspannen.

Sauerstoff sp3 Hybridisation aus Chemgapedia

Vornehm gesprochen nennt man diese Überlagerung sp3 Hybridisation. Von den resultierenden vier Hybrid Orbitalen sind zwei mit zwei Elektronen unterschiedlichen Spins und zwei mit jeweils nur einem Elektron gefüllt. Man ahnt es vielleicht aus energetischen Stabilitätsgründen “wünscht” sich das Sauerstoff Atom, dass die beiden Hybrid Orbitale mit nur einem Elektron mit jeweils einem Elektron entgegengesetzten Spins aufgefüllt werden. Warum dies nicht durch einer Bindung mit einem “benachbarten” freien Sauerstoffatom realisieren?

Daher finden wir das Sauerstoff Atom in “freier Natur” natürlich nie allein sondern als O2 Molekül.

https://www.elektroniktutor.de/elektrophysik/a_modell.html

Auf zum Kohlenstoff, es hat sechs Protonen und dementsprechend sechs Elektronen. Zwei innere Elektronen im 1s Orbital und vier Außenelektronen. Von diesen vier Außenelektronen verteilen sich zwei auf ein 2s Orbital und zwei weitere auf jeweils ein 2p Orbital. Diese vier Außenelektronen auf 2s und 2p Orbitale verteilt, bilden wieder vier hybride Orbitale, wie beim Sauerstoff, aber hier ist jedes Hybridorbital mit nur einem Elektron besetzt.

Kohlenstoff Orbital Modell aus: https://www.lecturio.de/magazin/eigenschaften-kohlenstoff/

Die oben gezeigte sp3 Kohlenstoff Hybridisation kommt so allerdings fast nur in den kristallinen Zuständen wie Diamant vor. Bei Kohle und Öle kommen immer Wasserstoff, Sauerstoff, Schwefel und weitere Anteile hinzu und die Kohlenstoff Ketten sind wesentlich amorpher als im Diamant.

Aber was passiert jetzt bei der Verbrennung von z.B. Kohle mit dem Sauerstoff aus der Luft? Der Sauerstoff als Molekül dringt durch die Entzündung mit hoher kinetischer Energie in die Kohle Oberfläche ein. Die Außenelektronen vom Sauerstoff treten dabei über elektrische Felder in Wechselwirkung mit den Außenelektronen der Kohlenstoff Atome. Automatisch wird eine Elektronenkonfiguration gesucht, die stabiler=energieärmer ist als der Ausgangszustand. Dabei wird die Bindungsenergie exotherm frei und “befeuert” den Verbrennungsprozess solange genügend Sauerstoff nachgeführt wird (die Kohle glüht).

Nun wie sieht das CO2 Molekül zum Schluss aus, was für ein Gesamtkunstwerk ergibt sich?

aus https://slideplayer.com/slide/13846847/ &nbsp; PPT CH.14 Covalent Bonding Hybridization

Aus den vier sp3 Hybrid Orbitalen a sechs Elektronen beim Sauerstoff werden jetzt drei sp2 Hybrid Orbitale und jedes enthält zwei Elektronen mit umgekehrten Spin. Der Kohlenstoff hat nur noch zwei sp Hybrid Orbitale mit jeweils zwei Elektronen besetzt. Und jetzt kommt der Clou. Die sp Hybrid Orbitale des Kohlenstoffs überlagern jeweils mit einem sp2 Hybrid Orbital der Sauerstoffatome. Sauerstoff und Kohlenstoff nutzen also gemeinsam ihre Elektronen, um eine stabile Verbindung einzugehen, man spricht von einer kovalenten Bindung. Wie man leicht am obigen Gebilde erkennen kann, ist das obige Gebilde achsensymmetrisch.

So das war ein langer Weg, um den Aufbau und die Struktur des CO2 Moleküls zu erklären. Um chemische Reaktionen und Strukturen zu erklären, kann man jedoch oft viel schneller ans Ziel kommen, insbesondere wenn man Atom und Molekülstrukturen zwei Dimensional darstellen will. Hier geht es jetzt zum Schnelleinstieg für die Erklärung, warum das CO2 Kipp- und Streckschwingungen im infraroten Strahlungsbereich durchführt.

Mit Hilfe der Lewis-Formel kann man sich die wesentlichen Grundzüge der Struktur von Atomen und Molekülen klar machen. Die Lewis Formel setzt auf zwei Regeln:

  • Für chemische Reaktionen sind hauptsächlich die Außenelektronen eines Atoms verantwortlich.
  • Es gilt die Oktett Regel. Diese besagt, dass sich Atome so zu Molekülen verbinden, dass sich im äußerten Elektronen Aufenthaltsbereich (auch Schale genannt) insgesamt acht Elektronen befinden.
  • Das Atom mit der höchsten “Bindigkeit” befindet sich im Zentrum des Moleküls.

Die Lewis Formel setzt auf ein (Zwiebel-) Schalenmodell bei dem jeweils eine Schale von maximal zwei Elektronen besetzt werden können. Die Außenelektronen Schalen, die nur einfach besetzt sind geben die Bindigkeit (Eignung zur Bindung) an. Bei Sauerstoff liegt die Bindigkeit bei zwei und bei Kohlenstoff bei vier.

https://studyflix.de/chemie/lewis-formel-1875

Wendet man obige Regel an erhält man so etwas:

Durch das Erhitzen von Sauerstoff und Kohle gehen die existierenden kovalenten (Elektronenpaarbindungen) verloren und die Außenelektronen von Kohlen- und Sauerstoff suchen eine neue stabile, d.h. energieärmere Konstellation als die obige und das finden sie durch folgendes Anbandeln:

Es bildet sich zwischen dem Kohlen- und Sauerstoff Atom ein achsensymmetrischer Kanal aus, der aus vier Elektronen gebildet wird,  zwei jeweils von den Sauerstoffatomen und vier vom Kohlenstoff. In der Summe bilden acht Elektronen eine energetisch stabilere Konstellation als zuvor. Um die Stabilität zu erreichen wird viel Bindungsenergie in Form von Wärme abgegeben. Und die hat uns Menschen angefangen von den ersten dampfgetriebenen Wasserpumpen in britischen Kohlewerken über die Titanic bis hin zum Quanten Computer Geschichten ermöglicht, die 1750 sicherlich keiner für möglich gehalten hätte. Und jetzt sind wir endlich soweit die asymmetrischen Kipp- und Streck Schwingungen des CO2 Moleküls zu beschreiben, die uns so in die “Bredouille” bringen.

In einer etwas plastischeren Darstellung kann man sich das CO2 Molekül wie drei Billiardkugeln vorstellen, die durch zwei sehr elastische starke Federn miteinander gekoppelt sind.

Die zusammenhaltenden Federn werden aber durch die acht Bindungselektronen von Kohlenstoff und Sauerstoff realisiert. Symmetrie Überlegungen führen dazu, dass der Masse- wie Ladungsschwerpunkt im Zentrum des Kohlenstoffatoms sich befindet. Doch das kann sich ganz plötzlich ändern, wenn z.B. ein Stickstoffmolekül dem Kohlenstoffatom im CO2 Molekül einen Kick gibt, etwas so:

N2 Molekül stößt auf CO2 Molekül

Nun was passiert? Das Kohlenstoffatom im CO2 Molekül und das Stickstoff Molekül fühlen sich an den Impulserhaltungssatz gebunden. Das Kohlenstoff Atom nimmt also den Stoß auf und zischt ab nach oben, während das Stickstoffmolekül wieder den Rückwärtsgang einlegt. Und die beiden Sauerstoffatome verharren erstmal träge und verdutzt an ihren Stellen und fragen sich, wo der Kohlenstoff geblieben ist, etwa so:

CO2 Molekül nach elastischem Stoß mit Stickstoffmolekül.

CO2 Molekül nach elastischem Stoß mit Stickstoffmolekül.

Und jetzt genau passiert es, das “TreibhausMoment:

CO2 Molekül wird durch Stoß zum elektrischen Dipol

Durch den Stoß befinden sich die Sauerstoffatome mit den Bindungselektronen unterhalb der Symmetrieachse, wie sie im Grundzustand des Moleküls ist. Die untere Hälfte enthält jetzt eine negativere Ladungsdichte als die obere. Der positive Kohlenstoffkern wird jetzt durch die umgebenden Elektronen nicht mehr richtig elektrisch neutralisiert. Es entsteht ein elektrischer Dipol.

Jetzt fehlt noch der letze Player in diesem Drama: Die infrarote elektromagnetische Welle, die vom Erdboden “losgeschickt” wird.

Wie der Name elektromagnetische Welle schon sagt, besteht die elektromagnetische Welle aus einem elektrischem und phasenverschobenem magnetischen Wechselfeld, das sich mit Lichtgeschwindigkeit ausbreitet. Um das Schwingungsverhalten des CO2 Moleküls zu verstehen, kann man sich diese Welle wie eine Wechselspannungsquelle am Kohlenstoffatom vorstellen:

Die Infrarotwelle wechselt ständig die Polarität, des durch den Stoß entstandenen elektrischen Dipols.

Das infrarote elektrische Wechselfeld ändert die Polarität, des durch den Stoß entstandenen elektrischen Dipol und das Umpolen des Dipols führt zu einer Lageverschiebung des Kohlenstoffatoms:

Die elektrische Umpolarisierung führt zur Lageverschiebung des Kohlenstoffatoms, es kippt.

Dieses vertikale Kippen des CO2 Moleküls findet allerdings nicht mit 50 Hz statt wie bei unserem Hausstrom sondern in einem Bereich von hundert GHz.

Etwas animiert sieht das dann so aus 😉 :

Vertical Co2 Swinging

So ein Schwingungszustand dauert ca. 1-2 mikro Sekunden, was für den Mikrokosmos schon eine halbe Ewigkeit ist. Dann ist es dem CO2 Molekül aber zu anstrengend, was in der Physik bedeutet, dass das Molekül wieder seinen stabilen Grundzustand sucht. Um das zu erreichen, gibt es Energie ab und das natürlich als infrarote Strahlung, so wie es auch die Energie aufgenommen hat.

Diesem Molekültanz verdanken wir u.a. unsere Existenz, wie man auf dieser Spektralverteilung ablesen kann:

taken from: https://andthentheresphysics.files.wordpress.com/2017/10/screen-shot-2017-10-21-at-14-09-51.png

Die Kurven geben die spektrale Energieverteilung eines idealisierten “schwarzen” Körpers bei einer bestimmten Temperatur an. Der Begriff “schwarzer” Körper ist immer wieder sehr irritierend. Ein Körper, der im Temperaturgleichgewicht ist, gibt genauso viel Energie ab, wie er aufnimmt. Die Sonne ist z.B. ein fast idealer schwarzer Körper. Die gezackte Linie gibt wiederum die spektrale Energieverteilung unserer Atmosphäre wider, gemessen von Satelliten außerhalb der Atmosphäre. Und es fällt auf, dass im nahen infrarot Bereich Wellenlänge < 10 Mikrometer und um die 15 Mikrometer starke Einbrüche im Spektrum vorliegen zu dem. Das bedeutet, dass diese Spektralanteile in der Atmosphäre zurückgehalten werden. Die Ursache für das Zurückhalten, der Erdstrahlung in diesem Bereich, ist aber nicht nur das Schwingungsverhalten von CO2 sondern auch von Gasen wie Methan und Lachgas aber ganz wesentlich auch von Wasserdampf.

Das H2O Molekül ist im Gegensatz zum CO2 ein permanenter elektrischer Dipol. Das Sauerstoffatom “zieht” die Elektronen der beiden Wasserstoffatome zu sich hin:

H2O elektr. Dipol, Quelle:Wikipedia

Trifft infrarot Strahlung auf Wassermoleküle in der Luft, fangen diese sofort an zu schwingen, ohne dass diese über einen Stoß aus ihrem Grundzustand erst zu einem Dipol werden. Damit wird erklärlich, warum man in einer Sauna Wasser verdampfen lässt bzw. trockene Hitze zumeist leichter zu ertragen ist als schwül warmes Wetter. Alle Treibhausgase wirken wie Mikrosender in der Atmosphäre für infrarot Strahlung und senden die Wärmestrahlung, die auf dem Weg ist, den Planeten zu verlassen, erneut zurück zum Boden. Das Resultat ist eine mittlere Temperaturerhöhung der Atmosphäre des Planeten und seiner Oberfläche.

Globaler mittlerer Temperaturverlauf der letzten 22.000 Jahre.

Bevor ich zum globalen Durchschnittstemperaturverlauf der letzen 22.000 Jahre komme, möchte ich nur noch ein paar Eckdaten zum natürlichen Treibhauseffekt nennen. Über die Theorie des Strahlungsverhalten schwarzer und grauer Körper kann man berechnen, welche Durchschnittstemperatur auf der Erde existieren würde, wenn es keine Atmosphäre gäbe. Die Temperatur läge dann bei -18° Celsius. Wir sind also schon viel zuweit Weg von der Sonne, dass Leben ohne oben beschriebene infrarot Mikrosender in der Atmosphäre möglich wäre. Durch die Treibhausgase steigt die mittlere globale Temperatur um ganze 33° Celsius auf +15°. Macht das denn dann soviel aus, wenn wir Menschen dann noch 1 oder 2° Celsius hinzufügen? Ja das macht es, insbesondere dann, wenn diese Temperaturerhöhung sehr schnell passiert und in der Tendenz bei +1° bis 2° noch lange nicht Schluss ist.

Wie sich die mittlere globale Temperaturveränderung der letzten 22.000 Jahre darstellt, kann man auf folgender Grafik sehen:

Globale durchschnittliche Temperaturänderung in °C aus “Regenerative Energiesysteme” von Volker Quaschning.

Die Graphik zeigt auch noch die Änderung des Meeresspiegel an (blaue Kurve) aber ich möchte mich hier auf die rote Temperaturkurve konzentrieren. Zunächst fragt man sich ja, wie geht das, dass man die globale Temperaturänderung über 22.000 Jahre darstellen kann. 1742 entwickelte der Schwede Anders Celsius seine Messmethode und Skala. Eine globale Wetter und Temperatur Dokumentation gibt es seit ca. 200 Jahren, wie soll man also zu globalen Temperaturänderungen vor 22.000 Jahren etwas aussagen können? Nun leicht ist es sicherlich nicht obige Kurve zu erstellen aber es geht.

Die Temperaturmessung wird dabei auf eine Konzentrationsmessung der Luft zurückgeführt. Das Verhältnis zwischen den Sauerstoff Isotopen O16 zu O18 spielt dabei eine wichtige Rolle, da dieses Verhältnis sehr proportional zur Umgebungstemperatur ist. Doch wie kommt man an so alte Luft heran. Die Lösung: Man bohrt tiefe Löcher in die Antarktis. Je tiefer die Bohrkerne entnommen sind, um so älter ist das Eis. Beim Gefrieren des Eises wird immer bodennahe Luft aus der Umgebung Jahr für Jahr mit eingeschlossen. Ergo kann man durch Auftauen des alten Eises an die alte Luft heran. Mit dieser Methode kann bis zu 800.000 Jahre zurück in der Zeit gehen. Anbei ein Ausschnitt aus der ZDF Reihe Terra X aus dem Jahre 2018.

Wie findet man alte Luft? (aus ZDF Reihe Terra X 2018)

Aber über Bohrungen tief am Meeresboden kommt man noch weiter in der Zeit zurück, um das Temperaturverhalten der Erde zu bestimmen:

https://www.weltderphysik.de/gebiet/erde/news/2016/temperaturkurve-des-erdklimas-ueber-zwei-millionen-jahre/

Man sollte sich als Messtechniker klar machen, dass der Eichprozess bei einer solch langen Messreihe natürlich extrem schwierig aber eben machbar ist.

Zurück zum Temperaturänderungsverlauf der letzen 22.000 Jahre, den ich nochmal einblende:

Dieses Bild hat ein leeres alt-Attribut; sein Dateiname ist image-1-2.png.
Globale durchschnittliche Temperaturänderung in °C aus “Regenerative Energiesysteme” von Volker Quaschning.

Vor über 22.000 Jahren war die gesamte Nordhalbkugel dick mit Eis bedeckt und Leben war nur am Äquator möglich. Doch innerhalb der darauf folgenden 10.000 Jahre stieg die mittlere Temperatur um satte 3,5 Grad. Parallel dazu stieg der Meeresspiegel erheblich. Vor ca. 11.000 Jahren stoppte die Temperaturänderung und blieb relativ konstant.

In dieser Zeit war die Sahara eine saftige grüne Savanne mit vielen Wildtieren:

aus: https://www.geomar.de/news/article/rasantes-ende-der-gruenen-sahara

Vielleicht war die Grüne Sahara auch eine Vorlage für den biblischen Garten Eden, fest steht auf jeden Fall, dass vor ca. 5.500 Jahren relativ abrupt sich diese Grüne Savanne in die Wüste verwandelte, die wir heute kennen. Retten konnte sich die Grüne Savanne nur am Niel, aus dem bekanntlich das große Reich der alten Ägypter entstand. Eine zentrale Wiege der Zivilisation. Bei dieser lokalen Klimaänderung spielt die Änderung der mittleren globalen Temperatur keine Rolle, denn die blieb global gesehen relativ konstant. Auch war sicherlich der Mensch nicht Ursache für diese drastische, lokale Klimaänderung. Ein Treiber dieser Veränderung waren wohl stärkere Abkühlungen in den hohen nördlichen Breiten, die zur Erwärmung und Niederschlagsveränderung in der Sahara führten:

https://www.awi.de/ueber-uns/service/presse/presse-detailansicht/das-ende-der-gruenen-sahara.html

Schaut man sich nochmal genauer den Zeitabschnitt des Holozäns an ca. -12.000 bis Vorindustrialisierung an, dann fällt ein abfallender Trend ab ca 3.000 Jahre vor Christus auf, der sich bis ca 1850 hielt, der sich aber nochmals ab dem 15. Jahrhundert verstärkte. Der Zeitraum 15. Jahrhundert bis Mitte 19. Jahrhundert wird auch “Kleine Eiszeit” bezeichnet. Als Ursachen werden verstärkter Vulkanismus, geringere Sonnenaktivität und Veränderungen der Erdumlaufbahn, die schon vor 6000 Jahren einsetze, genannt (siehe auch: https://de.wikipedia.org/wiki/Kleine_Eiszeit).

globale durchschnittliche Temperatur im Holozän

Doch ab 1850 geht es steil bergauf mit der mittleren globalen Temperatur. Brauchte die Erde im Mittel seit der letzen Eiszeit 2.000 Jahre, um um ein Grad zu steigen, schaffte die “Erde” es auf einmal in 200 Jahren. Das bedeutet, die jetzige Temperaturänderung findet jetzt um den Faktor 10 schneller statt. Da sollte man sich doch fragen, was ist die Ursache für einen solchen drastischen Temperaturanstieg und wie geht es weiter damit?

Verlauf der CO2 Konzentration in den letzen 400.000 Jahren

Wie hat sich die CO2 Konzentration in der Atmosphäre über die letzen Jahrtausende entwickelt?

CO2 Konzentration der letzen 400.000 Jahre in ppm aus dem Buch “Regenerative Energiesysteme” von Volker Quaschning.

Augenscheinlich schwankt die CO2 Konzentration schon lange auf diesem Planeten (Wechsel zwischen Eiszeit und Warmzeit) doch in den letzen 200 Jahren, da hat sich etwas vom Zyklus der Schwankungen abgekoppelt. Die CO2 Konzentration ist auf dem Weg sich zu verdoppeln gegenüber den Maxima der letzen 400.000 Jahre. Die Einheit für die CO2 Konzentration wird in ppm = “parts per million” angegeben. CO2 ist ein Spurengas mit einem Vorkommen von nur 4 Promille aber man bedenke, dass man auch nur sehr wenig vom Gift Arsen braucht, um einen Organismus ins Jenseits zu befördern. Ist der rapide Anstieg des CO2 in den letzten 200 Jahre eindeutig mit dem Menschen zu verbinden? Diese Frage kann ganz eindeutig mit “Ja” beantwortet werden. Es spielen wieder einmal Isotope bei der Beantwortung dieser Frage eine Rolle.

CO2, das durch Ausatmen und anderen Gärungsprozessen von Mensch, Tier und Pflanzen ausgeschieden wird, hat auch immer einen radioaktiven C14 Anteil. Die Halbwertzeit vom C14 Anteil liegt bei ca. 5.000 Jahren. Man stellt allerdings bei den jetzigen CO2 Messungen fest, dass der radioaktive Anteil des C14 Isotops stark rückläufig ist. Wie ist das zu erklären? Das CO2, das durch Kohle-, Öl- und Gasverbrennung entsteht, enthält kein C14 Isotop mehr, denn diese Stoffe wurden gebildet im Carboneum, das viele Millionen Jahre zurückliegt. Das bedeutet nahezu alle radioaktiven C14 Isotope aus jener Zeit sind zu C12 zerfallen.

Doch der Anstieg der mittleren, globalen Temperatur muss nicht zwingend mit dem menschen gemachtem Anstieg der CO2 Konzentration zusammenhängen. Es kann eine Korrelation sein, die nicht kausalen Ursprungs ist.

Wo ist die Verbindung zwischen Anstieg der CO2 Konzentration und dem Temperaturanstieg?

Zunächst möchte ich klar herausstellen, dass man nicht beweisen kann, dass der Anstieg der CO2 Emssionen durch den Mensch die Erhöhung der globalen Durchschnittstemperatur verursacht. Hierbei liegt auch oft ein falsches Verständnis zwischen definierbar und durchführbaren mathematischen Beweisen und naturwissenschaftlichen Thesen. In der Mathematik können sehr genau Definitionen, Bedingungen und Thesen miteinander in Einklang gebracht werden, die dann in einem Beweis münden. In den Naturwissenschaften können Thesen und deren Randbedingungen im Experiment unter Laborbedingungen bestenfalls bestätigt werden oder falsifiziert werden. Als einer der am besten bestätigten physikalischen Theorien inklusive der Einbeziehung von mathematischen Beweisen gilt die “Allgemeine Relativitätstheorie” von Albert Einstein. Trotzdem kann ein relevantes, überprüfbares “Gegenexperiment” die Theorie zum Einstürzen bringen. So kann man auch bis heute nicht beweisen, dass Rauchen Krebs erzeugt aber die Last der Indizien wiegt schwer.

Es kann beim derzeitigen “CO2/globalen Temperaturanstieg” Zusammenhang auch nur einen Indizienprozess geführt werden.

Zunächst stellt sich die Frage, was noch neben des Anwachsen des CO2 Spiegels, die mittlere globale Temperaturerhöhung verursacht haben könnte. Da fällt der Blick natürlich auf die eigentliche Ursache für Wärme in unserem Sonnensystem: “Die Sonne”. Die Sonne strahlt nicht immer gleich stark sondern schwankt in einem Zyklus von elf Jahren (Sonnenfleckenzyklus). Seit den 80ziger Jahren beobachtet man sogar einen längerfristigen Abwärtstrend trotzdem sieht man ein sehr starken Anstieg der globalen mittleren Temperatur. Die Sonne fällt als Erklärung also aus.

https://www.klimafakten.de/behauptungen/behauptung-die-sonne-verursacht-den-klimawandel

Auch die Veränderung der Umlaufbahn durch die Milankovitch Zyklen können den rapiden, globalen Temperaturanstieg nicht erklären.

Der CO2 Anstieg bleibt der Hauptverdächtige für den Temperaturanstieg. Und die Wissenschaft hat einen sehr starken Gehilfen bekommen, der ein weiteres wesentliches Indiz für diese Hypothese liefert: Die Simulation des Weltklimas in tausenden von Prozessoren von Rechner Clustern, die eine virtuelle Erde abbilden.

Bei dieser Simulation kommen die Physik, wie Erhaltungssätze (Energie, Impuls aber auch Masse) und die Infinitesimalrechnung zum tragen. Die Infinitesimalrechnung wurde von Newton und Leibnitz unabhängig voneinander eingeführt, um Differentiale und Integrale zu Lösen, wenn die “Formelsammlung” versagt. Ein Obergriff dieses Bereiches in der Informatik wird mit Numerik bezeichnet. Das Grundprinzip lässt sich einfach für das numerische Lösen von Integralen zeigen.

Das Integral einer Funktion mit einem Parameter kann geometrisch durch die Fläche angegeben werden, die der Funktionsgraph mit der Horizontalachse einschließt:

aus https://link.springer.com/chapter/10.1007/978-3-658-26524-3_16

Nun ist die Fläche unter einer gekrümmten Funktionskurve gar nicht so leicht zu berechen. Kennt man doch nur die Fläche genau von Vielecken und dem Kreis, der ja ein Vieleck mit unendlich viel Ecken ist. Die Fläche ist einfach zu berechnen für ein Rechteck. Daher ist die Strategie man nähert die “wirkliche” Fläche durch eine Summe von Rechtecken an. Augenscheinlich begeht man dabei einen Fehler, doch je kleiner man das Intervall für die Rechtecke auf der x-Achse wählt, um so kleiner wird der Fehler. Lässt man die Intervalle “beliebig klein aber nicht null” werden, so nähert man sich der mathematischen Definition des Integrals an und der Fehler wird beliebig klein. Für uns Menschen ist dieser Ansatz dann aber auch beliebig aufwendig. Doch für den Kollegen Computer ist es natürlich kein Problem, obige Fläche durch 1000, 10.000 oder 100.000 Rechtecke anzunähern, so dass der Fehler für alle technischen Belange zu vernachlässigen ist. Es sollte nicht verwundern, dass für eine Struktur Wissenschaft, wie die Mathematik, der Ansatz, eine komplexe Struktur durch eine Superposition von Beherrschbarem Strukturen zu beschreiben und somit lösbar zu machen, geradezu inhärent ist.

Wie wendet man nun dieses Prinzip für die Simulation von so etwas komplexem wie das Klima der Erde an? Man zerlegt die Erde in “kleine” dreidimensionale Kugelkubenelemente, etwas so:

Die Atmosphäre der Erde zersägt in viele kleine Boxen (aus ZDF Terra X).

Eine einzelne Box kann wiederum so aussehen:

Klimasimulations-“Grid”-element aus Terra X ZDF

Von jedem “Grid” Element ist die geologische Beschaffenheit bekannt. Außerdem ist jedes Klima “Grid” Element über Kopplungsrandbedingungen mit seinen Nachbar “Grid” Elementen verknüpft. Verdunstet Wasser in dem einen Element und “weht” der Wind, so wird es dem einen Element entzogen und dem anderen hinzugefügt. Es ist die unglaubliche Strukturkraft der Mathematik, die Wirbelstürme, Regenfluten, Hitze aber auch sehr schönes Frühlingswetter in riesige Zahlenkolonnen pressen kann aber nur durch den Computer sind wir auch in der Lage, diese Zahlen in Echtzeit zu verändern. Theoretisch kann man das auch mit einem sehr großem Bleistift und Papier machen aber das ist schon etwas theoretisch ;-). Das überlässt man doch dann besser den Computern:

Computer Cluster zur Simulation von Klimamodellen (Terra X ZDF)

Zumal Computer die Fähigkeit haben, die von ihnen berechneten Zahlenkolonnen wieder in wunderbare Bilder und Grafiken zu verwandeln durch die wir Ihre Prognosen überhaupt erst deuten können. Es gab so Ausnahmen, z.B. einen schwer Kurzsichtigen, der aus vielen handschriftlich kleingeschriebenen Tabellen des Dänen Tycho Brahe erkannte, dass die Planeten unseres Sonnensystems sich auf Ellipsenbahnen um die Sonnen bewegen (Kepler) aber solche Menschen sind wirklich rar geworden.

Da sind dann Computer im Ergebnis anschaulicher und werfen z.B. eine solche Grafik heraus:

Messdaten über die Entwicklung der globalen mittleren Temperatur vs Simulationstemperaturdaten, wenn die CO2 Konzentration nicht gestiegen wäre durch fossiles CO2 (Terra X ZDF).

Die obige Temperatur Plot besagt, dass ohne Ausbeutung der fossilen Energieträger (orange Kurve) wir im Holozän geblieben wären. Das sagen übrigens alle Klimamodelle, die wissenschaftlich anerkannt sind. Keins prognostiziert einen mittleren Temperaturanstieg, es sei denn man dreht am Parameter CO2.

Hier nochmal ein netter Link über Klimamodelle und wie sie zustande kommen:

https://www.zdf.de/dokumentation/terra-x/so-funktionieren-klimamodelle-erklaerclip-klimawandel-100.html

Zum Abschluss dann nochmal ein Blick in den Abgrund: das Klimaszenario RCP 8.5

https://sos.noaa.gov/datasets/climate-model-temperature-change-rcp-85-2006-2100/

Das Szenario wird auch “Business as usual” bezeichnet. Es simuliert die mittlere Temperaturentwicklung in Abhängigkeit der CO2 Konzentration unter der Annahme, dass wir so weiter machen wie bisher und der CO2 Anstieg nicht wesentlich gebremst wird vom Jahre 2006 bis 2100.

Ich greife nun vollkommen unwissenschaftlich das Jahr 2021 heraus und betrachte mir die Visualisierung der Simulationsdaten für das Jahr 2021:

RCP 8.5 für das Jahr 2021 (Temperaturvisualisierung)

Ich sehe starke Temperaturzunahme in Westen Nordarmerikas. Der Vergleich mit der Realität (Temperaturen bis zu 50° in British Columbia (West Kanada)) kann sich sehen lassen. Sehr starke Überhitzungen in der Nordpolarregion werden prognostiziert und tatsächlich im Juni dieses Jahres wurden dort die 48°Celsius erreicht. Außerdem zeigt das Modell starke Erwärmungen in Südeuropa und wo brennt es und werden Temperaturen bis 45°Celsius vermeldet? Die Simulationsprognose ist bestechend. Aber wie sieht es mit der prognostizierten CO2 Konzentration in der Atmosphäre aus. Das Modell geht von 419 ppm aus. Das ist etwas zuviel, stand jetzt sind wir bei 415 ppm.

aus https://wiki.bildungsserver.de/klimawandel/index.php/Datei:Konzentration_CO2_aktuell.jpg

Das macht einen relativen Fehler von (419/415-1)=0.96% also unter einem Prozent.

Psychologische Blockaden auf dem Weg zur CO2 Neutralität?

Nun während der Industrialisierung von 1750 bis heute, da ist ja noch etwas gewachsen außer dem CO2. Im Jahre 1800 knackten wir die eine Milliarde lebenden Menschen auf diesem Planeten. Das ist beachtlich für eine Lebensform unserer Größe. Wenige Jahre später haben wir heute fast acht lebende Milliarden Menschen auf diesem Planeten erreicht. Man kann es drehen und wenden wie man es will, die industrielle Revolution und die mit ihr einhergehenden Folgeprozesse sind eine nicht fassbare “Success” Story. Kann eine solche Mega Success Story so unangenehm enden?

Globale Bevölkerungsentwicklung aus https://www.oekosystem-erde.de/html/zukunft-bevoelkerung.html

Das mental zu begreifen, dass nach dem Rausch der jehe Absturz kommen kann, bezogen auf eine solch erfolgreich und überlegende Gattung, das fällt allerdings schwer. Ein Molekül, das unsichtbar, geruchlos und nicht mal richtig giftig ist, das soll uns schlagen?

Ein Freund und Psychologe (diese Kombination soll es geben;-)) wies mich Ende der 90ziger auf ein heute Standardwerk für Psychologen und Kognitionswissenschaftler hin:

Die Logik des Misslingens

https://www.rowohlt.de/buch/dietrich-doerner-die-logik-des-misslingens-9783644011618

Er erzählte mir außerdem von einem psychologischen Experiment. Die Versuchspersonen hatten die Aufgabe die Temperatur ein Kühlhauses über eine einfache Zweipunkt Regelung zu steuern. Es gab einen Knopf zum Erwärmen und einen zum Abkühlen. Ich glaube ich brauche nicht zu erwähnen, dass die meisten Versuchspersonen scheiterten beim Versuch das Kühlhaus auf der Soll-Temperatur zu halten. Das Kühlhaus endete in einem ungeregelten Wärmezustand. Ohne hellseherisch wirken zu wollen, mein Kommentar damals war: “So wird es kommen!”

Die meisten Testpersonen gingen davon aus, dass eine solch einfache Regelung leicht und intuitiv zu bedienen ist. Zunächst blieb die Temperatur konstant und stieg nur unmerklich langsam an. Doch nach einiger Zeit merkte die Testperson, dass die Temperatur immer schneller stieg und das Kühlung angesagt ist und so drückte sie auf den Kühlknopf. Aber es passierte nichts, die Temperatur stieg ungebremst weiter. War der Kühlknopf kaputt? Die Testperson rechnete nicht mit der Trägheit eines solchen thermodynamischen Systems. Ein Knopfdruck suggeriert uns Menschen jedoch eine sofortige Reaktion nach dem Ursache/Wirkungsprinzip. Wie ging das Versuchsdrama weiter. Plötzliche zeigte die Abkühlung aber Wirkung nun aber plötzlich und radikal, so dass die Soll Temperatur weit unterschritten wurde. Darauf folgte dann ein hektisches auf und ab der Temperatur, weil der Proband in Panik hin und her schaltete und die Regelung begann an zu schwingen und dann ist Schluss mit einem Regelkreis.

Was wäre die Lösung gewesen? Die Versuchsperson hätte sich sofort mit der Temperaturregelung vertraut machen sollen noch bevor es eigentlich nötig gewesen wäre zu regeln. Dann hätte sie erlernen können, dass eine solche Temperaturregelung zeitverzögert auftritt und hektisches hin und her Schalten aber auch zu lange halten von einer Regelstufe nicht sinnvoll ist.

Das erlernte wenden wir jetzt mal auf einen Planeten an ;-( .

Leider ist auch der Begriff CO2 Neutralität sehr missverständlich. Viele verstehen darunter, dass wir gar kein CO2 mehr emittieren und durch die Photosynthese würde es zu einem langsamen Rückgang in der Atmosphäre kommen. Das ist aber schlichtweg unmöglich, denn wir müssen ja noch atmen und neben fast 8 Milliarden Menschen sind das Tiere und Pflanzen. Pflanzen produzieren eben auch CO2, wenn sie absterben. CO2 Neutralität bedeutet, dass wir die Konzentration nicht mehr steigern aber viel zuviel CO2 ist ja schon “drin” in der Atmosphäre und wird uns das Leben schwer machen.

Und nun, Game Over?

Wir wären ja keine Menschen, wenn wir uns so leicht geschlagen gäben. Wir können uns der Rosskur des Drogenentzugs stellen. Aber wir sollten uns ehrlich klar machen, dass wir nicht von einem Zigaretten Entzug eines Gelegenheitsraucher sprechen. Wir sind auf Heroin und das schon viel zu lange. Vieles ist unwiderruflich kaputt aber Ersatzdrogen wie regenerative Energien können uns noch handlungsfähig machen, so dass wir Zeit gewinnen bessere Technologien zu entwickeln, um uns an den kommenden Klimawandel anzupassen.

Solche neuen Technologien könnten z.B. die Kernfusion sein. Sollte diese stabil funktionieren und nicht nur einen kurzen Augenblick stünden uns Energien zur Verfügung, die es erlaubten das CO2 aus der Atmosphäre wieder abzusaugen. Doch bis dahin wird es weiter ungemütlicher auf unserem Planeten.

Es ist nie zu spät etwas gutes zu tun, auch wenn die gute Wirkung sich viel später entfaltet. Diese Erkenntnis steckt tief in uns drin. Es wird Zeit sie aus unserem Innersten hervorzuholen.

Die letzen Worte in diesem Blog überlasse ich einem Politiker, den ich sehr schätze und der meine vielen Worte sehr ruhig und auf den Punkt zusammenfasst.

Lasst uns den Schalter umstellen und genau beobachten was passiert…die Evolution geht weiter.

Robert Habeck, August 2021 bei Maischberger.

Wir sind halt auch Computer…

Vorbemerkung: Alle meine Beiträge spiegeln meine persönliche Meinung und Anschauung zu Themen aus Naturwissenschaft, Technik aber auch Psychologie wider. Sie sind weder methodisch noch inhaltlich nach einem höheren Konzept korrekt und sind daher bestenfalls als Denkanstöße zu verstehen.

Unsere Zeit hat viele Gesichter und man weiß gar nicht, wo man anfangen soll, wenn man sich einer Charakterisierung annähert. Ein Zeichen der Zeit, dem wohl viele zustimmen würden, wäre die Aussage: “Wir leben im Zeitalter der Computer!”.

Der 66 Generation kommt dabei einer besondere Schlüsselrolle zu. In Deutschland und sicherlich in vielen anderen Ländern der Erde wurde zum ersten Mal ein elektronischer Taschenrechner 1978 als ultimatives Lernhilfsmittel für alle Schüler eingeführt (dass es dabei in deutschen Schulen fast geblieben wäre, das ist eine andere traurige Geschichte ;-)).

Den ersten Computer, den ich sah, der eben schon mehr als “nur” mit Zahlen rechnen konnte, war der ZX-80 von Sinclaire, der Texte und auch schon Grafiken auf silberbeschichtetes Papier drucken konnte, nicht zu vergessen der Commodore 64 mit seiner Datasette.

Das ist nun alles schon lange her und heute haben Neuroinformatiker kein Problem mehr damit zu sagen, dass der Mensch halt ein Bio-Computer ist. Unter dieser Prämisse lebt die Menschheit also ständig im Zeitalter des Computers.

Was ist nun mit Bio-Computer gemeint? Ich reduziere diese komplexe Fragestellung mal auf ein einfaches Model. Man kann das Gehirn in drei sehr grobe Bereiche aufteilen:

  • das Stammhirn auch Reptilienhirn genannt
  • das Zwischenhirn auch Chemie Hirn genannt
  • das Großhirn, die Krone der Schöpfung 😉

Jetzt wird es mal Zeit für Bilder:

Das Stammhirn, Abbildung von Wikipedia.org

Das Stammhirn hatten schon die Dinosaurier. Es enthält die wesentlichen Basis Steuerungseinheiten eines komplexeren Lebewesens, wie z.B.:

  • Temperaturkontrolle
  • Atmungsfrequenz
  • Herzschlag Frequenz
  • Blutdruckkontrolle
  • Reflexkontrolle

Als Analogon im Computerbereich könnte man hier das BIOS (Basic Input/Output System) benennen, dass BIOS enthält die Basis Routinen mit denen man mit dem Computer kommuniziert wie Tastatur, Mouse click, Touch Events.

Nun kommen wir zur wirklichen Problemstelle dem Zwischenhirn. Es heißt Zwischenhirn, weil es eben zwischen Stammhirn und Großhirn liegt. Evolutionshistorisch betrachtet bildete sich das Zwischenhirn mit den Säugetieren also nach dem Aussterben der Dinosaurier aus. Es ist für die Gefühle verantwortlich. Eine riesige Chemiefabrik mit besten Auslieferungslogistik in den ganzen Körper. Fast alle psychische Erkrankungen gehen auf Defekte des Zwischenhirns zurück.

Das Zwischenhirn, Quelle:www.kenhub.com

Der berühmte Herz/Kopf Konflikt kommt eben dadurch zustande, dass die Verarbeitung von z.B. Logik und räumlicher Orientierung im Großhirn, die Gefühle aber im autonomen Bereich des Zwischenhirns angesiedelt sind. Es gibt natürlich Schnittstellen zwischen den Gehirnteilen aber ihre wesentlichen Funktionen führen sie autonom durch. Daher kann die Ratio nicht einfach die Emotion “überschreiben”, auch wenn sie noch so viele Argumente aus dem Großhirn “hervorzaubert” ;-). Da eben alle Säugetiere über ein Zwischenhirn verfügen, wundert es nicht, dass wir gerade bei unseren liebsten Haustieren, wie Hund und Katze bestens unseren eigenen Gefühlsschwankungen beobachten können. Einen Gefühlszustand verdanken wir aber doch den Dinosauriern und das ist der Zustand des Zornes (krankhaft) mit Aktivierung zum Kampf. Das ist der Raptus, Tyrannosaurus Rex lässt grüßen. Eben doch nicht ganz ausgestorben.

Hier fällt es mir doch schwer einen sinnvollen Vergleich zum Silizium Chip Computer zu finden. Es erinnert mich nur an die “Hybrid” Figur Data als sie etwas skeptisch aber auch fasziniert zum ersten Mal den “Emotions” Chip in ihren “Gehirnslot” einführt. Wer da noch tiefer einsteigen will dem sei folgender Link empfohlen (für die Hard Core Star Treck Fans 😉 https://memory-alpha.fandom.com/de/wiki/Emotionschip ).

Kommen wir zur Krone der Schöpfung dem Großhirn.

Das Großhirn, Quelle Thieme via Medici: https://viamedici.thieme.de/

Hier noch eine Kurzbeschreibung aus der Internetseite Dr. Gumpert (www.dr-gumpert.de/html/aufgaben_vom_grosshirn.html):

Das Großhirn ist der Teil vom Gehirn, der wohl am weitläufigsten bekannt ist. Es wird auch als Endhirn oder Telencephalon bezeichnet und macht den größten Teil des menschlichen Gehirns aus. In dieser Ausprägung und Größe ist es auch nur beim Menschen vorhanden.

Grob unterscheidet man am Großhirn vier Lappen, die in Bezug auf ihre anatomische Lage benannt sind und zwei gesonderte, in der Tiefe liegende Bereiche. Genauer wird die Großhirnrinde in 52 sogenannte Brodmann Areale eingeteilt, benannt nach ihrem Erstbeschreiber Korbinian Brodmann. Es ist in zwei Hälften, den Hemisphären, aufgeteilt.

Um eine möglichst große Oberfläche zu haben, ist es vielfach gefaltet. Die aufgeworfenen Windungen und entstandenen Furchen tragen eigene Namen und können bestimmten Funktionsgebieten zugeteilt werden.

Das Großhirn ist die höchste Instanz des “Zentralen Nervensystems“, zu dem neben dem Gehirn auch das Rückenmark zählt, und macht den Menschen mit all seinen emotionalen, psychischen und motorischen Fertigkeiten überhaupt erst zu dem, der er bzw. sie ist. Es ist in alle aktiven Gedanken und Bewegungsabläufe eingebunden, verarbeitet eingehende Informationen und produziert daraufhin zielgerichtet Antworten und Reaktionen. Dabei ist es über Nervenbahnen vielfach mit sich selber und weiteren Hirnstrukturen verknüpft. In der Großhirnrinde liegen die Nervenkerne, im Mark die Nervenbahnen.

Sprich es ist die CPU, die über ihre internen Datenbusse mit Hilfe aller externen Schnittstellen von USB bis HDMI die Persönlichkeit abrundet. Die externen Devices sind aber eben keine Hochglanzmonitore mit ihren Graphikkarten und super Stereo Soundkarten sondern “einfach” nur Beine, Arme, Hals und ein Kopf, der sehen, hören, schmecken kann. Nicht zu vergessen steuert es auch einen verteilten Sensor, genannt Haut, um Dinge zu ertasten und deren Temperatur zu testen.

Man könnte sicherlich noch sehr viel genauere verschiedene Funktionseinheiten des Großhirns versus Funktionsgruppen eines Computers aufstellen, ich möchte aber aufzeigen, dass es in der algorithmischen Verarbeitung zwischen Computer und dem menschen eine gemeinsame Strategie gibt:

Die scheinbare Parallelverabeitung.

Die Parallelverarbeitung von Algorithmen war und ist in der Informatik ein riesen Thema. Häufig wird das unter dem Stichwort Multi Tasking zusammengefasst.

Es ist jedem sehr offensichtlich, dass es Aufgabenstellungen gibt, die sich relativ leicht parallelisieren lassen, wenn zumindest die Ressourcen hat. Ein Beispiel: Man soll zehn Liter Wasser möglichst schnell von A nach B bringen und hat zufällig 10 Eimer a einem Liter. Ohne groß zu überlegen entscheidet man sich für fünf Menschen mit je zwei Armen und kann damit die Aufgabe am schnellsten lösen. Doch es gibt Aufgabestellungen, die lassen sich nicht so leicht parallelisieren. Sollte man z.B. auf die Idee kommen neun Frauen zu schwängern in der Hoffnung nach einem Monat ein Kind zu haben, wird man(n) doch feststellen, dass stattdessen nach neun Monaten neun Kinder da sind, Parallelisierung fehlgeschlagen.

Die Antwort der Informatiker ist (u.a.) das Petri Netz aus der Theorie endlicher Zustandsautomaten. Wenn ihr mich jetzt fragt, was sind denn das für Netze, da mache ich es jetzt so, wie unser Informatik Professor Balzert, der leider mehr interessiert war seine Bücher zu vermarkten, anstatt sein Wissen zu lehren. Trotzdem haben seine Vorlesungen mein Leben am nachhaltigsten verändert ;-).

Mathematische Definition eines Petri Netzes aus Wikipedia.

Außerdem habe ich mir immer gemerkt, dass ein Compiler ein Quadro Tupel aus “non terminalen” Symbolen, terminalen Symbolen einer Grammatik und Produktionsregeln ist. Wir haben damals in der Vorlesung auch nicht schlecht gestaunt und versuchten die Zeichen zu verstehen und irgendwann machte es Klick und da sind wir beim ganz wesentlichen Teil von Parallelverarbeitung: Es geht darum verschiedenste Aufgaben möglichst zeitnah gelöst zu bekommen, so dass es einem wie gleichzeitig vorkommt.

Hier können sowohl Programmierer wie auch das Betriebssystem eine entscheidende Möglichkeit bei der Verabeitung von Befehlen nutzen: synchroner oder asynchroner Funktionsaufrufmechanismus.

Als typisches Beispiel für den synchronen Funktionsmechanismus sei das Telefonat genannt. Anrufer A ruft B an, weil er dringend eine Antwort von B benötigt. Das Telefon dient nur der Synchronisierung von Frage und Antwort. Wenn alles glatt geht, dann hat A relativ schnell seine Antwort. Die Klarheit in der Abfolge der Kommunikation bei der synchronen Methode ist ihre Stärke aber auch ihre Schwäche zugleich. Denn hat A den Kommunikationspartner wirklich unter ‘Kontrolle’? B hat vielleicht keine Zeit und geht gar nicht an den Anruf dran. A hat dann Zeit vertan, ohne ein Schritt weiter gekommen zu sein. Als Alternative bietet sich dann die asynchrone Kommunikation an. Als Beispiel erwähne ich den berühmten vergessenen Einkaufszettel. Man ist ausser Haus und wollte auf dem Rückweg noch einkaufen und hat die Einkaufsliste vergessen. Man braucht die Liste nicht sofort, aber man weiß, dass der Partner oder die Partnerin zu Hause ist und sicherlich mal auf das Handy schaut und dann den Einkaufszettel schickt. Der Informatiker nennt eine solche Kommunikation ‘loosely coupled‘. Damit das funktioniert, muss der Absender A eine klare ‘call back‘ Adresse hinterlassen. Und der Absender sollte es mit seinen asynchronen Anfragen nicht übertreiben, nach dem Motto: Wenn du gerade beim Einkaufszettel bist, kannst Du noch das und das tun… Das kommt weder bei Bio- noch Silizium Computern gut an. Informatiker nennen diese Situation: Der Request Stack ist überlastet.

Während die beiden obigen Beispiele sehr bewusst ablaufen, tritt die asynchrone Kommunikationsmethode (auch mit uns selbst) oft sehr unbewusst ohne direkte Steuerung auf. Das klassische Beispiel ist der vergessene Film beim Gespräch mit einem Freund. Während des Gesprächs erinnert sich weder der Freund noch man selbst daran aber trotzdem wissen beide welcher Film / Schauspieler gemeint ist. Tage später poppt auf einmal der Name auf, wenn man z.B. entspannt unter der Dusche steht.

Was ist hier passiert? Ohne dass man es bemerkte, wurde ein “asynchroner Service Request” an das Gedächtnis ausgelöst. Asynchron, weil zunächst keine Antwort gefunden wird und es noch viele andere Aufgaben zu lösen gibt. Aber die Frage nach dem Names des Films/Schauspielers ist im Kopf und immer, wenn mal wieder Zeit da ist weiter im Gedächtnis zu suchen, macht es auch das Gehirn. Genauso wie ein Computer einem Programm vom “Idle Mode” in den “Run Mode” nach einem strikten Prioritäten Plan aktiviert. Hat das Programm seine Aufgabe erfüllt, so teilt es dies dem Betriebssystem mit, welches dann das Programm aus der Prozessliste streicht. Es ist auch kein Wunder, dass die Antwort auf den Filmnamen gerade in entspannten Phasen aufkommt, denn nun ist der Kopf “frei” und andere Prozesse “stehlen” keine wichtigen Ressourcen, um im Gedächtnis zu suchen. Solche zumeist unbewussten Erinnerungsvorgänge sind ungemein wichtig für die Restrukturierung des Gedächtnisses wie ein Festplattenreorganisation.

Bleibt zum Schluss die Frage, wenn wir so etwas wie Bio-Computer sind, wer schreibt eigentlich die Software? Dazu gibt es auf Youtube einen netten Vortrag vom Royal Institute of Science.

Ich möchte keinem zu nahetreten, der sich mit der Bezeichnung Bio-Computer eher diskriminiert fühlt. Doch mir scheint eines sicher, keine Maschine, die der Mensch je erschaffen hat, sagt mehr über uns aus als der Computer. Eine Beschäftigung mit dem Computer ist auch immer eine Auseinandersetzung mit uns selbst.