Business as usual and the facade pattern

Comments on the report: The 2024 state of the climate report: Perilous times
on planet Earth
, created by renowned climate scientists like Johan Rockström and Stefan Rahmstorf from Potsdam Climate institute and many more scientists from around the globe. You find the report here:

https://academic.oup.com/bioscience/advance-article/doi/10.1093/biosci/biae087/7808595?login=false

2024 Climate Report: Business as Usual in a Time of Crisis

As we stand in 2024, the latest climate report offers little optimism. Despite decades of scientific warnings, international agreements, and increasing awareness, we are still moving toward a climate catastrophe with no significant course correction. The numbers tell a clear and sobering story: humanity is continuing on the same path as if nothing serious is happening. Here’s a closer look at what the 2024 State of the Climate Report reveals.

Record Temperatures—A New Normal?

One of the most glaring indicators that we’re not on the right track is the temperature data. In 2023 and 2024, both global and North Atlantic sea surface temperatures shattered records. Not by small margins, but by huge leaps that signal how deeply entrenched global warming has become. Scientists warn that these are not just one-off events but a reflection of a new normal where extreme heat becomes more frequent and severe.

Global mean temperatures have also risen to record levels, with 2024 expected to be one of the hottest years on record. It’s worth noting that this heat isn’t evenly distributed. While some areas face intense heat waves and droughts, others see unusual storms and flooding. Regardless, these are all symptoms of the same underlying problem—unchecked global warming.

Fossil Fuels: Still the Elephant in the Room

Despite the overwhelming evidence that fossil fuels are driving climate change, our global addiction to coal, oil, and gas remains as strong as ever. The report makes it painfully clear: fossil fuel consumption increased by 1.5% in 2023, continuing a trend that has been in place for years. Even as renewable energy sources like wind and solar are growing, they still only cover a fraction of our total energy needs. In fact, fossil fuel consumption is still 14 times greater than solar and wind energy combined.

This mismatch between rising renewable energy use and the ever-growing consumption of fossil fuels shows that we are not doing enough to phase out the sources of emissions. Instead, we are essentially maintaining the status quo, while giving the impression that the energy transition is moving in the right direction. But the numbers do not lie—renewables are far from catching up to the scale needed to make a meaningful impact.

Greenhouse Gases: Still on the Rise

As if the rising temperatures weren’t enough, the concentrations of greenhouse gases in the atmosphere are also at record highs. Carbon dioxide (CO2), the primary driver of climate change, has surged past previous records. Even more concerning is the accelerated growth of methane emissions—a greenhouse gas far more potent than CO2 in the short term.

This increase is especially alarming because methane has a relatively short atmospheric lifetime. Reducing methane emissions could be one of the quickest ways to slow down global warming. However, instead of seeing progress, we’re witnessing the opposite—methane levels are climbing, pushing us even closer to tipping points that could have devastating effects.

Deforestation and Ecosystem Collapse

Our ecosystems are also bearing the brunt of climate change, with forests playing a particularly tragic role. Global tree cover loss hit 28.3 megahectares in 2023, driven in large part by massive wildfires that have become more frequent and severe due to rising temperatures. These losses aren’t just about the destruction of nature—they directly impact our ability to capture and store carbon.

While the Amazon rainforest, often called the “lungs of the Earth,” has seen a slight reduction in deforestation rates, it is still far from safe. The Amazon is nearing a critical tipping point, where deforestation and climate change could cause large parts of it to shift from being a carbon sink to a carbon source, accelerating global warming even further.

Extreme Weather: The New Reality

The year 2023 and early 2024 have been marked by unprecedented climate-related disasters. From devastating wildfires in Chile to deadly heatwaves in Asia and the Mediterranean, extreme weather events have become more frequent and severe. The report notes that human-caused climate change has made such events more likely and more intense, with storm surges, floods, and heatwaves killing thousands and displacing millions.

The impacts are particularly harsh for the most vulnerable populations, especially in the Global South, where many lack the resources to adapt to such rapidly changing conditions. This raises critical questions about climate justice and the unequal distribution of climate impacts.

Where Are We Headed?

Perhaps the most unsettling takeaway from the report is the projection for the future. Under current policies, we are on track to reach around 2.7°C of warming by the end of this century—far beyond the 1.5°C limit set by the Paris Agreement. Scientists agree that every fraction of a degree of warming brings with it more severe consequences: more extreme weather, higher sea levels, and greater threats to food and water security.

What’s particularly troubling is the presence of so-called “feedback loops.” These are processes, like the melting of permafrost, that once triggered, can amplify warming and push us toward tipping points from which there may be no return. If we pass these thresholds, large-scale changes could be locked in, making it impossible to reverse course even if we drastically cut emissions in the future.

Business as Usual?

In conclusion, the 2024 State of the Climate Report paints a grim picture. Despite knowing the risks, we continue to act as if we have all the time in the world. The reality is, we don’t. The KPIs presented in this report—record temperatures, rising emissions, increasing deforestation, and worsening extreme weather—all point to a world where business as usual is pushing us toward disaster.

This isn’t just a failure of policy or technology; it’s a failure of imagination and political will. We need bold, transformative action—now. From rapidly phasing out fossil fuels to addressing the inequities of climate impacts, there is no shortage of solutions on the table. What’s missing is the global commitment to put these solutions into practice. Without it, the future will be much hotter, much more dangerous, and far less predictable than we can afford.

It’s time to stop pretending that incremental changes will be enough. The window for meaningful action is closing fast, and what we do in the next few years will determine the future of our planet for generations to come.


As an electrical and software engineer, I struggle with the insight that we engineers and scientists actually made this all possible. We unlocked the potential of machines getting much stronger forces than any a live being ever could have, up to the point that they outnumber us in intelligence.

A very effective engineering approach in getting there was the “facade pattern“. In my childhood, this principle culminated into the remote control of TV sets. No user of such equipment had to know anything about frequency modulation, intermediate frequency or in digital time the Shannon theorem. You simply press a button which stands for a particular single action, not conflicting with actions related to other buttons. System designers call that orthogonality of the system parameters, enabling the hiding of complexity behind a system. This point of orthogonality is significant to achieve because no one understands if you press e.g. the button to make the screen brighter and, in addition, you make the sound louder. But in fact, many parameters of a system are heavily interconnected with each other. To decouple or at least only loosely couple them is the actual engineering task. If you achieve this goal, you will have a powerful and widely accepted tool to regulate your system. Ships, planes and cars were the first machines where this facade pattern was pushed to the limit, and self-driving cars are not only fiction but reality. But the computer itself, the internet and artificial intelligence are the cornerstone of the facade pattern.

Unfortunately, we decoupled more than the systems parameters complexity, we decoupled the whole humanity from mother nature else I cannot understand humans behavior. This decoupling prevents people’s understanding of our position in this vast cosmos:

Pale Blue dot, Earth picture taken by Voyager 1 in 1990 from a distance of 6 billion Kilometers.

This photo from Voyager I should remind us that our existence is very much dependent on the habitability of the planet. Everything outside the Earth, what is in any realistic reach of our technology in the next, let’s say 20–30 years, is tremendous hostile and actually not survivable. So it’s not very clever to ruin the habitability of our planet, unless we at least have a reliable alternative.

Let’s focus on two aspects of the report:

Energey consumption from 1980-2024 from the report:The 2024 state of the climate report: Perilous times on planet Earth

The diagram is rather small in the report, but you get the gist quickly. Renewable Energy is growing exponentially, but the fossil fuels stagnate or grow slightly at a much higher level than renewables currently are. You get the impression that many countries welcome renewables but rather as a supplement than a replacement. The organization https://www.switchcoal.org/ has found out that coal regions are excellent places to install solar panels and wind turbines for creating renewable energy. I can only confirm that the technology including energy storage and smart grids can enable us for many happy years to come, but without the will to migrate quickly to renewables replacing fossil fuels, it will be the opposite.

per capita meat production from the report:The 2024 state of the climate report: Perilous times on planet Earth

Also, the above diagram is heading unfortunately into the wrong direction. There was a short period when a reduction in meat production occurred, but this reverted dramatically again. By becoming vegetarians or vegans, we could create a big space of recreation for our planet because massive areas for growing ped food could be released to mother nature. This adaption from economical to psychological aspects, from meat eater to vegetarian/vegan eater is actually quite affordable, but for most people it seems impossible.

A species that interprets “survival of the fittest” as a thing of how to manipulate nature to its needs can be regarded as a brave species, but not necessarily a clever one.

But the facade pattern could see another survival track with imaginable extended effort in technology. Life on Earth will definitely get harder to survive, you need to adapt, but since we are not willing to make the necessary changes, we will adapt our virtual space simulating that the world is as we know it from our ancestors.

The movie Matrix stunningly pointed into this direction of evolution. Today, image recognition and classification AI software can already decode (still on a limited level) a human’s view by decoding MRI signals:

https://www.scientificamerican.com/article/ai-can-re-create-what-you-see-from-a-brain-scan/

I don’t think it’s too unrealistic that AI systems can manipulate our brain in a way that we perceive the world in a much different way as it actually will be within the next 20-30 years.

According to my personal observation already today, still most of the people see a much better world ahead as I see and those scientists of the report: The 2024 state of the climate report: Perilous times on planet Earth.

Advancement in AI technologies could work out the pattern to its core meaning: Facade

The eye of destruction…

Two weeks ago, Helene came along. You could look from a satellite, how this drama unfolded:

Realtime wind detection over Satellite of Helene just shortly before land fall.

The more the colorings turns to red respectively violet, the faster the wind speeds had been.

Helene reached its peak intensity as a Category 4 storm with maximum sustained winds of 140 mph (225 km/h). It caused extensive damage along Florida’s Big Bend region and other southeastern U.S. states before weakening as it moved inland. The storm produced significant flooding and widespread destruction across multiple states, particularly in the southern Appalachians and coastal areas.

So, here’s the thing with Hurricane Helene – it didn’t behave like a typical hurricane. Normally, these storms are round, with the eye in the center and winds swirling perfectly around it. But as Helene approached Florida, things got a bit strange. The wind pattern started to stretch out, almost as if the storm was getting pulled apart. And that’s not just some random fluke.

One of the big reasons for this is the jet stream. Think of the jet stream like a fast-flowing river of air high up in the atmosphere. When hurricanes run into it, it can mess with their balance, almost like a top being pushed while it’s spinning. The upper part of the storm gets hit by these strong winds and starts to lose its symmetrical shape.

But it wasn’t just the jet stream at play. There was also a frontal system nearby – these are colder air masses, and when they clash with the warm, tropical air of a hurricane, the storm starts to deform. The result? Helene stretched out and looked less organized. This can actually make hurricanes even more unpredictable and dangerous because their impact spreads over a larger area.

And that’s how Helene looked as it swept across the northern parts of the U.S., unleashing torrential downpours with rainfall totals reaching up to 500 liters per square meter in many areas.

Helene after mutating from Hurricane to a low pressure system.

For everyone visible, this thing was huge.

Now two weeks later you can use the same webpage to follow up on another hurricane called Milton: ( https://earth.nullschool.net/#current/wind/isobaric/850hPa/orthographic=-89.01,27.44,2874/loc=-84.515,26.245)

Milton on the 9th of October 24, just shortly before land fall.

This real-time picture tells quite the story. If you compare how Hurricane Helene looked as it neared landfall—stretched and deformed—Milton looks like the complete opposite. It’s far more symmetrical, with a tightly packed eye wall and clearly defined wind bands spiraling outward. This is a strong indicator that Milton hasn’t yet been disrupted by the usual suspects like land interaction or jet stream interference.

From the look of this image, Milton appears to be even stronger than Helene in terms of wind speed. The wind patterns are denser and more concentrated, especially around the core. That means the hurricane is likely to pack quite a punch as it barrels toward Florida. While Helene’s wind field started to lose its symmetry as it hit the jet stream, Milton hasn’t shown signs of that yet, which means the storm is still very intense.

This tells us that, as climate change continues to warm ocean waters, we will see more storms like Miltonstronger, more organized, and potentially more destructive right until landfall. These types of hurricanes pose an even greater threat because they don’t weaken significantly before hitting populated areas.

So why we let this happen, knowing for a very long time the consequences of our behavior growing like hell through the power of fossil fuels.

The scientific details explaining the increasing likelihood of these extreme weather events, you will find here: https://science.feedback.org/climate-change-impacts-on-the-water-cycle-how-can-it-increase-both-droughts-and-heavy-downpours/

But I think you won’t find the core reason for this path of self-destruction within these brilliant webpages. The core reason from my standpoint is much more simple than the energy imbalance between the earth and sun due to increase in green house gases:

Something deeply is rotten in us, and that has been the case for already a very long time.

Milton a few hours before landfall

In a few hours, the jet stream will give Milton the last push to hit Florida very deeply:

Jet stream formation that will push Milton towards Florida and areas around.

As we look at this image of the jet stream, hovering at 250 hectopascals, it becomes painfully clear what’s about to unfold. Hurricane Milton, with all its fury, is at the mercy of these powerful upper-level winds. The jet stream, acting like an invisible hand, is poised to grab the storm and sweep it across Florida. This means Milton won’t just linger offshoreit’s about to be forced straight through the state, delivering even more destruction than it might have otherwise.

It’s tragic, really. We’re seeing these kinds of interactions—between jet streams and hurricanes—more and more often, driven by a warming atmosphere and shifting weather patterns. This is another reminder of how climate change is making storms not just stronger, but also more unpredictable and widespread in their destruction. As Milton is pushed forward, Florida braces itself for what’s to come: powerful winds, torrential rain, and devastation that will take weeks, if not months, to recover from.

There’s no stopping it now. All we can do is brace ourselves and hope that the damage is less than what these images suggest. But with a storm this powerful, carried by a jet stream this strong, it’s hard to feel optimistic.

Chimney Rock

I just want to recommend the following report on YouTube:

This is a very sensitive report about the brutal damage created by the flooding caused by Hurricane Helene in the USA.

At least 110 people died from the impact of Helene, among them a young mother with her one-month-old twins in their house in Georgia (https://www.politico.com/news/2024/09/29/hurricane-helene-widespread-destruction-south-00181569).

It’s correct to say that such terrible “accidents” will always happen, and we cannot prevent them completely. I agree on that, but we can reduce significantly the likelihood and strength of such terrible and unimaginable events by transitioning faster to green energies, as we do so far all over the world.

Land unter…

Wir erleben eine Katastrophe in Mittel- und Osteuropa, deren Auswirkungen uns alle aufrütteln sollten. Die heftigen Regenfälle, die Überschwemmungen und das menschliche Leid, das sich derzeit in Tschechien, Polen, Österreich und weiteren Regionen abspielt, sind kein isoliertes Ereignis. Vielmehr sind sie ein klares Symptom dessen, was Wissenschaftler seit Jahrzehnten prophezeien: Ein sich erwärmendes Klima, das unsere Wetterextreme verschärft. Die Wasseroberflächen des Mittelmeers und des Schwarzen Meers sind mittlerweile erschreckend heiß, deutlich wärmer als noch vor wenigen Jahrzehnten. Diese warmen Meeresoberflächen wirken, wie ein gigantischer Dampfkessel, der feuchte Luftmassen in die Atmosphäre pumpt.

Wir wissen, dass eine um nur ein Grad Celsius erwärmte Atmosphäre 7 % mehr Wasserdampf speichern kann. Das ist eine enorme Menge, die sich nun in den massiven Regenfällen entlädt, die über dem bereits gesättigten Boden Europas niedergehen. Diese zusätzlichen Wassermengen finden keinen Platz mehr und führen zu den katastrophalen Überflutungen, die wir derzeit erleben.

Das Erschütternde ist, dass genau diese Entwicklungen in Klimamodellen seit den 1990er Jahren prognostiziert wurden. Klimaforscher haben unermüdlich gewarnt, dass wir solche Extremereignisse häufiger und intensiver erleben werden, wenn wir weiterhin Treibhausgase in die Atmosphäre pumpen und fossile Brennstoffe verbrennen. Doch in vielen Teilen der Welt werden diese Katastrophen nach wie vor als isolierte Einzelschicksale wahrgenommen – eine Flut, ein Sturm, ein Waldbrand, hier und dort. Es scheint, als ob die globale Gemeinschaft die systemischen Ursachen nicht vollständig anerkennt. Stattdessen bleibt es für viele eine unzusammenhängende Aneinanderreihung von Tragödien, die „anderen“ Menschen widerfahren.

Doch es sind keine isolierten Ereignisse. Wir alle tragen eine Verantwortung, denn diese Katastrophen sind die Folge unseres kollektiven Handelns. Die menschliche Gesellschaft muss erkennen, dass diese Unwetter nicht nur eine vorübergehende Krise darstellen, sondern der Beginn einer neuen Realität. Wenn wir weiter zögern, tiefgreifende Veränderungen vorzunehmen, werden solche Extremwetterereignisse zu unserem Alltag werden. Wir müssen jetzt handeln, bevor es zu spät ist.

Die Tragödie in Europa ist kein Einzelfall – sie ist ein Warnschuss an uns alle.

Die gelben Flächen zeigen eine Temperaturerhöhung von mehr als +3° Celsius zum langjährigen Mittel.

Es gibt keinen einfachen Ausweg aus der Klimakrise. Die Umstellung auf regenerative Energien und die Reduzierung fossiler Brennstoffe sind wichtige Schritte, doch die Auswirkungen werden nicht sofort spürbar sein. Ein einzelnes CO₂-Molekül kann bis zu 1000 Jahre in der Atmosphäre verbleiben, was bedeutet, dass die bereits emittierten Treibhausgase weiterhin wirken werden. Dennoch kann eine beschleunigte Umstellung auf erneuerbare Energien und der Verzicht auf fossile Brennstoffe die Rate der Erwärmung verlangsamen und uns wertvolle Zeit geben, uns anzupassen. In dieser Zeit können wir auch Technologien entwickeln und verbessern, die in der Lage sind, CO₂ aktiv aus der Atmosphäre zu entfernen.

Wenn wir das Klimaproblem ignorieren, riskieren wir, dass die Menschheit scheitert. Die Maßnahmen, die wir heute ergreifen, bestimmen, ob künftige Generationen in einer Welt leben, die bewohnbar bleibt. Es ist ein Rennen gegen die Zeit, bei dem jeder Schritt zählt, und nur durch vereinte globale Anstrengungen können wir den Kurs der Klimaveränderung noch beeinflussen.

The Dying Heart of the Earth: A Dystopian Reality in the Amazon Rainforest

The skies above the Amazon have changed. Where once vibrant shades of green carpeted the land, where life hummed in the harmony of nature’s ancient rhythm, there is now a deep wound, spreading across the Earth’s lungs. The pulse of the planet falters, its breath clouded by smoke and flames. This is not a future science fiction tale, but the grim reality of the present—a chapter we thought we could avoid, yet here we are.

It is September 2024, and the satellite images from space no longer show the thriving expanse of green we had once taken for granted. Instead, the once lush forest is hidden beneath a veil of smoke, like a dying ember smoldering in the ashes of what was once a living, breathing ecosystem. Fires rage across the Amazon, sending plumes of smoke high into the atmosphere. The world watches, but few truly see. The layers of the Earth’s fragile atmosphere reflect the chaos below, while the devastation unfolds slowly, relentlessly.

The Amazon—a sanctuary for over 10% of the Earth’s known biodiversity—has become a battlefield, but this war is not fought with guns. Instead, it is a slow suffocation, a strangulation of the natural cycles that have sustained life for millennia. The very lifeblood of the planet is bleeding out, a death by a thousand cuts, each incision more fatal than the last.

The Fall of a Giant: Satellite Evidence of a Dying Forest

The satellite image from NASA, taken on the second of September 24, marks yet another milestone in the Amazon’s collapse. Dark plumes of smoke stretch across the region of Amazonas, suffocating not only the trees but every form of life that depends on the forest’s delicate balance. The fires are not natural; they are the byproduct of human greed, fueled by decades of deforestation, slash-and-burn agriculture, and a warming climate that turns once-wet seasons into dry tinderboxes. This is no longer a localized disaster—it is the crumbling of an entire ecosystem that affects the stability of our climate system globally.

The Amazon, once a carbon sink, is now hemorrhaging carbon into the atmosphere. Its vast expanse of trees, which used to absorb the Earth’s excesses, is now burning and releasing years of stored carbon. The cycle is spiraling downward—a dystopian loop that we cannot seem to break. But unlike in fiction, there is no escape to another planet, no grand hero to save the day. This is our reality, and the consequences will be far-reaching.

Cleared forest shines through the smoke

The Thick Smoke of a Suffocating Forest

As the satellite images roll in from early September 2024, the extent of the damage becomes ever clearer. A thick haze of smoke, dark and oppressive, blankets the Amazon rainforest. It twists and churns through the atmosphere, veiling the land below in a cloak of destruction. But this is no ordinary fog—this is the smoke of death, the unmistakable signature of fires set ablaze, sparked by the hand of man and the parched earth below.

The fires were not sudden; they crept upon the forest, ignited by droughts that have grown more intense each year. The relentless dry seasons, stretching longer and more unforgiving, have made the land a tinderbox waiting to ignite. And now it burns, with fires feeding off the very lungs of the planet. The drought, a cruel messenger of climate change, has left the land brittle and dry, making what was once the world’s largest rainforest vulnerable to the flames.

Beneath the smoke, there is devastation. As the thick layers of smoke begin to disperse—carried by winds—the satellite imagery gives us a glimpse into the horror below. Where there was once a thriving canopy, teeming with life and unimaginable biodiversity, there is now nothing but barren, cleared land. The dark patches are the charred remains of trees that once stood tall and proud. What is left is nothing but a vast emptiness, an open scar on the Earth’s surface where the Amazon once flourished.

These are not accidental fires, not wildfires of nature’s making. These are fires deliberately set, to clear land for agriculture, for cattle ranching, for palm oil, and for soy. The lifeblood of the planet is traded for short-term profit, leaving behind nothing but wasteland. Entire sections of the forest, thousands of square kilometers, are now gone, and beneath the suffocating veil of smoke, the forest’s once vibrant spirit lies in ruins.

But this isn’t just a tragedy for Brazil. As the trees burn, they release vast amounts of carbon dioxide into the atmosphere, accelerating the feedback loop of climate change. The Amazon, once a carbon sink, a crucial buffer against the rising temperatures of our planet, is now becoming part of the problem it was once relied on to solve. It is now a carbon emitter, contributing to the warming that is causing its own destruction.

The area below is close to the size of Texas, and half of the area is devastated forest burned by droughts or people to get cleared forests.

We can look even closer how such a cleared tropical rain forest looks like.

The satellite image above shows the devastation with cold precision: swathes of cleared land, square and geometric, as though nature could be partitioned and tamed. But there is no taming the Amazon. It is a living organism, and like all living organisms, it cannot survive being carved into pieces. The dark green patches are the remnants of what was once an endless expanse of rainforest—now reduced to islands of life, disconnected and vulnerable.

This is the heart of the deforestation crisis. The patchy clearings that seem to spread like a virus, each new section cut down to make way for grazing land or plantations. The intricate web of life that once existed in these areas has been severed. Where there were once thick canopies, teeming with insects, birds, and mammals, there are now only open fields and the silent stumps of trees. Rivers like the Rio Juruena, seen snaking through the image, are now surrounded by barren lands instead of the protective forest they once flowed through.

The fragmentation of the forest is devastating for biodiversity. Animals that rely on large territories, such as jaguars or harpy eagles, find themselves trapped in shrinking patches of forest, their hunting grounds and nesting areas disrupted. The once-dense forest has been reduced to isolated fragments, preventing the natural flow of life and migration. Species that have lived in this region for millennia are suddenly without a home.

Tarzan, where are you?

Let’s go closer to the ground:

As we zoom closer, the scale of destruction becomes overwhelming. The small, geometric clearings stretch in every direction, like a disease spreading across the land. Each square represents not only lost trees but also lost potential for the planet. The Amazon, often referred to as the “lungs of the Earth,” is no longer breathing. The forests that once absorbed billions of tons of carbon dioxide now lie in ruin, unable to offer the planet any reprieve from the onslaught of climate change.

The land is sick, its soil eroded and dry, its trees fallen and burned. What we see here is a dystopia in real time—a landscape ravaged by the pursuit of profit, where the consequences will ripple outward far beyond the borders of the Amazon. It is not just the creatures of the forest that are losing their home. Humanity, too, will suffer as the forest continues to disappear. The rain that once nourished this region will lessen, the carbon stored in these trees will be released, and the balance we took for granted will tip further into chaos.

The ground, once rich with life, now carries the weight of its absence. The Amazon’s future—and by extension, our future—looks bleak unless we heed this warning and act to stop this silent apocalypse from spreading further.

Sources: https://www.bing.com/images/search?view=detailV2&ccid=0A4V0p1x&id=603D17E5AB95EBE9AC185A9100728E28AFA1F22A&thid=OIP.0A4V0p1xhIur062y05lEmwHaE8&mediaurl=https%3A%2F%2Fwww.purdue.edu%2Funs%2Fimages%2F2020%2Famazon-rainforestLO.jpg&cdnurl=https%3A%2F%2Fth.bing.com%2Fth%2Fid%2FR.d00e15d29d71848babd3adb2d399449b%3Frik%3DKvKhryiOcgCRWg%26pid%3DImgRaw%26r%3D0&exph=534&expw=800&q=Devistation+of+amazonas+rainforest&simid=608027774981861968&form=IRPRST&ck=AA601A5371E19FF0E48E842DE0F39F49&selectedindex=16&itb=0&ajaxhist=0&ajaxserp=0&vt=0&sim=11


But I don’t want to stop here. There are still solutions, but we need to do them collectively, and that’s the actual problem. Technically, we still can solve at least mitigate the problem effectively.

The non-profit organization SwitchCoal.org (https://www.switchcoal.org/) founded by economists, engineers and computer scientists found out in a profound analyses about Transitioning Coal Plants to Renewable Energy that the conditions in locations of current big coal exploitation areas are almost ideal from technical and economical standpoint.

The study outlines a comprehensive strategy to transition the world’s approximately 2500 coal-fired power plant sites to renewable energy, primarily wind-solar-battery systems.

1. Economic Viability of Switching from Coal to Renewables

  • The study emphasizes that switching coal plants to wind-solar-battery systems can be profitable for 90% of global coal plants. This profitability comes from lower operating costs and leveraging existing grid connections at coal sites, shortening planning and connection times.
  • Investments in renewable energy, backed by reports from Bloomberg NEF, IRENA, and the International Energy Agency (IEA), show that it is already cheaper to operate wind and solar farms compared to many coal plants. This financial incentive is particularly strong, with billions in additional profits projected over the 30-year service life of these renewable systems.

2. Potential Environmental Impact

  • Switching could reduce up to 10 Gigatons of CO2 emissions annually before 2030, contributing substantially to global climate goals, particularly the 1.5°C limit set in the Paris Agreement.
  • Renewable installations at coal plant sites would reduce emissions by repurposing grid connections and energy infrastructure, minimizing logistical delays.

3. Employment Benefits

  • The transition would offer retraining opportunities for existing coal plant workers. With the installation of solar and wind systems, these workers could be retained and employed in assembling and installing these systems, easing the socio-economic transition.

4. Country-by-Country Results

  • The document provides a detailed breakdown by country, indicating how many coal plants can be profitably switched, the investment needed, and the potential profits. For example, Australia, China, and Germany stand out as having significant potential for profitably replacing coal with renewable systems.

5. Wind and Solar Potential

  • The study assesses both wind and solar potentials at the coal plant sites. About 74% of the sites have sufficient solar potential to produce electricity at 4 US cents per kWh or less, and 68% of the sites have wind speeds sufficient to generate energy at the same cost. This data indicates a strong technical foundation for switching to renewables at these locations.

6. System Optimization

  • The study explores two optimization models for balancing wind and solar energy. A physics-based model aims for stable energy production throughout the year, while an economic model focuses on the cheapest possible energy mix. Both approaches confirm the profitability and feasibility of the transition.

7. Global Feasibility by 2030

  • The study argues that current global manufacturing capacities for wind and solar are sufficient to transition coal plants to renewable energy by 2030. This conclusion is bolstered by growing annual production capacities, particularly in solar photovoltaics.

The attached image presents two key pieces of data related to the solar and wind potential at coal plant sites, highlighting why the majority of these sites could transition to renewable energy with competitive costs:

Left Graph: Solar Power Production Costs

  • This graph shows the distribution of solar power production costs (in US cents per kilowatt-hour, kWh) across coal plant sites.
  • Most coal plant sites (about 1,579 of them) are located in regions where solar energy can be produced at a cost between 3 and 3.9 US cents per kWh, which is considered cheap.
  • A significant number (277 sites) can produce solar energy even more cheaply, at costs between 2 and 2.9 US cents per kWh.
  • The trend indicates that 74% of the sites (adding up to the categories below 4 US cents per kWh) have access to solar potential where production costs are below 4 US cents/kWh—a critical price point to ensure the profitability of solar installations.
  • Only a small percentage (55 sites) would need to produce solar energy at costs above 5 US cents/kWh, showing that most coal plant sites are in regions favorable to solar energy.

Right Graph: Average Wind Speed Near Coal Plant Sites

  • This graph shows the average wind speed at coal plant sites in meters per second (m/s), which is important for assessing the potential of wind energy.
  • Most of the sites (849) have average wind speeds of 6-7 m/s, which is sufficient for cost-effective wind energy production.
  • Another significant portion (585 sites) have wind speeds of 7-8 m/s, which enhances the economic viability of wind energy, as higher wind speeds typically lead to lower energy production costs.
  • Sites with wind speeds above 9 m/s (264 sites) are optimal for generating the most cost-efficient wind energy.
  • Wind speeds between 6-9 m/s are considered ideal for competitive wind energy production, which covers 68% of the coal plant sites.

This supports the argument in the SwitchCoal study that most of the world’s coal plants are located in areas where both solar and wind energy can be produced at competitive rates. Specifically:

  • 74% of the coal sites can transition to solar energy at costs below 4 US cents/kWh.
  • 68% of the coal sites are in regions with sufficient wind speeds (6 m/s or higher) to generate wind energy at similarly low costs.

This data suggests that these sites are prime candidates for transitioning from coal to renewable energy sources, helping to both reduce greenhouse gas emissions and cut operational costs.

There are feasible solutions to combat Climate Change, but are we going to implement them?

Antarctica

The Antarctica is the last remaining continent on earth which has not been inhabited by humans except for some geoscientists who do research in their special research stations. I don’t think I need to explain why it is like that. It’s a very hostile area for living creatures. It is simply far too cold for us, but around the shore of Antarctica Seals, Whales, Penguins, Albatross, Petrels and many more enjoy Antarctica probably because they don’t see anyone of us.

Antarctica, the last great wilderness, stretches out like a frozen dreamscape at the edge of the world, where endless expanses of pure white ice meet the deep, dark blue of the Southern Ocean. The silence is profound, broken only by the whispers of the wind and the occasional calls of distant seabirds, creating a sense of serene isolation. Here, the sun dances along the horizon during summer, casting a golden glow over towering glaciers, while in winter, the continent slumbers under a blanket of twilight, kissed by the ethereal light of the aurora australis. It’s a place where nature’s beauty is both fierce and fragile, captivating the heart with its untamed, pristine majesty.

Antarctica was often considered less immediately impacted by climate change compared to the Arctic. The perception that Antarctica was somewhat insulated from rapid climate change persisted until relatively recently. However, over the past decade, and particularly in the last few years, the scientific understanding of Antarctica’s vulnerability to climate change has shifted significantly.

Early Observations (Pre-2000s to Early 2010s)

  1. Stable Ice Shelves and Limited Warming:
    • Up to the early 2000s, much of the scientific focus on climate change impacts was directed towards the Arctic, where rapid warming and sea ice loss were more apparent. Antarctica, especially East Antarctica, appeared relatively stable, with some regions even showing cooling trends, which was attributed to the ozone hole and other atmospheric dynamics.
    • Early satellite data and climate models indicated that Antarctica, with its extreme cold and vast ice sheets, was less susceptible to the immediate effects of global warming.
  2. Localized Changes:
    • Some localized changes were observed, particularly in the Antarctic Peninsula, which was warming more quickly than the rest of the continent. This region saw the collapse of ice shelves like the Larsen B in 2002, which was an early indication that parts of Antarctica were indeed responding to warming temperatures.

Shifting Understanding (2010s)

  1. Emerging Evidence of Ice Loss:
    • Throughout the 2010s, new satellite data and more sophisticated climate models began to reveal that Antarctica was not as stable as previously thought. Significant ice loss was detected in West Antarctica, particularly in the Thwaites and Pine Island Glaciers.
    • Studies published in this period indicated that the West Antarctic Ice Sheet (WAIS) was losing ice at an accelerating rate, contributing to global sea level rise.
  2. Increased Focus on West Antarctica:
    • By the mid-2010s, research increasingly focused on West Antarctica, where the potential for significant ice loss and its implications for global sea level rise became a major concern. The discovery of warm water intrusion beneath key glaciers like Thwaites highlighted how vulnerable this region was to oceanic changes driven by global warming.
  3. Recognition of Antarctic Ice Loss Contribution:
    • By the late 2010s, it became clear that Antarctica was contributing to global sea level rise more significantly than previously believed. Reports from the Intergovernmental Panel on Climate Change (IPCC) began to reflect this, with estimates of Antarctic ice loss being revised upwards.

Significant Change in Perception (2020s)

  1. Accelerated Ice Loss and Record Low Sea Ice:
    • The early 2020s brought a stark realization of Antarctica’s accelerating response to climate change. For example, in 2022 and 2023, studies and observations pointed to record low levels of Antarctic sea ice, which had profound implications for global climate and ocean circulation.
    • The rapid retreat of glaciers, particularly in West Antarctica, and the increasing evidence of warming deep ocean waters were major indicators that climate change impacts in Antarctica were accelerating.
  2. Feedback Mechanisms and Global Implications:
    • The most recent research has focused on the feedback loops between ice melt, ocean salinity, and global ocean circulation. This research suggests that the impacts of Antarctic ice loss are not just a regional issue but have global implications, particularly for ocean circulation and weather patterns.
  3. Shift in Climate Models:
    • Climate models in the early 2020s began to incorporate these new findings, leading to a revised understanding of Antarctica’s vulnerability. The realization that Antarctic ice melt could contribute significantly more to sea level rise than previously estimated marked a turning point in how scientists viewed the continent’s role in global climate change.

And this you can personally look up at https://climatereanalyzer.org/clim/seaice/ (selecting “Show Southern Hemisphere”)

Record Low Sea Ice Levels:

  • The diagram, above, shows that Antarctica has experienced record low levels of sea ice. The missing ice area described by the black arrow equals an area of 1.73 million km2 which is an area more than the size of the Iran.
  • This reduction in sea ice is not just a surface phenomenon; it has deep implications for the salinity and temperature of the surrounding ocean waters.

Impact of Increased Meltwater:

  • The melting of the Antarctic ice sheet, which is shedding ice faster than it can be replenished, is contributing large amounts of freshwater into the Southern Ocean. This influx of meltwater dilutes the salinity of the surface ocean layers, making them less dense.

Stratification and Reduced Water Mixing:

  • As the surface water becomes less salty and less dense, it leads to increased stratification in the ocean. Stratification is the layering of water based on density differences, and in this context, it means that the less salty, less dense water remains on top, while the denser, saltier water stays below.
  • This stratification reduces the rate at which cold, dense water sinks to the ocean depths. The sinking of this cold water is a critical part of the global ocean circulation system, known as the meridional overturning circulation. A slowdown in this process can have profound impacts on global climate patterns.

Warming of Abyssal Waters:

  • A study published in Nature that shows the abyssal (deep) waters around Antarctica are warming. This warming is partly attributed to the reduced sinking of cold, dense water due to the increased stratification caused by the influx of freshwater from melting ice.
  • The warming of abyssal waters is problematic because it can lead to further melting of ice shelves from below, particularly at the grounding lines where the ice meets the bedrock. This process, known as “heat erosion”, destabilizes ice shelves and contributes to accelerated ice loss, which in turn adds even more freshwater to the ocean, creating a feedback loop.

Global Ocean Circulation Disruption:

The reduction in salinity and the subsequent impact on deep water formation are not just local issues, but have the potential to disrupt the entire global ocean circulation system. This system is responsible for distributing heat, carbon, oxygen, and nutrients around the planet, so any significant changes can affect marine ecosystems and global weather patterns.

And of course, this layering of water levels of different temperature regions we see on the globe in all sea regions, as described here: Anomalie

You can see it also in closer regions inhabited by many people, like the area of the Mediterranean See:

Heat anomaly in the Mediterranian and Black Sea

The yellow parts within the Mediterranean and Black See mean that the sea surface temperature is over 5 to 6 degrease Celsius in compare to long-term averages.

The difference between the stratification observerd in the North Atlantic and Antarctica in compare to the Mediterranean See is that we have an effect due to thermal stratification.

The Mediterranean Sea is located in a subtropical region, where it receives significant solar radiation, particularly during the summer months. This results in the warming of the surface waters. Warm water is less dense than cold water, which leads to a strong thermal gradient between the warm surface layers and the cooler deep waters.

Seasonal Variation: During the summer, this warming effect is intensified, creating a distinct thermocline—a layer where temperature decreases rapidly with depth. The thermocline acts as a barrier that prevents the mixing of surface warm water with the cooler, deeper layers, leading to stratification.

But since we see these very high increased sea surface temperatures globally and more than expected, scientists are indeed grappling with understanding why this is happening more rapidly and extensively than expected. Here’s a deeper dive into the current theories and the scientific context:

1. Ocean Heat Uptake

  • Absorption of Heat: The oceans have absorbed more than 90% of the excess heat generated by anthropogenic climate change. This heat is not evenly distributed and tends to accumulate more in the upper layers of the ocean, leading to an increase in surface temperatures. As the upper ocean warms, the temperature difference between the surface and deeper layers increases, which enhances stratification.
  • Heat Distribution: Because warmer water is less dense, it tends to stay at the surface, preventing the vertical mixing that would otherwise distribute heat more evenly throughout the water column. This lack of mixing contributes to the persistent and intensified stratification seen globally.

2. Increased Stratification: A Positive Feedback Loop

  • Reduced Mixing: As the surface layer warms, the increased stratification reduces vertical mixing. This, in turn, allows the surface to warm even further because the heat is not being distributed to deeper layers. This creates a positive feedback loop, where warmer surface temperatures lead to more stratification, which leads to even warmer surface temperatures.
  • Impact on Deep Ocean Heat Uptake: The intensified stratification reduces the ocean’s ability to transport heat to deeper layers, meaning more heat stays near the surface. This can further exacerbate the warming of surface waters and contribute to ongoing changes in ocean dynamics.

3. Freshwater Inputs and Global Warming

Global Warming’s Broad Impact: Even in regions without significant freshwater influx, like the Mediterranean or parts of the subtropical oceans, increased atmospheric temperatures are warming surface waters. This is a direct result of global warming, which increases surface temperatures and thus enhances stratification.

Localized Freshwater Influx: In regions like the Arctic and Antarctic, as well as Greenland, large amounts of freshwater from melting ice are being added to the ocean. This freshwater is less dense than seawater, contributing to stratification. However, this is more of a regional effect and doesn’t fully explain the global increase in stratification.

Sources:

https://youtu.be/T0qRoeEcKtY?si=7tjdERR-SBRdabTk

https://www.nature.com/articles/s41586-023-05762-w


Let’s focus again at the process, known as “heat erosion,” in Antarctica which destabilizes ice shelves and contributes to accelerated ice loss, which in turn adds even more freshwater to the ocean, creating a feedback loop.

To understand that, we look at the Thwaites Glazier:

This blue marked area of the Thwaites Glazier is of the size of Great Britain. If Thwaites Glacier was to collapse entirely, global sea levels would increase by 65 cm. But even if so, it takes time to be seen at the shores of our coats. That take decades up to several 100 years but…

The Role of Thwaites Glacier

  1. Geographical and Structural Position:
    • The Thwaites Glacier is located in West Antarctica, and it sits on a bed that slopes downward inland. This means that much of the glacier is grounded below sea level, and the ice sheet behind it is resting on bedrock that also lies below sea level. This configuration makes Thwaites particularly vulnerable to warming ocean waters.
  2. Plug Analogy:
    • Thwaites Glacier acts like a “plug” or “cork” because it currently restrains the flow of ice from the interior of the West Antarctic Ice Sheet into the ocean. Imagine a large dam holding back a reservoir of water: the dam acts as a barrier, preventing the water from flowing freely. Similarly, Thwaites Glacier helps to slow down the movement of ice from the larger WAIS into the Amundsen Sea.
  3. Protection of Other Glaciers:
    • The glacier’s presence and stability help to “protect” other glaciers and the overall ice sheet behind it. If Thwaites were to retreat significantly or collapse, it would essentially “unplug” the ice sheet, removing this stabilizing force. Without the restraining effect of Thwaites, other glaciers in the region—such as Pine Island Glacier, which is also a major contributor to sea level rise—would likely begin to flow more rapidly into the ocean.
  4. Consequences of Thwaites’ Retreat:
    • If Thwaites Glacier retreats past a certain tipping point, it could lead to a chain reaction where large portions of the WAIS begin to collapse. This would allow much more ice to flow into the ocean, greatly accelerating sea level rise.
    • The retreat of Thwaites would not only increase its own contribution to sea level rise but also destabilize surrounding ice, potentially leading to the collapse of adjacent glaciers. This is why Thwaites is often called a “keystone” or “linchpin” in the region.

That sounds quite scary and in fact it is and most probably that’s why the Thwaites Glacier is also called “Doomed Glacier“.

But not, yet, I have explained how the “heat erosion” works in Antarctica. A helpful page to understand this is given here: https://thwaitesglacier.org/index.php/news/warm-seawater-speeding-melting-thwaites-glacier. On the home page: thwaitesglacier.org you will find the following YouTube video: https://youtu.be/MR6-sgRqW0k?si=S-6o1d5_nrjt-00F which I really recommend to watch.

The preceding picture gives a good sense of the size of Thwaites Glacier in area with an ice thickness of 1 km and why it is regarded as a plug.

If you continue the video you will encounter the following animation:

Thwaits Glacier on bed rock

In this animation, the Thwaites Glacier is a massive ice block located on a hard bed rock. As you see, the ice and the bed rock are below sea level. But with warmer sea surface water as described in the preceding parts, this warmer water deepens a gap between the bed rock and the top ice levels, causing the following result:

The top ice levels floating increasingly on water break up into pieces since the warmer water and the tensions that underneath floating water creates by its waves.

These feedback mechanisms and tipping points involved in ice sheet dynamics are complex and not fully understood, which makes precise predictions difficult. However, there are some key insights from the research that point to the potential scale of the impact:

Potential Doubling of Sea Level Rise

The idea that sea level rise could potentially double comes from specific studies and advanced modeling efforts that attempt to incorporate some of these previously underestimated or overlooked processes:

  1. Grounding Zone Feedbacks:
    • Researchers have looked at how warm ocean water might intrude beneath ice shelves, particularly at the grounding zones where the ice transitions from resting on the bedrock to floating on the ocean. This intrusion could lead to much more rapid melting than previously estimated.
    • When models include this process, they suggest that the rate of melting—and therefore the contribution to sea level rise—could be significantly higher. In some cases, this could lead to estimates of sea level rise being up to twice as high as what is currently projected.
  2. Dynamic Ice Sheet Responses:
    • The potential for sudden, large-scale changes in ice sheet behavior—triggered by relatively small changes in temperature or ocean currents—is not fully accounted for in many models. If these dynamic responses are more sensitive than we currently think, the resulting sea level rise could indeed be much higher.
    • Some studies have suggested that including more accurate representations of these dynamics could lead to sea level rise projections that are roughly double the current estimates.

Why Quantification is Difficult

  • Complex Interactions: The interactions between ice, ocean, and atmosphere involve numerous variables that can change in nonlinear ways, making it hard to predict exactly how much they will contribute to future sea level rise.
  • Limited Historical Data: Because these processes are complex and some of them might only occur under certain conditions, we don’t have a long history of data to draw on for making precise predictions.
  • Uncertainty in Climate Trajectories: The exact amount of future sea level rise also depends heavily on future greenhouse gas emissions and how quickly the planet warms, which adds another layer of uncertainty.

Anyhow, from my point of view, the future perspective looks very grim.

Sources: https://youtu.be/rRlEoS7X4q8?si=dF5Mhk6RSuHq8MNz, https://youtu.be/InhMCJro6hA?si=vjmc-pGxcJwv8RZr

Update: Alarming Decline in Southern Hemisphere Sea Ice Extent

The latest data on sea ice extent in the Southern Hemisphere, as of September 7, 2024, reveals an unprecedented decline in ice coverage. As illustrated in the graph, the sea ice extent has plummeted to historically low levels, raising serious concerns about the escalating impacts of climate change on Antarctica.

The 2024 data, represented by the dotted black line, shows no recovery from the huge loss of ice area experienced in 2023.

The loss visualized by the gap between the ice peak coverage in 2014 and today’s values is alarming, with a difference equivalent to the entire area of the Indian subcontinent. This scale of ice loss underscores the severity of the situation, as we observe the consequences of rapid warming and changing oceanic conditions.

Additionally, the upper line representing 2014 (purple arrow) gives us a poignant reminder of how quickly this decline has accelerated. In less than a decade, we have witnessed a dramatic reduction in ice extent, reflecting a rapid shift from one of the highest recorded levels to the lowest.

Anomalie

Dass in Zeiten des Klimawandels das Anormale, das Normale ist, das ist eigentlich keine Besonderheit. Aber sehr deutlich kann man das derzeit an den Meerestemperaturen im Nordatlantik und den Lufttemperatursprüngen in der Antarktis beobachten.

(siehe auch: https://earth.nullschool.net/#current/ocean/surface/currents/overlay=sea_surface_temp_anomaly/orthographic=-56.03,48.66,1446/loc=-19.248,42.534)

Die obige Aufnahme zeigt den Nordatlantik zwischen der amerikanischen Nordostküste und Süd Neufundland und Europa (Spanien/Frankreich) bzw. Nordafrika. Am oberen mittleren rechten Rand sieht man die Südspitze Grönlands.

Seit 2010 bzw. 2014 beobachtet man südlich der Südspitze Grönlands zwei entgegengesetzte Temperaturzonen.

Zum einen gibt es eine Kälteanomalie im Nordatlantik, die sich südlich von Grönland und Island sowie westlich der Britischen Inseln befindet. Dieses Gebiet zeichnet sich durch ungewöhnlich kalte Oberflächentemperaturen des Meeres aus, die sich stark von der allgemeinen Erwärmung der Weltmeere abheben. Es variiert in seiner Ausdehnung, erstreckt sich aber oft von der südlichen Spitze Grönlands bis in die Nähe von Island und erreicht die westlichen Teile der Britischen Inseln. Es kann bis zu Hunderttausende von Quadratkilometern umfassen

Nordatlantik: Cold Blob im Sommer (links), Winter (rechts)

Der deutsche Ozeanograf und Klimaforscher Stefan Rahmstorf hat diesem Gebiet den Namen “Cold Blob” gegeben. Gleichzeitig bildete sich südwestlich von Grönland an der Nordostküste Amerikas und westlich von Südneufundland eine Temperaturzone mit starker positiver Temperaturanomalie, derzeit mit einer Temperaturanomalie von +5 Grad:

Nordatlantik: Warmzone vor der Nordostküste Amerikas und um Südneufundland.

Die Erwärmung der Meeresoberflächentemperaturen entlang der Nordostküste Amerikas und vor der Südküste Neufundlands, die zeitgleich mit der Entstehung des sogenannten ‘Cold Blob’ im Nordatlantik auftrat, wurde erstmals in den 2010er Jahren verstärkt wahrgenommen. Diese Phänomene wurden im Zusammenhang mit Studien zur Abschwächung der Atlantischen Meridionalen Umwälzströmung (AMOC) intensiv untersucht.

Der „Cold Blob“ wird als Folge einer schwächeren Nordatlantischen Tiefenwasserbildung gesehen, was dazu führt, dass weniger kaltes Wasser in die Tiefe sinkt und mehr Wärme im Süden bleibt. Gleichzeitig führt dies dazu, dass die Küstengewässer entlang Nordamerikas stärker erwärmt werden, da das warme Oberflächenwasser nicht wie üblich in den Norden transportiert wird, sondern sich entlang der Küste ansammelt.

Der Prozess lässt sich folgendermaßen erklären:

  1. Gletscherschmelze und Süßwasserzufuhr: Durch die globale Erwärmung schmelzen die Gletscher in Grönland schneller, was zu einer erhöhten Menge an Süßwasser führt, das in den Nordatlantik gelangt. Süßwasser hat eine geringere Dichte als salzhaltiges Meerwasser.
  2. Reduzierte Dichte und Tiefenwasserbildung: Dieses Süßwasser verringert die Dichte des Oberflächenwassers im Nordatlantik, was die Tiefenwasserbildung behindert. Normalerweise sinkt kaltes, salzhaltiges Wasser im Nordatlantik in die Tiefe und treibt damit einen wesentlichen Teil der AMOC an.
  3. Schwächung der AMOC: Wenn weniger kaltes, dichtes Wasser in die Tiefe sinkt, wird die gesamte Zirkulation der AMOC geschwächt. Weniger kaltes Tiefenwasser, das nach Süden transportiert wird, bedeutet auch, dass weniger warmes Wasser aus den Tropen nach Norden gezogen wird.
  4. Wärmeres Wasser entlang der nordamerikanischen Küste: Da das warme Wasser aus den Tropen nicht wie gewohnt nach Norden transportiert wird, sammelt es sich an der Nordostküste Nordamerikas und vor Neufundland. Dadurch entstehen dort ungewöhnlich hohe Oberflächentemperaturen.

Der Schmelzwasserzufluss von Grönland in den Atlantik hat seit 1990 signifikant zugenommen, und dieser Anstieg lässt sich in verschiedenen Studien quantifizieren.

Anstieg des Schmelzwasserzuflusses:

  1. 1990er Jahre: In den frühen 1990er Jahren lag der Schmelzwasserzufluss von Grönland bei etwa 50-100 Gigatonnen (Gt) pro Jahr. Eine Gigatonne entspricht 1 Milliarde Tonnen Wasser.
  2. 2000er Jahre: In den 2000er Jahren stieg dieser Wert auf etwa 200-300 Gt pro Jahr, was eine Verdopplung oder Verdreifachung im Vergleich zu den 1990er Jahren bedeutet.
  3. 2010er Jahre bis 2020: In den letzten Jahren hat der Schmelzwasserzufluss weiterhin zugenommen, wobei einige der höchsten jährlichen Schmelzraten über 400 Gt pro Jahr lagen, insbesondere in besonders warmen Sommern. Ein besonders extremes Jahr war 2019, als Grönland etwa 532 Gt Eis verlor.

Prozentuale Zunahme:

Im Vergleich zu den frühen 1990er Jahren hat sich der Schmelzwasserzufluss von Grönland bis in die 2010er Jahre etwa vervierfacht. Der Schmelzwasserzufluss hat in einigen Jahren sogar mehr als das Vierfache der Werte von 1990 erreicht, was die dramatische Beschleunigung der Eisschmelze verdeutlicht.

Gesamtverlust an Eis:

Zwischen 1992 und 2020 hat Grönland insgesamt etwa 4.000 Gigatonnen Eis verloren. Dieser Verlust trägt signifikant zum Anstieg des globalen Meeresspiegels bei, wobei der Beitrag Grönlands zum Meeresspiegelanstieg mittlerweile etwa 1 Millimeter pro Jahr beträgt.

Diese Zahlen belegen deutlich, dass die Menschheit ein deutliches Problem mit dem Abtauen Grönlands hat. Nur ein Abbremsen des globalen Temperaturanstiegs kann zumindest Zeit geben, um Schutzmaßnahmen für die Küsten besser vorzubereiten. Dass der Abschmelzvorgang noch aufzuhalten ist, bezweifle ich zumindest. Was passiert, wenn der AMOC als Wärme/Kälte Transportband ausfällt, kann hier nachgelesen werden:

AMOC

Auch die Antarktis zeigt im August 2024 besorgniserregende Daten:

Oberflächentempertur am Südpol 2024 (rote Kurve)

Am 5. August 2024 zeigte das Thermometer am Südpol -25,98 Grad, was natürlich immer noch kalt ist, aber nicht für den Südpol, der zu dieser Zeit schon länger in totaler Finsternis weilt. Kein einziger Sonnenstrahl erreicht ihn um diese Zeit.

Klimaforscher haben in den letzten Jahren zunehmend Hinweise darauf gefunden, dass die Westantarktis durch den menschengemachten Klimawandel destabilisiert wird. Die Westantarktis ist besonders anfällig für Erwärmung, da ihre Eismassen teilweise auf unter dem Meeresspiegel liegendem Land ruhen, was sie empfindlicher gegenüber Ozeanerwärmung macht.

Ein wesentlicher Grund zur Besorgnis ist der Rückgang des Westantarktischen Eisschildes, insbesondere im Bereich des Thwaites-Gletschers, der oft als “Doomsday Glacier” bezeichnet wird. Diese Region verliert seit Jahrzehnten Eis und trägt somit direkt zum globalen Meeresspiegelanstieg bei. Wissenschaftler beobachten, dass sich dieser Prozess beschleunigen könnte, wenn die Erwärmung weiter voranschreitet.

Die Destabilisierung könnte potenziell katastrophale Auswirkungen haben, da ein Kollaps dieses Eisschildes den Meeresspiegel weltweit um mehrere Meter anheben könnte. Zwar sind die Zeithorizonte für solch dramatische Ereignisse noch ungewiss und könnten Jahrzehnte bis Jahrhunderte in Anspruch nehmen, aber der Prozess hat begonnen, und die Besorgnis der Wissenschaftler ist entsprechend groß.

Relativität durch Absolutheit

Dieser Blog basiert auf dem Buch Können wir die Welt verstehen? von Josef M. Gassner und Jörn Müller, insbesondere auf Kapitel 5. Das Buch wird von einer gleichnamigen YouTube-Reihe begleitet, die ich Physikinteressierten wärmstens empfehlen kann: von Aristoteles zur Stringtheorie. Neben der Physik wird in faszinierender Weise die Geschichte des menschlichen Erkenntnisgewinns über die Natur und ihre Ursprünge dargestellt. Auch ihr Folgeband “Kosmologie. Die größte Geschichte aller Zeiten” ist an Dramatik kaum zu überbieten.


Zu Beginn des 20. Jahrhunderts veränderten zwei neue Strömungen in der Physik das Weltbild der Menschheit grundlegend. Einerseits ebnete Max Planck mit seiner theoretischen Erklärung der Strahlungsdichte eines schwarzen Körpers im Jahr 1900 den Weg für einen neuen Zweig der Physik: die Quantenmechanik. 1918 erhält Planck dann für seine theoretische Erklärung der Strahlungsdichte eines schwarzen Körpers den Nobelpreis. Andererseits formulierte Albert Einstein 1905 die Spezielle Relativitätstheorie (SRT) und 1915 die Allgemeine Relativitätstheorie (ART). Interessanterweise erhielt Einstein jedoch nie den Nobelpreis für seine Relativitätstheorien, sondern stattdessen 1921 für den fotoelektrischen Effekt – ein Werk, das ironischerweise die Grundlage für die Solarindustrie legte und zugleich die Quantenmechanik nachhaltig beeinflusste.

Beide Zweige der Physik führen letztlich zu einem Bruch mit der anschaulichen Vorstellungskraft und dem sogenannten ‚gesunden Menschenverstand‘. In diesem Blog wird die SRT näher betrachtet, denn für ihr Verständnis benötigt man – man mag es kaum glauben – als mathematisches Werkzeug lediglich den guten alten Pythagoras. Zudem lässt sich aus der SRT die wohl berühmteste physikalische Formel überhaupt ableiten: E=mc².

In einem folgenden Blog werde ich auf die Allgemeine Relativitätstheorie (ART) eingehen, dabei jedoch versuchen, die deutlich komplexere Mathematik – insbesondere die Verwendung von Tensoren (mehrdimensionale Operatoren, die partielle Differenzialgleichungen für Energie und Impuls enthalten) – so weit wie möglich außen vorzulassen. Für das Verständnis der ART reicht die Kenntnis des Pythagoras leider nicht mehr aus.

Anschließend folgt eine längere Blogserie zum Thema Quantenmechanik. Wir beginnen mit Plancks Strahlungsdichtegesetz für den schwarzen Körper und seiner Quantisierung der Energie eines harmonischen Oszillators, gefolgt von Einsteins Fotoelektrischem Effekt und dem Doppelspalt-Experiment mit seinen faszinierenden Interpretationen. Und genau in dieser Reihenfolge verabschieden wir uns mit zunehmender Beschleunigung vom ‚gesunden Menschenverstand‘.


Lassen wir uns also auf die physikalische Sicht der Relativität ein. Einstein war ein begeisterter Zugreisender, insbesondere auf den Strecken zwischen Deutschland und der Schweiz. Die Eisenbahn, das technische Wunderwerk seiner Zeit, ermöglichte es vielen Menschen, lange Distanzen in vergleichsweise kurzer Zeit zu überwinden. Kein Wunder also, dass viele seiner berühmten Gedankenexperimente das Zugfahren zum Thema haben.

Ob Einstein mit der heutigen Deutschen Bahn die Relativitätstheorie hätte entwickeln können, bleibt eine offene Frage.

Starten wir also unser Gedankenexperiment:

Es ist Abend, und ich sitze in einem klassischen Zugabteil (kein Großraumabteil), das noch im Bahnhof steht. Ich habe gerade mein Gepäck verstaut und hoffe, dass ich nichts vergessen habe. Glücklicherweise habe ich einen Fensterplatz. Am Nachbargleis steht ebenfalls ein Zug, der auf seine Abfahrt wartet. Während ich mich kurz mit einem Mitreisenden unterhalte, überkommt mich für einen Moment ein seltsames Gefühl.

Sind wir schon losgefahren? Aber das kann nicht sein – das Gefühl der Beschleunigung fehlt. Ich schaue aus dem Fenster und sehe, wie sich die Fenster der beleuchteten Abteile des anderen Zuges aneinander vorbeischieben. Etwas bewegt sich definitiv, aber bin ich es? Mein Zug? Erst ein Blick in die entgegengesetzte Richtung, durch die Tür des Abteils, zeigt mir, dass mein Zug noch immer am Bahnsteig steht und sich nicht vom Fleck bewegt hat. Was ist passiert? Etwas hat sich doch bewegt!

Die Erklärung für dieses Phänomen ist einfach: Das Gehirn kann beim Anblick der sich verschiebenden Zugfenster aufgrund der Bewegung eines Zuges nicht sofort erkennen, welcher Zug sich tatsächlich bewegt. Erst die Erfahrung, dass eine Zugfahrt ohne das leichte Rucken der Beschleunigung nicht begonnen haben kann, weckt Zweifel daran, ob man wirklich losgefahren ist. Deshalb sucht man instinktiv nach einer Bestätigung und schaut auf die andere Seite des Abteils, wo sich die Situation klärt. Die Verwirrung des Gehirns ist also berechtigt – aus einer anderen Perspektive betrachtet, liegt es sogar richtig.

Nun stellen wir uns einen Reisenden im Zug vor, der gerade den Bahnhof verlässt. Er sitzt ebenfalls am Fenster und beobachtet, wie sich der Nachbarzug samt Bahnhof von ihm entfernt. Selbstbewusst legt dieser Reisende ein Koordinatensystem mit dem Ursprung in der Mitte seines Körpers an und stellt fest: Er ruht im Ursprung, während sich der Nachbarzug und der Bahnhof von ihm wegbewegen.


In der folgenden Animation wird der Aspekt der Relativität anschaulich dargestellt. Im ersten Beispiel wird eine Orange von einer Lokomotive, die über eine hohe Eisenbahnbrücke fährt, herabgeworfen. Auf der linken Seite beobachtet jemand von der Lok aus den Wurf und sieht, wie die Orange immer schneller geradewegs in die Tiefe fällt. Genau das würde auch jemand beobachten, der auf der Brücke steht und eine Orange hinunterwirft.

Ganz anders sieht der Wurfverlauf für einen Beobachter aus, der unten steht und die Szene betrachtet. Aus seiner Perspektive beschreibt die Orange eine Wurfparabel. Wie kommt diese zustande? Die Lokomotive und die Orange besitzen einen Impuls m*vZug in Fahrtrichtung des Zuges. Da der Impuls – ähnlich wie die Energie – eine Erhaltungsgröße ist, behält die Orange diesen Impuls auch nach dem Fall bei. Durch das Fallenlassen der Orange geht dieser Impuls nicht verloren. Daher nimmt der ruhende Beobachter eine Überlagerung der horizontalen Bewegung des Zuges und der durch die Gravitation nach unten fallenden Orange wahr.

Relative Bewegung

Der zweite Teil der Animation zeigt eine abstrahierte Darstellung: die ruhende Orange im Zug mit einem Koordinatensystem, dessen Ursprung sich im Mittelpunkt der Orange befindet. Aus dieser Perspektive befindet sich die Orange relativ zu sich selbst in Ruhe. Anders sieht es ein stationärer Beobachter, der durch eine gläserne Front die Orange auf dem Boden des Zuges liegen sieht.

Im dritten Teil der Animation rollt die Orange über den Boden des Zuges. Ein Zuggast nimmt die Orange als rollend, mit einer Geschwindigkeit vOrange wahr. Der stationäre Beobachter von außen hingegen sieht eine Orange, die sich mit der deutlich höheren Geschwindigkeit vOrange + vZug bewegt.

Wie oben angedeutet, verwendet der Physiker unterschiedliche Koordinatensysteme, um die verschiedene Wahrnehmung desselben Vorgangs aus unterschiedlichen Perspektiven zu beschreiben. In den obigen Beispielen wird immer vorausgesetzt, dass es einen ruhenden, stationären Beobachter gibt und relativ zu diesem ein System, das sich mit konstanter Geschwindigkeit, also ohne Beschleunigung, entfernt. Dies ist ein Spezialfall und bildet die Grundlage für die Spezielle Relativitätstheorie.

Kein Geringerer als Galileo Galilei widmete sich diesem Problem und führte das Konzept der sogenannten Galileischen Transformation ein. Dabei beschrieb er ein ruhendes Koordinatensystem mit den kartesischen Koordinaten x, y und z und ein Koordinatensystem, das sich mit konstanter Geschwindigkeit bewegt, mit den Koordinaten x’, y’, z’. Da der gesunde Menschenverstand nahelegt, dass die Zeit absolut ist und nicht vom Koordinatensystem abhängt, gilt für die Zeit t = t’.

Um dies verständlich zu machen, stellen wir uns vor, wir haben zwei Beobachter: einen, der in einem ruhenden Zug sitzt, und einen anderen, der in einem Zug sitzt, der sich mit konstanter Geschwindigkeit bewegt. Der ruhende Beobachter misst die Position eines Objekts im Raum mit den Koordinaten x, y, z. Der Beobachter im bewegenden Zug misst die Position desselben Objekts, aber in seinem eigenen Koordinatensystem, das wir mit x’, y’, z’ bezeichnen.

Die Galileische Transformation beschreibt, wie die Koordinaten in den beiden Systemen zusammenhängen. Wenn wir uns auf eine Bewegung entlang der x-Achse konzentrieren, ist die Transformation ganz einfach:

x’ = x – v * t

Hierbei ist v die konstante Geschwindigkeit, mit der sich der bewegte Zug (das zweite Koordinatensystem) relativ zum ruhenden Zug (dem ersten Koordinatensystem) bewegt. Da die beiden Züge zur gleichen Zeit beobachten, gilt t = t’.

Das bedeutet: Die Position eines Objekts im bewegten System (x’) ist einfach die Position des Objekts im ruhenden System (x) minus dem zurückgelegten Weg des Zuges (v * t). Für die anderen Koordinaten y und z gibt es keine Veränderung, da sie nicht in Bewegungsrichtung liegen: y’ = y und z’ = z.

Diese einfache, intuitive Vorstellung, dass Zeit für beide Beobachter gleich abläuft und dass wir nur die Positionen entlang der Bewegungsrichtung anpassen müssen, bildet die Grundlage für die klassischen, vor-einsteinischen Vorstellungen von Raum und Zeit.

Gegen Ende des 19. Jahrhunderts wurde jedoch immer klarer, dass die Lichtgeschwindigkeit eine besondere Rolle spielt: Sie schien unabhängig von der Bewegung der Erde relativ zur Sonne immer konstant zu bleiben. Dies stellte die klassische Physik vor ein großes Rätsel, da man glaubte, dass Licht wie eine Welle nur durch ein Medium – den sogenannten Äther – übertragen werden könne. Man erwartete, dass die Lichtgeschwindigkeit relativ zur Bewegung der Erde durch den Äther variieren müsste, ähnlich wie die Geschwindigkeit eines Bootes relativ zum Wasserstrom.

Das berühmte Michelson-Morley-Experiment von 1887 versuchte, diese Veränderung der Lichtgeschwindigkeit zu messen, indem es die Lichtgeschwindigkeit in verschiedene Richtungen auf der Erdoberfläche verglich. Doch zu ihrer Überraschung stellten Michelson und Morley fest, dass die Lichtgeschwindigkeit in allen Richtungen gleich war, unabhängig von der Bewegung der Erde durch den angeblichen Äther. Diese unerwartete Konstanz der Lichtgeschwindigkeit führte zu einem fundamentalen Umdenken in der Physik.

Michelson-Morley Experiment zur Messung der Lichrgeschwindigkeit in “Fahrtrichtung” Erde bzw. Entgegen der Fahrtrichtung Erde (System ist frei rotierbar). Wäre die Lichtgeschwindigkeit abhängig von der Fahrtrichtung der Erde, würden sich die Radien der Interferenzring ändern. Egal wie man das System aber drehte, die Radien der Interferenzringe blieben gleich.

Das Ergebnis des Michelson-Morley-Experiments war einer der entscheidenden Bausteine für die Entwicklung der Speziellen Relativitätstheorie, da es deutlich machte, dass die Lichtgeschwindigkeit eine universelle Konstante ist, die für alle Beobachter gilt unabhängig davon, wie sie sich bewegen. Diese Erkenntnis zwang die Physiker, die klassischen Vorstellungen von Raum und Zeit radikal zu überdenken.

Die Konstanz der Lichtgeschwindigkeit in allen Bezugssystemen stellt ein Problem für die Galileische Transformation dar, weil sie den grundlegenden Annahmen widerspricht, auf denen die Galileische Transformation beruht.

Um das anschaulich zu erklären, stellen wir uns zunächst einmal die Grundidee der Galileischen Transformation vor: Diese Transformation geht davon aus, dass die Zeit in allen Bezugssystemen absolut ist, das heißt, sie läuft für alle Beobachter gleich ab. Wenn wir uns also in einem fahrenden Zug befinden und ein Objekt im Zug werfen, würde die Geschwindigkeit des Objekts in Bezug auf einen außenstehenden, ruhenden Beobachter einfach die Geschwindigkeit des Objekts relativ zum Zug plus die Geschwindigkeit des Zuges selbst sein. Das ist intuitiv und entspricht unserem Alltagsverständnis.

Jetzt kommt aber das Licht ins Spiel. Nehmen wir an, dass im Zug eine Taschenlampe eingeschaltet wird und ein Lichtstrahl nach vorn ausgesendet wird. Laut der klassischen Physik (und damit auch der Galileischen Transformation) müsste die Geschwindigkeit dieses Lichtstrahls aus Sicht eines außenstehenden Beobachters ebenfalls die Geschwindigkeit des Lichtstrahls relativ zum Zug plus die Geschwindigkeit des Zuges selbst sein – genau wie bei dem geworfenen Objekt.

Das Problem tritt jedoch auf, weil Experimente gezeigt haben, dass das Licht sich für alle Beobachter immer mit derselben Geschwindigkeit bewegt – unabhängig davon, wie schnell sich der Zug oder das Licht relativ zum Zug bewegt. Das bedeutet, ob der Zug fährt oder nicht, jeder Beobachter misst für das Licht immer dieselbe Geschwindigkeit, nämlich etwa 300.000 Kilometer pro Sekunde.

Stellen wir uns vor, dass ein Außenstehender die Geschwindigkeit des Lichtes im Vergleich zum Zug messen möchte. Nach der Galileischen Transformation müsste er eigentlich feststellen, dass das Licht, das vom Zug ausgestrahlt wird, schneller oder langsamer ist, je nachdem, ob der Zug auf ihn zu- oder von ihm wegfährt. Doch das passiert nicht. Die Messungen zeigen, dass die Lichtgeschwindigkeit unabhängig von der Bewegung des Zuges konstant bleibt.

Das bedeutet, die Annahme der Galileischen Transformation – dass sich Geschwindigkeiten einfach addieren – funktioniert für Licht nicht. Denn wenn die Lichtgeschwindigkeit konstant bleibt, kann die Geschwindigkeit des Zuges nicht einfach auf die Lichtgeschwindigkeit „draufgepackt“ werden. Diese Diskrepanz bedeutet, dass das klassische Konzept von Raum und Zeit, wie es durch die Galileische Transformation beschrieben wird, nicht ausreicht, um die Realität zu erklären.

Um dieses Problem zu lösen, musste Albert Einstein eine völlig neue Art des Denkens einführen: die Spezielle Relativitätstheorie. In dieser Theorie wird die Konstanz der Lichtgeschwindigkeit als fundamentales Prinzip anerkannt, und daraus folgt, dass Raum und Zeit nicht absolut sind, sondern relativ – sie verändern sich je nach dem Bewegungszustand des Beobachters. Dies führte zu der revolutionären Erkenntnis, dass Zeit und Raum miteinander verknüpft sind und dass Zeit für verschiedene Beobachter unterschiedlich verlaufen kann, abhängig von ihrer relativen Geschwindigkeit.

Kurz gesagt: Die Konstanz der Lichtgeschwindigkeit widerspricht der Vorstellung, dass man Geschwindigkeiten einfach addieren kann, wie es in der Galileischen Transformation vorgesehen ist, und zeigt, dass unsere herkömmlichen Vorstellungen von Raum und Zeit überdacht werden müssen.

Schauen wir uns das aber noch einmal auf der Formel Ebene an.

Um zu demonstrieren, dass die Galileische Transformation nur gerettet werden kann, wenn man annimmt, dass t ≠ t’ (also die Zeit in den beiden Bezugssystemen unterschiedlich ist), gehen wir durch ein Gedankenexperiment, das die Probleme mit der Annahme von t = t’ verdeutlicht.

Ausgangssituation

Nehmen wir an, wir haben zwei Beobachter:

  1. Beobachter A ist in einem ruhenden Bezugssystem (z.B. steht auf dem Bahnsteig).
  2. Beobachter B ist in einem bewegten Bezugssystem (z.B. sitzt in einem Zug, der mit konstanter Geschwindigkeit v nach rechts fährt).

Jetzt senden wir einen Lichtstrahl von der Spitze des Zuges in Fahrtrichtung (nach rechts). Laut der klassischen Physik, die die Galileische Transformation nutzt, sollte die Geschwindigkeit des Lichts aus Sicht von Beobachter A die Geschwindigkeit des Lichts c plus die Geschwindigkeit des Zuges v sein. Aus Sicht von Beobachter B, der sich mit dem Zug bewegt, sollte das Licht einfach die Geschwindigkeit c haben, weil es relativ zu ihm ausgesendet wird.

Galileische Transformation mit t = t’

Die Galileische Transformation geht davon aus, dass die Zeit für beide Beobachter gleich ist, also t=t′. Dies führt zu folgender Formel für die Position x′ des Lichtstrahls relativ zu Beobachter B im Zug:

x′=x−vt

Nehmen wir an, das Licht bewegt sich im ruhenden System (aus Sicht von Beobachter A) mit einer Geschwindigkeit c fort. Dann wäre: x=ct

Einsetzen in die Galileische Transformation:

x′=ct−vt

x′=t(c−v)

Diese Formel bedeutet, dass das Licht für Beobachter B mit einer geringeren Geschwindigkeit c−v erscheint, was dem Prinzip widerspricht, dass die Lichtgeschwindigkeit in allen Bezugssystemen gleich c sein sollte. Hier zeigt sich das Problem der Annahme t=t′

Anpassung der Transformation: t ≠ t’

Um die Konstanz der Lichtgeschwindigkeit zu retten, müssen wir annehmen, dass die Zeit in den beiden Bezugssystemen unterschiedlich verläuft. Dies führt zu der Idee, dass die Zeit für Beobachter B langsamer oder schneller verlaufen muss, je nachdem, wie er sich relativ zu Beobachter A bewegt. Das bedeutet, dass t und t′ nicht gleich sein dürfen.

Wir müssen also die Zeit in das Transformationsgesetz einbeziehen. Statt einfach t=t′ anzunehmen, postulieren wir, dass t und t′ durch eine Funktion miteinander verbunden sind, die von der Relativgeschwindigkeit abhängt.

Diese Funktion wird in der Physik Gammafaktor bzw. Lorentzfaktor genannt, nach dem niederländischen Mathematiker Hendrik Antoon Lorentz, der als erste diese Beziehung aufstellte, aber die physikalische Interpretation doch lieber Einstein überließ, zu gewagt schien sie ihm.

Und jetzt kommt endlich die Stunde des Pythagoras.

Um den Lorentzfaktor herzuleiten, verwenden wir ein Gedankenexperiment mit einer sogenannten „Lichtuhr“ und den Satz des Pythagoras. Dieses Experiment hilft uns, die Auswirkungen der speziellen Relativitätstheorie und die Rolle des Lorentzfaktors verständlich zu machen.

Was ist eine Lichtuhr?

Stell dir eine Lichtuhr als einfaches Gerät vor, das aus zwei parallelen Spiegeln besteht, die sich in einem bestimmten Abstand voneinander befinden. Ein Lichtstrahl wird zwischen diesen beiden Spiegeln hin- und her reflektiert. Jedes Mal, wenn der Lichtstrahl den oberen Spiegel erreicht und wieder zurückgeworfen wird, vergeht eine bestimmte Zeitspanne – nennen wir sie „Tick“.

Lichtuhr mit zwei gegenüberliegenden Spiegeln mit Abstand d

Die Lichtuhr in einem bewegten Bezugssystem

Zunächst betrachten wir die Lichtuhr in einem bewegten Bezugssystem. Ein Zugfahrer hat die Uhr mit in den Zug genommen. Aus Sicht eines Beobachters, der sich relativ zur Lichtuhr nicht bewegt, aber selbst mit dem Zug fährt, bewegt sich der Lichtstrahl mit der Lichtgeschwindigkeit c senkrecht zwischen den Spiegeln hin und her.

Wenn der Abstand zwischen den Spiegeln d beträgt, dann ist die Zeit, die das Licht benötigt, um von einem Spiegel zum anderen zu gelangen:

t’=d/c ​

Hier ist t’ die Zeit, die in einem bewegtem System für einen „Tick“ der Uhr gemessen wird.

Die Lichtuhr aus Sicht eines ruhenden Bezugssystems

Jetzt stellen wir uns vor, dass die Lichtuhr mit einer konstanten Geschwindigkeit v relativ zu einem Beobachter in horizontaler Richtung (z.B. nach rechts) bewegt wird.

Lichuhr beobachtet von einer ruhenden Beobachterin. Grafik übernommen aus Kapitel 5: Spezielle Relativitätstheorie des Buches ‘Können wir die Welt verstehen’.

Aus Sicht dieses ruhenden Beobachters macht der Lichtstrahl nicht nur eine senkrechte Bewegung (zwischen den Spiegeln), sondern auch eine horizontale Bewegung (aufgrund der Bewegung der Lichtuhr). Diese horizontale Bewegung bedeutet, dass das Licht, um den oberen Spiegel zu erreichen, eine längere Strecke zurücklegen muss, die eine diagonale Linie bildet.

Herleitung des Lorentzfaktors mit dem Satz des Pythagoras

Um die Strecke, die das Licht in der bewegten Uhr (aus Sicht der Beobachterin am Bahnsteig) zurücklegt, zu berechnen, können wir den Satz des Pythagoras verwenden.

  1. Strecke, die das Licht in vertikaler Richtung zurücklegt: Diese Strecke ist gleich dem Abstand zwischen den Spiegeln, also d.
  2. Strecke, die das Licht in horizontaler Richtung zurücklegt: Während das Licht sich von einem Spiegel zum anderen bewegt, hat sich die Uhr auch um eine horizontale Strecke v*t bewegt, wobei t die Zeit ist, die für einen „Tick“ in diesem ruhenden System benötigt wird.
  3. Gesamte Strecke (Hypotenuse): Die gesamte Strecke s, die das Licht in der bewegten Uhr zurücklegt, bildet die Hypotenuse eines rechtwinkligen Dreiecks, mit d als einer Kathete und v*t als der anderen Kathete. Laut dem Satz des Pythagoras gilt:

s2=d2+(v*t)2

Da das Licht sich immer mit der Geschwindigkeit c bewegt, ist die Strecke s gleich:

s=c*t

Setzen wir das in die Pythagoras-Gleichung ein:

(c*t)2=d2+(v*t)2

Teilen wir die gesamte Gleichung durch c2:

t2=d2/c2​+ v2*t2​ / c2

Jetzt ziehen wir den Term (v2*t2)/c2​ auf die linke Seite:

t2(1−v2/c2)=d2/c2​

Nun isolieren wir t:

Wir wissen, dass d/c​ die Zeit t’ ist, die der bewegte Beobachter misst. Damit ergibt sich:

Wobei der Lorentzfaktor γ ist gegeben durch:

Damit können wir die Zeitdilatation beschreiben: t=γ*t’

Interpretation

  • Zeitdilatation: Die Zeit t’, die in einem bewegten System vergeht, ist kürzer als die Zeit t, die in einem ruhenden System vergeht. Das bedeutet, dass eine Uhr, die sich bewegt, langsamer tickt, wenn sie von einem ruhenden Beobachter betrachtet wird.
  • Der Lorentzfaktor γ: Der Faktor γ beschreibt, wie stark die Zeit gedehnt wird (=langsamer tickt), je schneller sich das Bezugssystem bewegt. Je näher die Geschwindigkeit v der Lichtgeschwindigkeit c kommt, desto größer wird γ und desto stärker ist die Zeitdilatation.

Ich bin mir sicher, dass die allermeisten trotz des Einsatzes überschaubarer Mathematik (Pythagoras) doch ziemlich skeptisch bleiben. Die Aussage ist, dass bei jemandem, der sich bewegt, die Zeit langsamer abläuft (langsamer tickt) als bei jemandem in Ruhe. Ich bin in meinem Leben oft hektisch hin und her gelaufen, danach fühlte ich mich meistens eher älter als jünger. Und überhaupt, wer hat schon so eine Lichtuhr, typisch Physiker wissen halt nicht eine gute Uhr aus rotierenden Zeigern zu benutzen. Allmählich versteht man, dass Einstein dafür keinen Nobelpreis bekommen hat. Der Hack mit dem Pythagoras ist doch ein Taschenspielertrick?

Nähern wir uns dem Problem der unterschiedlichen Zeiten noch mal von der Physik ohne Mathematik.

Der Unterschied zwischen dem Wurf einer Orange innerhalb eines fahrenden Zuges und dem Einschalten einer Taschenlampe im Zug lässt sich durch die unterschiedlichen Gesetze erklären, die für klassische Objekte (wie die Orange) und Licht (Photonen) gelten.

Wurf einer Orange im fahrenden Zug

Wenn du eine Orange innerhalb eines fahrenden Zuges wirfst, bewegt sich die Orange mit einer Geschwindigkeit, die sich aus zwei Komponenten zusammensetzt:

  • Geschwindigkeit des Zuges: Der Zug bewegt sich relativ zum Bahnsteig mit einer bestimmten Geschwindigkeit vZug
  • Wurfgeschwindigkeit: Du wirfst die Orange relativ zu dir (und damit relativ zum Zug) mit einer bestimmten Geschwindigkeit vWurf.

Nach den Gesetzen der klassischen Physik, genauer gesagt nach der Galileischen Transformation, addieren sich diese beiden Geschwindigkeiten. Wenn also ein Beobachter auf dem Bahnsteig steht, sieht er die Orange mit einer Gesamtgeschwindigkeit von vGesamt=vZug+vWurf auf sich zukommen.

Der Impuls der Orange, der das Produkt aus ihrer Masse und ihrer Geschwindigkeit ist, wird ebenfalls durch diese Gesamtgeschwindigkeit bestimmt: pOrange = mOrange*(vZug+vWurf)

Licht im Zug

Nun betrachten wir das Einschalten einer Taschenlampe im selben fahrenden Zug. Wenn du die Taschenlampe anmachst, sendet sie Photonen (Lichtteilchen) aus. Nach den Erkenntnissen der modernen Physik, insbesondere der Speziellen Relativitätstheorie, bewegt sich Licht immer mit der gleichen Geschwindigkeit c – unabhängig davon, ob der Zug fährt oder steht.

Wichtige Unterschiede:

  • Geschwindigkeit des Lichts: Das entscheidende Merkmal von Licht ist, dass seine Geschwindigkeit c unabhängig von der Geschwindigkeit des Zuges ist. Ob der Zug fährt oder steht, ein außenstehender Beobachter misst immer dieselbe Lichtgeschwindigkeit c. Das bedeutet, dass die Geschwindigkeit des Zuges keinerlei Einfluss auf die Geschwindigkeit des Lichts hat. Im Gegensatz zur Orange addiert sich die Geschwindigkeit des Zuges nicht zur Lichtgeschwindigkeit.
  • Impuls des Photons: Ein Photon hat einen Impuls, der durch seine Energie bestimmt ist (nach p=E/c), aber dieser Impuls hängt nicht von der Geschwindigkeit des Zuges ab. Das Licht erhält keinen zusätzlichen Impuls durch die Bewegung des Zuges. Es hat immer denselben Impuls, unabhängig davon, ob es im fahrenden Zug oder im stehenden Zug erzeugt wird.
  • Relativität und Universum: Während die Orange sich relativ zum Zug und zum Bahnsteig bewegt und ihre Geschwindigkeit in unterschiedlichen Bezugssystemen anders wahrgenommen wird, ist das Licht „relativ“ zum gesamten Universum unterwegs. Die Lichtgeschwindigkeit ist in jedem Bezugssystem, egal, wie schnell sich das Bezugssystem bewegt, immer gleich. Das ist ein fundamentaler Unterschied, der die klassische Physik (wie bei der Orange) von der Relativitätstheorie unterscheidet.

Klassische Objekte und Licht als Elementarteilchen funktionieren nach unterschiedlichen Regeln und daher machte die Spezielle Relativitätstheorie eine Anpassung der klassischen Konzepte von Raum, Zeit und Bewegung erforderlich.

Aber warum kann man denn davon als normal Sterblicher nichts, aber auch gar nichts merken, schließlich rasen wir doch tagtäglich um “unseren” Globus?

Dazu muss man sich ebendiesen γ Faktor mal ansehen:

γ Faktor in Abhängigkeit der Relativgeschwindigkeit v/c

An diesem Diagramm kann man sehen, dass ungefähr ab v>=20 % c der Lichtgeschwindigkeit der γ Faktor etwas von der eins “abhebt“. Schauen wir uns diesen Bereich noch mal genauer an:

γ Faktor in Abhängigkeit der Relativgeschwindigkeit v/c

Man sieht auch bei v=20%c ist der γ Faktor weiterhin nicht sehr viel größer als 1. Und da wir normal Sterblichen uns auf diesem Planeten mit weit unter v=20%c bewegen, gilt für uns in ausgezeichneter Näherung γ=1 und damit ist t=t’.

Erst 1971 haben die Astronomen Joseph C. Hafele und der Astronom Richard E. Keating die Spezielle Relativitätstheorie experimentell bestätigt und dazu haben sie auch einigen Aufwand betrieben. Sie bestiegen, mit vier Atomuhren, ein Linienflugzeug und umrundeten damit die Erde je zweimal, zuerst in östlicher, dann in westlicher Richtung. Der Nobelpreis wäre Einstein nun sicher gewesen, aber da war er leider schon 16 Jahre tot und postum wird kein Nobelpreis verliehen.

Hat die Relativitätstheorie denn für uns überhaupt eine Relevanz? Die Antwort ist eindeutig Ja.

In der Allgemeinen Relativitätstheorie, die Einstein 1915 veröffentlichte, begründete er aus der Theorie, also entsprungen aus seinen unnachahmlichen Gedankenexperimenten, dass auch die Gravitation einen Einfluss auf die Zeit hat. In Kurzform ist eine Aussage der ART, dass je weiter man von einem Gravitationszentrum ist, umso schneller die Zeit vergeht. Der Almöhi altert also schneller als die Niederrheiner.

Und es gibt heute ein sehr wesentliches Werkzeug, das ohne SRT und ART nicht wirklich gut funktionieren würde: Das GPS System.

Das GPS-System (Global Positioning System) ist ein beeindruckendes Beispiel dafür, wie die spezielle und Allgemeine Relativitätstheorie in der Praxis angewendet werden, um präzise Ortsmessungen auf der Erde durchzuführen. Obwohl es auf den ersten Blick so aussieht, als ob GPS einfach nur Entfernungen misst, basiert das System tatsächlich auf sehr genauen Zeitmessungen. Welche Rolle spielen die beiden Theorien beim GPS?

Grundprinzip des GPS

Das GPS funktioniert, indem es die Position eines Empfängers (z. B. Ihr Smartphone) auf der Erde berechnet, indem es Signale von mehreren Satelliten empfängt. Jeder Satellit sendet kontinuierlich ein Signal aus, das die genaue Zeit, zu der es gesendet wurde, und die Position des Satelliten zum Zeitpunkt des Sendens enthält.

Ihr GPS-Empfänger nimmt diese Signale auf und berechnet die Zeit, die jedes Signal benötigt hat, um den Empfänger zu erreichen. Da das Signal mit Lichtgeschwindigkeit reist, kann der Empfänger die Entfernung zu jedem Satelliten berechnen, indem er die Zeit mit der Lichtgeschwindigkeit multipliziert. Mit mindestens vier Satelliten kann der Empfänger seine genaue Position auf der Erde bestimmen.

Warum Zeitmessung so wichtig ist

Die Genauigkeit der Ortsbestimmung im GPS hängt von der extrem präzisen Zeitmessung ab. Selbst ein winziger Fehler von einer Milliardstel Sekunde (1 Nanosekunde) in der Zeitmessung kann zu einem Positionsfehler von mehreren Metern führen. Deshalb müssen die Uhren in den GPS-Satelliten extrem genau sein, und hier kommen die relativistischen Effekte ins Spiel.

Relativistische Effekte und das GPS

Es gibt zwei Hauptaspekte der Relativitätstheorie, die das GPS betreffen:

  1. Spezielle Relativitätstheorie (SRT):
    • Die spezielle Relativitätstheorie sagt voraus, dass bewegte Uhren langsamer gehen, verglichen mit Uhren in einem ruhenden Bezugssystem. Die Satelliten bewegen sich mit einer sehr hohen Geschwindigkeit um die Erde (ungefähr 14.000 Kilometer pro Stunde).
    • Wegen dieser hohen Geschwindigkeit ticken die Uhren an Bord der Satelliten langsamer als Uhren auf der Erde. Dieser Effekt ist klein, aber messbar: Die Uhren der Satelliten gehen etwa 7 Mikrosekunden (Millionstel Sekunden) pro Tag langsamer als die Uhren auf der Erde.
  2. Allgemeine Relativitätstheorie (ART):
    • Die Allgemeine Relativitätstheorie sagt voraus, dass Uhren in einem stärkeren Gravitationsfeld langsamer gehen. Die Erde erzeugt ein starkes Gravitationsfeld, das auf der Erdoberfläche stärker ist als in der Höhe, in der die GPS-Satelliten kreisen (etwa 20.000 Kilometer über der Erde).
    • In der Höhe der Satelliten ist die Schwerkraft schwächer, und daher laufen die Uhren der Satelliten schneller als Uhren auf der Erdoberfläche. Dieser Effekt ist etwas größer als der speziellen Relativitätstheorie: Die Uhren in den Satelliten laufen etwa 45 Mikrosekunden pro Tag schneller.

Korrektur der relativistischen Effekte

Wenn man die Effekte der speziellen und Allgemeinen Relativitätstheorie kombiniert, ergibt sich, dass die Uhren der GPS-Satelliten etwa 38 Mikrosekunden (45 – 7 = 38) pro Tag schneller gehen als Uhren auf der Erdoberfläche.

Dieser Unterschied von 38 Mikrosekunden pro Tag mag klein erscheinen, aber ohne Korrektur würde er zu einem enormen Positionsfehler führen – etwa 10 Kilometer pro Tag! Deshalb wird der Unterschied durch spezielle Korrekturen im GPS-System berücksichtigt:

  • Vorstartkalibrierung: Bevor die Satelliten ins All geschickt werden, werden ihre Atomuhren so eingestellt, dass sie auf der Erde etwas langsamer laufen. Sobald sie im Orbit sind und die relativistischen Effekte wirksam werden, laufen die Uhren im Weltraum mit der korrekten Geschwindigkeit, sodass sie mit den Uhren auf der Erde synchron bleiben.
  • Kontinuierliche Anpassungen: Die Bodenstationen des GPS-Systems überwachen kontinuierlich die Uhren in den Satelliten und nehmen gegebenenfalls kleinere Anpassungen vor, um sicherzustellen, dass die Zeitmessungen extrem genau bleiben.

Ohne Einstein würde meine Generation wohl noch ihren “geliebten” Falk Plan nutzen.


Aber es gibt noch einen viel tiefer gehenden Grund, warum die Relativitätstheorie uns alles andere als egal sein sollte.

Das Prinzip von Ursache und Wirkung ist eine grundlegende Idee in der Physik: Eine Ursache (z. B. das Schieben eines Balls) führt zu einer Wirkung (z. B. das Rollen des Balls). Dieses Prinzip setzt voraus, dass die Reihenfolge von Ereignissen in allen Bezugssystemen – also für alle Beobachter, unabhängig davon, wie sie sich bewegen – gleich bleibt. Damit dieses Prinzip universell gilt, muss die Lichtgeschwindigkeit in allen Bezugssystemen konstant sein.

Ursache und Wirkung

Das Prinzip von Ursache und Wirkung setzt voraus, dass die Reihenfolge von Ereignissen – also, dass die Ursache immer vor der Wirkung kommt – für alle Beobachter gleich bleibt.

Stellen Sie sich vor, dass die Lichtgeschwindigkeit nicht konstant wäre. Wenn eine Ursache (z. B. das Einschalten einer Lampe) ein Ereignis auslöst (z. B. das Erscheinen eines Lichtstrahls), könnten unterschiedliche Beobachter die Reihenfolge dieser Ereignisse anders wahrnehmen. In einem System, in dem die Lichtgeschwindigkeit nicht konstant ist, könnte es sein, dass ein Beobachter sieht, dass der Lichtstrahl zuerst erscheint und dann die Lampe eingeschaltet wird. Das würde das Prinzip von Ursache und Wirkung verletzen, weil die Wirkung (das Licht) vor der Ursache (dem Einschalten) eintreten würde.

Das Problem ohne konstante Lichtgeschwindigkeit

Wenn die Lichtgeschwindigkeit nicht konstant wäre:

  • Unterschiedliche Beobachter könnten widersprüchliche Abfolgen von Ereignissen wahrnehmen. Ein Beobachter könnte sehen, dass A passiert, bevor B passiert, während ein anderer Beobachter sieht, dass B vor A passiert. Das würde die Grundlage unserer physikalischen Gesetze untergraben, die auf einer konsistenten Kausalität basieren.
  • Die Kausalität wäre nicht mehr gesichert. Ereignisse könnten in einer Weise wahrgenommen werden, dass Wirkungen vor ihren Ursachen eintreten, was physikalisch unmöglich ist.

Wie die Konstanz der Lichtgeschwindigkeit das Prinzip bewahrt

Die Konstanz der Lichtgeschwindigkeit stellt sicher, dass die Gesetze der Physik, einschließlich des Prinzips von Ursache und Wirkung, für alle Beobachter in allen Bezugssystemen gleich bleiben. Sie zwingt die Natur dazu, Raum und Zeit so zu „verbiegen“, dass die Reihenfolge von Ereignissen konsistent bleibt und Kausalität (also das Prinzip, dass Ursachen immer Wirkungen vorausgehen) für alle gewährleistet ist.

Beenden möchte ich diesen Blog natürlich mit Albert Einstein:

„Das Unbegreiflichste an der Welt ist, dass sie begreiflich ist.“

…und SRT und ART sind essenzielle Bausteine, sie “begreiflich” zu machen.

Kippend…?

In meinem Blog “Der Faktor Mensch” habe ich darauf hingewiesen, dass möglicherweise bereits ein Kippen des Klimas zu beobachten ist. Besonders auffällig ist die sprunghafte Erhöhung der Oberflächentemperatur der Ozeane:

(https://climatereanalyzer.org/clim/sst_daily/)

Die Universität Maine (USA) visualisiert Meeresdaten, die von der amerikanischen Ozeanografiebehörde NOAA zur Verfügung gestellt werden. Die zweite gestrichelte Linie von unten zeigt die mittlere Meeresoberflächentemperatur von 60° Süd bis 60° Nord, bezogen auf die Referenzperiode 1982–2011. Im Jahr 2023 (ein El Niño-Jahr – orange Linie) stieg die Meeresoberflächentemperatur sprunghaft über die 2-Sigma-Grenze des langjährigen Mittels der Referenzperiode. In der Messtechnik bedeutet eine derartig große Abweichung, dass die Wahrscheinlichkeit, dass diese Veränderung zufällig ist, unter 5 % liegt. Mit einer Wahrscheinlichkeit von 95 % hat eine kausale Veränderung diese Abweichung verursacht. Was könnten solche Ursachen sein? Einerseits wird El Niño angeführt, andererseits auch die sauberere Luft aufgrund verschärfter Umweltnormen, die zu weniger Aerosolen führt – was zwar gut ist –, aber Aerosole haben eine kühlende Wirkung.

Im folgenden Interview:

erklärt Dr. Stephanie Rowe, die Global Climate and Energy Lead Scientist des WWF, dass die extremen Hitzerekorde, die weltweit aufgestellt werden, und ihre Auswirkungen auf unser Verständnis des Klimawandels, Anlass zur Sorge geben. Dr. Rowe betont, dass diese Hitzewellen zwar den Vorhersagen des Klimawandels entsprechen, das Ausmaß und die Intensität der Erwärmung jedoch die Erwartungen übertroffen haben, insbesondere bei den Temperaturen an Land und im Ozean. Diese beispiellose Erwärmung hat Bedenken ausgelöst, dass sich das Klimasystem schneller verändern könnte, als die Modelle vorhergesagt haben.

Ein entscheidender Punkt für die Bewertung der oben genannten Temperaturanomalie könnte sich bereits Ende August 2024 abzeichnen, wenn der erwartete Übergang von El Niño- zu La Niña-Bedingungen stattfinden sollte, die typischerweise die globalen Temperaturen kühlen.

Dr. Rowe verweist auf einen Artikel von Gavin Schmidt, dem Direktor des NASA Goddard-Instituts, der besagt, dass, wenn sich die Temperaturanomalien bis Ende August trotz des erwarteten Kühlungseinflusses von La Niña nicht stabilisieren, dies darauf hindeuten könnte, dass sich das Klimasystem schneller verändert hat als angenommen. Dies würde darauf hinweisen, dass unser derzeitiges Verständnis und die Klimamodelle die Geschwindigkeit und Schwere des Klimawandels unterschätzen, was uns in „unbekanntes Gebiet“ führen würde, in dem das Klimasystem, wie wir es kennen, viel früher als erwartet grundlegend verändert werden könnte. Diese Möglichkeit unterstreicht die dringende Notwendigkeit für entschlossenere Klimaschutzmaßnahmen.

Die Hoffnung ist, dass sich mit dem Einsetzen der La Niña-Phase im Pazifik die Oberflächentemperatur der Meere bis Ende August in diese Richtung bewegt.

Sollte sich die Meeresoberflächentemperatur jedoch weiterhin auf dem Niveau der orangen Linie von 2023 entwickeln, hätten wir ein ernstes Problem.

Warum würde eine fehlende Abkühlung im August auf einen verstärkten, schnelleren Klimawandel hindeuten?

Wenn bis Ende August kein signifikantes Abkühlungssignal beobachtet wird, könnte dies darauf hindeuten, dass der typische Austausch zwischen den wärmeren oberen Ozeanschichten und den kühleren tieferen Schichten gestört ist. Dieses Phänomen könnte mit einer zunehmenden Schichtung des Ozeans in Verbindung stehen, bei der sich ein stärker ausgeprägter Temperaturunterschied zwischen der Oberfläche und den tieferen Wasserschichten entwickelt.

Diese verstärkte Schichtung ist ein Symptom des Klimawandels. Mit steigenden globalen Temperaturen erwärmen sich die Oberflächengewässer des Ozeans schneller als die tieferen Schichten. Wärmeres Wasser ist weniger dicht und bleibt daher an der Oberfläche, was die Durchmischung mit kälterem, tieferem Wasser verringert. Diese reduzierte Durchmischung kann mehrere Konsequenzen haben:

  • Erhöhte Oberflächentemperaturen: Der Mangel an Durchmischung führt dazu, dass die Wärme in den oberen Schichten des Ozeans eingeschlossen bleibt, was zu höheren Oberflächentemperaturen führt.
  • Gestörte Meeresströmungen: Meeresströmungen, die auf Temperaturgradienten angewiesen sind, könnten verändert werden, was globale Klimamuster beeinflussen könnte.
  • Weniger Nährstoffauftrieb: Die tieferen Wasserschichten bringen normalerweise Nährstoffe nach oben, die das Meeresleben unterstützen. Eine reduzierte Durchmischung kann zu einem Rückgang dieser Nährstoffe führen, was die marinen Ökosysteme beeinträchtigt.
  • Sauerstoffgehalt im Ozean: Ein stärker geschichteter Ozean kann zu einem verringerten Sauerstoffgehalt in den tieferen Wasserschichten führen, da es weniger Zirkulation gibt, um Sauerstoff von der Oberfläche nach unten zu bringen.

Es wäre also sehr wünschenswert, wenn wir eine deutliche Temperaturabnahme der globalen Meeresoberfläche bis Ende August und in den folgenden Monaten beobachten könnten.

Wenn diese Abkühlung nicht eintritt, wird es immer schwieriger, die zukünftige Klimaentwicklung zu beurteilen und die Wirksamkeit von Gegenmaßnahmen einzuschätzen.

Das Problem ist allerdings nicht, dass die Klimamodelle neu justiert werden müssen, sondern dass die Menschheit viel schneller Klima- und Wetterphänomene erleben könnte, wie sie in den letzten 12.000 Jahren nie vorgekommen sind.

Hoffen wir also das Beste und tun das Richtige.

Hier noch der Link zum oben erwähnten Artikel von Galvin Schmidt in Nature https://www.nature.com/articles/d41586-024-00816-z