Zum Hauptinhalt Zur Navigation

100 Jahre Quantenmechanik: Mit der Physik stimmt was nicht

Ohne sie wäre fast kein modernes Stück Technik denkbar: Die Quantenmechanik brachte 1925 den Durchbruch, als die klassische Physik versagte.
/ Mario Petzold
26 Kommentare News folgen (öffnet im neuen Fenster)
Zur fünften Solvay-Konferenz 1927 waren schließlich zahlreiche Begründer der Quantenmechanik eingeladen (Werner Heisenberg, Louis-Victor de Broglie, Paul Dirac, Max Born, Wolfgang Pauli). (Bild: Wikipedia/Benjamin Couprie)
Zur fünften Solvay-Konferenz 1927 waren schließlich zahlreiche Begründer der Quantenmechanik eingeladen (Werner Heisenberg, Louis-Victor de Broglie, Paul Dirac, Max Born, Wolfgang Pauli). Bild: Wikipedia/Benjamin Couprie

Am 29. Juli 1925 traf ein Aufsatz mit dem Titel " Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen(öffnet im neuen Fenster) " von Werner Heisenberg bei der Zeitschrift für Physik ein. Auf 14 Seiten legte er dar, warum der klassischen Mechanik neue Regeln entgegengesetzt werden sollten.

Es dauert dann noch sieben Jahre, bis die Quantenmechanik als Nachfolgerin der Quantenphysik erarbeitet war. Beteiligt daran waren neben Heisenberg, der mit seinen Ausführungen den Grundstein für eine neue Physik legte und zu der Zeit an der Universität Göttingen habilitierte, auch Erwin Schrödinger, Paul Dirac (beide Nobelpreis 1933), Max Born (Nobelpreis 1954), Wolfgang Pauli (Nobelpreis 1945) und viele weitere. Wir erklären, warum eine neue Physik, die Quantenmechanik, nötig wurde, und welche Möglichkeit die veränderte Betrachtungsweise eröffnet – ohne Anspruch auf Vollständigkeit und wissenschaftliche Präzision in jedem Detail.

Theorie statt Praxis

Ursprünglich gab es zwei Herangehensweisen: In der Newtonschen Physik gab es das Teilchen mit fester Bahn. Christiaan Huygens, ein Zeitgenosse Newtons, hingegen sah das Verhalten von Wellen, deren Ausbreitung und Interferenz als maßgeblich für die Beschreibung der Welt.

Statt jedoch Wellen und Teilchen separat zu behandeln oder eines davon zu bevorzugen, wurde im Zuge der Entwicklung der Quantenmechanik erkannt, dass selbst Neutronen und Atome, die meist wie Teilchen behandelt werden können, sich wie Wellen verhalten. So zeigten spätere Experimente, dass auch Atome bei Beugung am Doppelspalt interferieren wie Wellen.

An die Stelle der Bahnkurve der klassischen Physik mit einem festen Ort zu einer bestimmten Zeit trat die Wahrscheinlichkeit, dass ein Teilchen sich zu einer bestimmten Zeit an einem bestimmten Ort befindet. Auch die Unterscheidung von Teilchen und Welle entfiel.

Berechnungen anhand neuer Grundlagen

Dieses neue Verständnis für das Verhalten von Elektronen, Neutronen und Atomen führte nach und nach dazu, dass die Interaktion der Teilchen berechnet werden konnte, anstatt nur auf experimentelle Ergebnisse zu vertrauen. Zumal sich bis zur Entwicklung der Quantenmechanik die theoretischen Grundlagen aus der Zeit davor als fehlerhaft erwiesen hatten.

So konnten Lise Meitner, die trotz 49-facher Nominierung für ihre Arbeiten nie den Nobelpreis erhielt, und ihr Neffe Otto Frisch, der 1940 auch den theoretischen Entwurf einer Atombombe erstellte, im Jahr 1939 auf Grundlage von Experimenten von Otto Hahn (Nobelpreis 1944) erstmals die Kernspaltung theoretisch-physikalisch untersuchen und interpretieren. Mithilfe von Einsteins Energie-Masse-Äquivalenz errechneten sie den Energieüberschuss von 200 Megaelektronenvolt(öffnet im neuen Fenster) für ein einzelnes Uranatom.

Damit war das Potenzial der Kernspaltung belegt. Nur sechs Jahre später wurde in Hiroshima und Nagasaki demonstriert, wie groß die Energiefreisetzung tatsächlich ist. Aber auch Laser, Kernspinresonanztomografie, die Halbleitertechnik und Kernenergie wären ohne die neuen Methoden nicht denkbar.

Frühes Scheitern von Vorhersagen

Dass es so weit kam, lag an den vielen Experimenten und Theorien, die speziell zwischen 1900 und 1920 scheiterten. Zunächst wäre die Ultraviolett-Katastrophe zu nennen. Sie sollte sich nach klassischer Betrachtung bei jedem Körper beobachten lassen.

Ein Festkörper emittiert elektromagnetische Strahlung und experimentell lässt sich das mit einem Hohlraum mit kleiner Öffnung nachbilden, durch die Strahlung eintritt. Sie wird innen reflektiert und absorbiert.

Wieder ausgesendet wird die Strahlung durch elektromagnetische Oszillatoren, also die Elektronen in dem Festkörper. Die Ende des 19. Jahrhunderts gültigen Gesetze sagten nun voraus, dass selbst hochenergetische UV-Strahlung von jedem strahlenden Körper ausgesendet werden müsste.

Ein unlogischer Schritt

Damit wäre das Weltall voll von dieser Strahlung, was Leben unmöglich machen würde. Max Planck (Nobelpreis 1918) versuchte als Erster, die experimentellen Ergebnisse, die der klassischen Physik widersprachen, zu formalisieren. Die Energie eines elektromagnetischen Oszillators konnte nicht kontinuierlich sein. Die Aufnahme und Abgabe von Energie musste in Paketen mit kleinen Intervallen erfolgen, abhängig von der Frequenz. Planck führte eine Quantelung ein, mit dem Planckschen Wirkungsquantum als natürlichem, experimentell messbaren Wert.

Seine Strahlungsformel aus dem Jahr 1900 bildete die experimentellen Ergebnisse ab, so dass kalte Körper auch auf dem Papier energiearme Strahlung abgeben. Erst bei 20.000 °C würde hauptsächlich harte UV-Strahlung mit weniger als 100 Nanometern Wellenlänge emittiert. Es folgten weitere Experimente, die das Versagen der klassischen Physik illustrierten. Und immer wieder half das Quant aus, diese kleine, diskrete Portion.

Licht: Teilchen oder Welle

Zunächst zeigten immer mehr Untersuchungen, dass Licht nicht nur eine Welle sein konnte. Der Compton-Effekt verdeutlichte, von Arthur Compton 1922 gezeigt (Nobelpreis 1927), dass Licht bei Stoßprozessen in Graphit Energie verliert wie ein Teilchen, also anschließend eine größere Wellenlänge hat.

In einem anschaulichen Experiment mit einer Lichtquelle und im Kreis darum angeordneten Photodetektoren messen alle die gleiche Strahlungsintensität. Das ändert sich, wenn die Strahlung der Lichtquelle so weit verringert wird, dass jeder Detektor in einem bestimmten Zeitraum nur ein Photoelektron emittieren kann. Dann zeigt stets nur ein einziger davon eine Reaktion, obwohl die Lichtwelle sich gleichmäßig ausbreitet.

Die Energie des Lichts muss gequantelt sein, sie wird portionsweise abgegeben und aufgenommen. Über einen längeren Zeitraum wiederum verteilt sich das Auftreffen statistisch gleichmäßig. Licht verhält sich also wie ein Teilchen und wie eine Welle.

Erst 1960, als die Messgeräte fein genug waren, konnte zudem gezeigt werden, dass ein Photon bei Verlassen eines Gravitationsfeldes eine Rotverschiebung erfährt. Das Pound-Rebka-Experiment illustrierte, was Albert Einstein (Nobelpreis 1921) bereits 1911 vorhergesagt hatte.

Bohrsches Atommodell

Elektronen waren als Nächstes an der Reihe. Bekannt war bereits, dass Elektronen sich auf Kreisbahnen um einen Atomkern bewegen. Nicht zu dieser Überlegung passte aber, dass bestimmte Materialien beim Verbrennen nur Licht mit festen Wellenlängen aussenden.

Niels Bohr (Nobelpreis 1922) führte deshalb sein Atommodell mit festgelegten, gestückelten Bahnen ein: Die Elektronen bewegen sich nur auf diesen, weshalb ein Rückfall eines Elektrons von einer festen Bahn auf eine niedrigere immer Licht mit derselben Energie emittiert.

Die Ausweitung der Quantenphysik auf alles

Schließlich war es Louis de Broglie (Nobelpreis 1929) im Jahr 1924, der eine Ausweitung der Welleneigenschaften auf Elektronen, Neutronen und Atome forderte, obwohl dies bis dahin nicht beobachtet werden konnte.

Begreift man die Teilchen als Wellenpaket, lässt sich anhand der Überlagerung einzelner Materiewellen eine Amplitude bestimmen. Die Atome, Neutronen und Elektronen werden greifbar, was experimentell nie gelungen war. Ihr Verhalten konnte von nun an mathematisch erfasst werden.

Unschärfe braucht noch ein wenig

Womit wir ins Jahr 1925 gekommen wären. Werner Heisenberg (Nobelpreis 1932) schlug die neue Herangehensweise vor, die schließlich zur Etablierung der Quantenmechanik führte.

Seine Unschärferelation, die es unmöglich macht, Ort und Impuls eines Teilchens exakt zu bestimmen, entwickelte er gemeinsam mit Niels Bohr. Bekannt ist das als Kopenhagener Deutung der Quantenmechanik(öffnet im neuen Fenster) .

Diese Unschärfe besagt nicht nur, dass exakte Aussagen zu Atomen, Elektronen und mehr mit einer Unsicherheit belegt sind. Vielmehr noch gibt sie enge Grenzen vor, innerhalb deren die Resultate von Stößen und anderen Prozessen erwartet werden können.

Wie präzise das gelingt, zeigen der fast schon alltägliche Einsatz von Lasern und Messungen an Molekülen und Atomen, die für Satellitennavigation und Telekommunikation unerlässlich sind. Ohne die Quantenmechanik wäre so gut wie kein modernes Stück Technik denkbar, vom Computerchip bis zur medizinischen Bildgebung jenseits des Röntgenapparats.


Relevante Themen