Montag, 1. Juli 2019:Fortsetzung: Sabine Hossenfelder: Das hässliche Universum. Warum unsere Suche nach Schönheit die Physik in die Sackgasse führt. Aus dem Englischen von Gabriele Gockel und Sonja Schuhmacher, Kollektiv Druck-Reif, Frankfurt a.M. 2018.

Selim meint, Sabine Hossenfelder sei mit ihren Thesen in der Teilchenphysik gefangen. Ihre Thesen träfen nicht auf alle Bereiche der Physik zu, auf die Teilchenphysik vielleicht schon, aber nicht zum Beispiel auf die Vielteilchenphysik (many body physics). Den Unterschied zwischen diesen beiden Bereichen hat unsere erste Kommentatorin Samantha Philips in ihrem Kommentar zum letzten Blog schon erklärt. Die Teilchenphysik fragt nach den Eigenschaften einzelner Teilchen; die Vielteilchenphysik fragt: Wenn ich viele Teilchen in Interaktion anschaue, was machen die dann? Hier kann man unter Umständen interessante Beobachtungen machen, zum Beispiel dass in unterschiedlichen Bereichen die Verteilungen ähnlich aussehen, dass sich in unterschiedlichen Bereichen ähnliche Strukturen finden. Vielleicht sehen die Verteilungen ähnlich aus, weil die Ordnungen ähnlich funktionieren. Ein*e Teilchenphysiker*in interessiert sich für die Zutaten, ein*e Vielteilchenphysiker*in dafür, wie ich aus gegebenen Zutaten die Eigenschaften des Ganzen beschreiben kann.

Für ein*e Teilchenphysiker*in sind, so Selim, Vielteilchenregimes zu komplex. Sie/er sucht nach Bestandteilen der einzelnen Teilchen. Es ist kein Wunder, dass gerade in diesem Bereich neue Erkenntnisse in komplex disruptiven Schritten erfolgen. Wie kommt man in diesem Bereich zu neuen Erkenntnissen? Muss dazu das passieren, was Thomas S. Kuhn eine wissenschaftliche Revolution genannt hat, das heißt, eine Wissenschaft mit ihren etablierten Fragen und Verfahren erschöpft sich, so dass ein kompletter Neueinsatz nötig wird? Und wie kommt so ein Neueinsatz im Einzelnen zustande? Spielen hier, wie Steven Weinberg im Interview mit Sabine Hossenfelder sagt, ästhetische Kriterien eine Rolle (S. 171)? Oder kommt eine wissenschaftliche Revolution am Ende doch durch einen größeren Teilchenbeschleuniger zustande, also durch eine Steigerung des Aufwands? Oder vielleicht durch den Einsatz neuer Technologien? Jedenfalls ist der Erfolg das Kriterium, ob etwas nachträglich als wissenschaftliche Revolution gilt oder nicht, und das durchaus auch im Verhältnis zu den Kosten.

Eine Analogie zu den Teilchenbeschleunigern in der Teilchenphysik ist in der Astronomie das Teleskop – mit interessanten Unterschieden. Als Galilei das Teleskop erfunden oder nach Entwürfen niederländischer Erfinder nachgebaut und astronomisch genutzt hat, waren plötzlich ganz neue Erkenntnisse möglich. Teleskope gibt es heute noch, und sie werden wie die Teilchenbeschleuniger immer größer und teurer. Teleskope haben nicht wie die Teilchenbeschleuniger das Problem, dass man mit größeren Teleskopen nichts Neues entdeckt. Aber vielleicht würde man auch hier mit neuen Beobachtungsmöglichkeiten, neuen Technologien mehr und Interessanteres entdecken als mit Teleskopen. Nach Albert Einstein gilt: Gesetze haben einen bestimmten Geltungsbereich. Jetzt kann man, um Fortschritt zu erzielen, auch schauen: Wo könnten sich Abweichungen ergeben? Und da suche ich dann, also an den Rändern.

Das in Hossenfelders Buch immer wieder erwähnte ‚Standardmodell‘ ist so etwas wie die Kategorientafel der Teilchenphysik. Man müsste damit, wenn es zuträfe, alle Materie auf der Erde und im Universum beschreiben können. Erwähnt wird im Buch auch verschiedentlich die Grand Unified Theory (GUT): Immer wieder hatten Physiker die Idee oder die Hoffnung, dass man die Natur durch eine einzelne Formel beschreiben und/oder erklären kann. So wie Sabine Hossenfelder es etwas ironisch darstellt (S. 133), wollten Physiker mit derartigen Ideen die ‚besseren‘ Philosophen sein, indem sie den Sinn der Welt erklärten. Diese Gedanken kommen mir strukturell nicht unähnlich vor den Überlegungen von Gottfried Wilhelm Leibniz um 1700, wie man das gesamte Wissen der Welt generieren könnte: entweder durch eine einzige Formel oder durch eine kombinatorische Universalbibliothek, in der alle denkbaren Buchstabenkombinationen vorkommen. Die Analogie der kombinatorischen Universalbibliothek in der Welt der modernen Physik ist die Theorie des Multiversums. Danach ist die Welt viele Welten, die Wirklichkeit wird beliebig komplex: Jede Entscheidung, jedes Ereignis, jede Zellteilung, jede Kernspaltung erzeugt ein neues Universum, weil es immer auch eine Alternative und damit ein alternatives Universum gibt. Diese Theorie impliziert eine Eskalation der Menge von Informationen, vor dem Hintergrund der Tatsache, dass schon die Menge der Information im einen Universum beliebig groß ist. Vielleicht gibt es zwischen den scheinbaren Alternativen ‚Multiversum – eine Formel‘ auch einen Zusammenhang: Die Gesetzmäßigkeit muss nicht kompliziert sein, aber die Dynamik, die daraus entsteht, ist beliebig kompliziert. Das Multiversum ist zwar ein interessantes Konzept, aber es lässt sich nicht widerlegen und ist nicht nützlich, weil es keine Voraussagen ermöglicht.

Hossenfelder legt dar (S. 59), dass Karl Poppers Theorie, wonach wissenschaftliche Ideen so strukturiert sein müssen, dass sie falsifizierbar sind, so nicht zutreffend ist. Nach Hossenfelder falsifizieren wir wissenschaftliche Theorien nicht, sondern ‚entplausibilisieren‘ sie. Diese Vorstellung gefällt mir gut, weil sie auch mit meinen Erfahrungen als Geisteswissenschaftler übereinstimmt. Trotzdem scheint mir das Prinzip der Falsifikation als Leitideal eine gute Sache zu sein. Der Literaturwissenschaftler Karl Eibl hat dieses Ideal für die Literaturinterpretation verschiedentlich ausformuliert: Interpretationen sollten falsifizierbar sein; in der Literaturwissenschaft kommt es immer wieder auch zu Interpretationen, die sich immun gegen Falsifikation machen; und das ist unwissenschaftlich. So etwas gibt es, wie mir Selim bestätigt, auch in den so genannten ‚harten Wissenschaften‘. Ein Grund dafür ist aber der, dass Wissenschaft kein Rätsellösen ist. Theorien werden aufgestellt ohne Rücksicht darauf, ob sie falsifizierbar sind oder nicht. Theorien werden, wenn es gut läuft, im weiteren Verlauf der wissenschaftlichen Entwicklung empirisch bestätigt, und wenn es nicht gut läuft, dann nicht. Theorieaufstellen ist so etwas wie der Versuch, eine Repräsentation der Wirklichkeit zu erstellen.

Im Rahmen ihrer Ausführungen liefert Hossenfelder auch eine Erläuterung von Einfachheit als Leitkriterium der Bewertung physikalischer Theorien (S. 121–123). Diese Erläuterung ist nicht gerade eine Definition, sie will es auch nicht sein, aber sie trägt eine paar Bausteine für eine solche Definition zusammen: Einfachheit ist eine stets relative Größe. Einfachheit dient oft als Kriterium für wissenschaftliche Entscheidungen. Einfachheit ist nicht messbar im Sinne von Rechenkomplexität. Einfachheit steht als wissenschaftliches Ideal oft im Konflikt mit der Genauigkeit. Es könnte sein, dass Einfachheit und Fundamentalität zusammenhängen, aber das ist nicht gesagt. Schaut man sich diese Bausteine in Gestalt von Aussagen an, dann drängt sich die Frage auf: Hängen sie miteinander zusammen, oder handelt es sich um eine einfache Aneinanderreihung von Gedanken? Vielleicht ist die ganze Beschreibung nicht ganz konsistent. Es ist jedenfalls nicht einfach, Einfachheit zu definieren. Hossenfelder macht darauf aufmerksam, dass Einfachheit, Eleganz und Natürlichkeit Kategorien sind, die häufig zusammen gedacht werden (S. 127). Diese Kategorien sind aber alle ziemlich ‚luftig‘; hier wird es interessant, aber hier fällt es auch schwer, Genaueres zu sagen. Umgangssprachliche Definitionen der genannten Begriffe kämen dem, was Hossenfelder sagt, ziemlich nahe, und weiter kommen wir vorerst auch nicht.