Die Ergebnisse physikalischer Modelle können nur so genau sein wie ihre gemessenen und eingesetzten Komponenten. Zwei Physiker vom Complexity Science Hub identifizieren nun eine bislang vernachlässigte Ungenauigkeit, mit Auswirkungen von der Zellbiologie bis zur Künstlichen Intelligenz.
Im Laufe unseres Lebens lernen wir viele unterschiedliche Formeln. Wollen wir die Fläche eines rechteckigen Raumes berechnen, messen wir seine Länge und seine Breite und multiplizieren diese. Sind wir beim Messen nicht allzu genau, wird auch das Ergebnis nicht exakt sein, aber vielleicht kommt es auf eine kleine Ungenauigkeit in diesem Fall auch nicht an.
Um physikalische Systeme wie ein Atom, das Sonnensystem, oder eine Zelle in unserem Körper zu beschreiben, die sich zudem ständig verändern, können minimale Abweichungen hingegen zu signifikanten Unterschieden im Ergebnis und dadurch zu falschen Entscheidungen führen.
Die Gleichungen, die Wissenschafter:innen entwickelt haben, um diese Systeme zu erfassen, gehen oft davon aus, dass ihre messbaren Merkmale, wie die Temperatur oder das chemische Potenzial, genau bekannt sind. "Die reale Welt ist allerdings chaotischer und Ungenauigkeiten sind unvermeidbar", erklärt Jan Korbel vom Complexity Science Hub. Geräte weisen Messfehler auf, Temperaturen schwanken, bislang unbekannte Einflussfaktoren stören die Ergebnisse, Systeme entwickeln sich weiter.
EINE ANDERE UNSICHERHEIT
Dass die Umgebung ein System beeinflusst und dass dies zu Ungenauigkeiten führen kann, wird in den Regeln der stochastischen Physik berücksichtigt. Eine andere Art von Unsicherheit wurde allerdings bislang übersehen, argumentieren Korbel und sein Kollege David Wolpert vom Santa Fe Institute, USA, und CSH External Faculty, in einer neuen Studie, die kürzlich im Journal Physical Review Research veröffentlicht wurde. „Diese Ungenauigkeit betrifft nicht das System als Ganzes, sondern sie ergibt sich aus den einzelnen Parametern, die Teil der Gleichungen sind und dadurch das Ergebnis eines Experiments beeinflussen können“, so Korbel.
Als Korbel und Wolpert sich 2019 bei einem Workshop begegneten, entstand die Idee dazu. "Wir fragten uns, was passiert, wenn man die thermodynamischen Parameter eines Systems nicht genau kennt", erinnert sich Korbel. "Gegenwärtig ist fast nichts über die thermodynamischen Konsequenzen dieser Art von Unsicherheit bekannt, obwohl sie unvermeidlich ist", erklärt Wolpert. Die beiden Physiker untersuchen deshalb, wie die Gleichungen der stochastischen Thermodynamik modifiziert werden können, um die zu berücksichtigen.
UNMÖGLICH EXAKT ZU MESSEN
Diese Gleichungen enthalten oft exakte Messwerte – zum Beispiel für die Temperatur. „Doch auch, wenn man diese Werte wiederholt misst und daraus einen Durchschnitt berechnet, kennen Experimentator:innen sie nicht unbedingt mit großer Genauigkeit", so Korbel. Noch ärgerlicher ist die Erkenntnis, dass es unmöglich ist, Parameter wie Temperatur, Druck oder Volumen exakt zu messen, sowohl aufgrund der begrenzten Messmöglichkeiten – wenn eine Messung beispielsweise aus Zeitgründen nicht häufig genug wiederholt werden kann – als auch aufgrund der Tatsache, dass sich diese Größen schnell ändern.
Was oft als Messunsicherheit interpretiert wird, kann aber eine verdeckte Unsicherheit der Parameter selbst sein. Die Ungenauigkeit, die sich daraus ergibt, kann sich auf allen Ebenen auswirken. Bleiben wir bei der Temperatur: Vielleicht wurde ein Experiment zunächst durchgeführt als die Sonne schien, und dann wiederholt, als es bewölkt war. Oder vielleicht wurde die Klimaanlage zwischen mehreren Versuchen eingeschaltet. „Statt eines Durchschnittswertes für die Temperatur, wäre es daher sinnvoller die Wahrscheinlichkeit dieser Temperatur miteinzubeziehen“, erklärt Korbel.
KÜNSTLICHE INTELLIGENZ
Laut dem Wissenschafter hätte die größere Genauigkeit bei der Berechnung Auswirkungen auf zahlreiche Bereiche – zum Beispiel bei der Künstlichen Intelligenz. Diese wird bei verschiedenen Experimenten in der Wissenschaft eingesetzt, um natürliche und künstliche Systeme zu verstehen oder ihre Reaktionen vorherzusagen. Allerdings beruhen auch diese Methoden auf Parametern, die mit einer gewissen Unsicherheit behaftet sein können. "Unsere Erkenntnisse können hilfreich sein, um Methoden des maschinellen Lernens im Bereich der künstlichen Intelligenz zu verbessern", sagt Korbel.
VON ZELLBIOLOGIE UND LASERN
Darüber hinaus ist es in vielen anderen Feldern relevant diese andere Art der Unsicherheit zu betrachten. Ein Beispiel: Soll ein Protein in einer menschlichen Zelle woandershin transportiert werden, braucht die Zelle dafür Energie. Wie viel Energie, hängt unter anderem von der Temperatur ab. Doch bei der Messung dieser Temperatur ist die Genauigkeit begrenzt. „Diese Unsicherheit könnte bedeuten, dass die Zelle mehr Energie investiert als eigentlich notwendig wäre. Sie bezahlt also die zusätzlichen Kosten dafür, dass sie das System nicht kennt", erklärt Korbel.
Ähnlich verhält es sich bei optischen Pinzetten. Das sind hochenergetische Laserstrahlen, die kleinste Teilchen einfangen und festhalten oder bewegen können. Um zu beschreiben, wie groß die Tendenz eines Teilchens ist, sich der Bewegung durch die Falle zu widersetzen, verwenden Physiker:innen den Begriff „Steifigkeit“. Diese „Steifigkeit“ müssen sie möglichst genau kennen, um den Laser optimal konfigurieren zu können. Dazu messen sie in der Regel wiederholt und gehen davon aus, dass etwaige Abweichungen durch Messfehler entstehen.
Korbel und Wolpert schlagen jedoch eine andere Möglichkeit vor. Die Unsicherheit könne auch daher rühren, dass sich die Steifigkeit selbst ändert, wenn sich das System weiterentwickelt. „Ist das der Fall, können wiederholte identische Messungen dies nicht erfassen, und die optimale Konfiguration wird schwer zu finden sein“, so die Forscher. "Auch wenn wir immer wieder dasselbe Protokoll durchführen, landet das Teilchen nicht am selben Punkt. Man muss eventuell einen kleinen Schubs geben", was zusätzliche Arbeit bedeutet, zusätzliche Energie. Da dies mit den herkömmlichen Gleichungen der stochastischen Thermodynamik derzeit nicht erfasst werden kann, ist es umso wichtiger, Wege zu finden, diese zu modifizieren.
ÜBER DIE STUDIE
Die Studie „Nonequilibrium thermodynamics of uncertain stochastic processes" wurde kürzlich im Journal Physical Review Research veröffentlicht.
ÜBER DEN COMPLEXITY SCIENCE HUB
Der Complexity Science Hub (kurz: CSH Vienna) wurde mit dem Ziel gegründet, Big Data zum Nutzen der Gesellschaft einzusetzen. Der CSH Vienna bereitet unter anderem große Datensätze systematisch und strategisch so auf, dass Auswirkungen von Entscheidungen in komplexen Situationen vorab getestet und systematisch bewertet werden können. Damit liefert der Complexity Science Hub die Grundlagen für eine evidenzbasierte Politik. https://www.csh.ac.at