In vielen Experimenten ist die zu untersuchende Größe nicht direkt messbar. Anstatt dessen besteht eine mathematische Relation zwischen Messergebnis und Eingangsgrößen . Da jede Eingangsgröße eine Unsicherheit mit sich trägt, ist auch das Ergebnis mit einer Unsicherheit behaftet. Diese wird mittels einer Fehlerfortpflanzung berechnet. Der Begriff Fehler ist in diesem Zusammenhang überholt, jedoch hat sich bisher kein formal korrekter Begriff etabliert.
In der klassischen Gauß’schen Betrachtung werden lediglich zufällige Messunsicherheiten berücksichtigt. Gauß war sich der Unvollkommenheit dieses Ansatzes hinsichtlich der Messapparatur zwar bewusst, jedoch war er der Auffassung das die systematische Unsicherheit durch den Experimentierenden zu eliminieren sei [1]. Dass der Einfluss der systematischen Unsicherheit nicht vernachlässigbar ist, scheint heutzutage unumstritten zu sein. Die Nationalen Metrologischen Staatsinstitute haben in ihrem Guide to the Expression of Uncertainty in Measurement (GUM) versucht ein einheitliches Verfahren darzustellen, welches Aspekte des Gauß’schen Verfahren aufgreift. Die Berechnung einer Unsicherheit nach GUM unterscheidet sich lediglich in der initialen Festlegung der Unsicherheiten der Eingangsgrößen von der klassischen Gauß’schem Konzept. Dementsprechend werden systematische Unsicherheiten mathematisch gleich beschrieben, wie zufällige Unsicherheiten.
Im Folgenden soll der Einfluss ungenauer Eingangsgrößen auf das Ergebnis , sowohl mit dem Gauß’schem Ansatz, als auch mit der Methode nach GUM dargestellt werden
Gauß’scher Ansatz
Ein Messergebnis ist abhängig von Eingangsgrößen. Die einzelnen Eingangsgrößen sind mit Unsicherheiten behaftet, die als Intervalle geschätzt werden. Setzt sich die Unsicherheit einer Eingangsgröße (in Abbildung: ) aus mehrerer Unsicherheiten (in Abbildung und ) zusammen, wird die Unsicherheit der Eingangsgröße aus der Wurzel von der Summe der quadrierten Beiträge der Einzel-Unsicherheiten und gebildet:
.
Die resultierenden Unsicherheiten werden mittels Fehlerfortpflanzung berechnet, um die Unsicherheit der Ergebnisgröße zu bestimmen:
.
Unsicherheitsbetrachtung nach GUM
Analog zur Gauß’schen Betrachtung zeigt die folgende Abbildung den Prozess der Unsicherheitsanalyse nach GUM-Richtlinie. Der Prozessteil, in welchem sich die beiden Vorgehensweisen unterscheidet, wurde mit einem blauen Kasten markiert.
Der wesentliche Unterschied der Vorgehensweise liegt in der Abschätzung der eingehenden Unsicherheiten. Bei der GUM-Methode geschieht dies durch Wahrscheinlichkeitsdichtefunktionen (WDFs). Durch dieses Verfahren können bestehende Informationen über den Messprozess besser in die Fehlerbetrachtung integriert werden. Somit ist potenziell eine realitätsnähere Abschätzung der spezifischen Unsicherheiten möglich. Hierbei wird eine direkte Verrechnung der WDFs unternommen (aufwendiger Rechenprozess mittels Faltung – numerische Lösung anhand der entwickelten Webapp). Neben der direkten Verrechnung können die WDFs auf standardisierte Unsicherheiten mit entsprechendem Vertrauensgrad (beispielsweise 65%, 95% usw.) reduziert werden.
Die nach GUM bestimmten einzelnen Unsicherheiten weisen nun aber dieselben Vertrauensgrade auf und können anders als bei der klassischen Betrachtung bedenkenlos verrechnet werden, ohne das resultierende Vertrauensintervall zu beeinflussen. Die Berechnung erfolgt anhand partieller Ableitungen und der Summe der Quadrate. Dies gleicht der herkömmlichen Gauß’schen Fehlerfortpflanzung.
Die Betrachtungen setzen in der Regel eine symmetrische Verteilung der Größen voraus. Eine eventuelle Asymmetrie der Verteilung (“skewness”) kann bei GUM allerdings zusätzlich betrachtet werden.
[1] Gauß, C.F., Abhandlungen zur Methode der kleinsten Quadrate, Physica, Würzburg, 1964