Ob Verzeichnungen von Objektiven bestimmen, Vermessungsgeräte kalibrieren oder Aufmaßtechniken statistisch korrekt verbinden, die Methode der kleinsten Fehlerquadrate und der aufbauenden Verfahren der geodätischen Ausgleichungsrechnung (präziser L2-Norm) sind praktisch alternativlos.
Grundlage ist die mathematische Beschreibung von geometrischen Messwerten und Abhängigkeiten.
Dazu zwei Beispiele:
Der Abstand zweier Punkte kann modelliert werden als:
\[
l_k + v_k = \sqrt{(x_i – x_j)^2 + (y_i – y_j)^2 + (z_i – z_j)^2}
\]
Theoretisch(!) könnte darauf nun eine Bedingungsgleichung abgeleitet werden, welche fordert, dass zwei Punkte als Lot übereinander liegen (ACHTUNG, NIEMALS SO VERWENDEN!):
\[
g(k) =\sqrt{(x_i – x_j)^2 + (y_i – y_j)^2} = 0
\]
Beobachtungs- und Bedingungsgleichungen bilden zusammen das funktionale Model. Sie beschreiben die mathematischen Abhängigkeiten zwischen Parametern.
Hinzu kommt das stochastische Modell. Dieses beschreibt statistische Merkmale von Messwerten und Abhängigkeiten zwischen ihnen. In diesem Modell werden z.B. die Genauigkeiten von Messwerten abgebildet.
Die Ausgleichungsrechnung dient bildhaft beschrieben dazu, ein geometrisches Abbild der Realität dieser immer weiter anzunähern im Sinne von Genauigkeit. Die Ausgleichungsrechnung ändert nicht die Topologie des Modells, sondern lediglich Parameter wie etwa die Werte von Punktkoordinaten oder Richtungsvektoren.
Das bedeutet, es muss vor einer Ausgleichungsrechnung als Basis bereits ein topologisch korrektes Modell vorliegen, mit geometrisch zumindest grob plausiblen Initialwerten (Näherungswerte).
Die verschiedenen Verfahren der Ausgleichungsrechnung unterscheiden sich in den mathematischen Methodiken, wie Beobachtungs- und Bedingungsgleichungen modelliert und dann von ihnen zur konkreten Änderung an der Geometrie gelangt wird.
Praktisch führt dieser Weg immer über eine Linearisierung der Beobachtungs- und Bedingungsgleichungen. Vor allen Beobachtungsgleichungen liegen in der Regel nichtlinear vor. Und genau hier liegt sozusagen der Pferdefuß. Die Linearisierung hat weitreichende Folgen für alle Schritte der Ausgleichungsrechnung.
Präzise formuliert wird das Ausgangsmodell durch Linearisierung in ein lineares Modell mit den ersten Ableitungen (Jacobi-Matrix) überführt. Um es bildhaft zu machen: Entscheidend ist, zu verstehen, in welche Richtung Parameter verändert werden müssen, damit sich das Modell Messungen annähert. Dazu wird das Problem lokal vereinfacht. Die Methode betrachtet, wie sich kleine Änderungen der Parameter auf das Ergebnis auswirken. Aus dieser Information ergibt sich eine Richtung, in der sich die Abweichungen verringern.
Daraus ergeben sich zwei Problemstellungen
- Bei Singularitäten ist das Verfahren „blind“. Auf einer Singularität kann keine Ableitung erstellt werden. Das Verfahren kennt den Widerspruch zwischen Modell und Beobachtung, weiß aber nicht, in welcher Richtung es diesen mindern kann.
- Bei nichtlinearen Gleichungen, und diese sind besonders bei den Beobachtungsgleichungen die Regel, weichen die lokalen Ableitungen im Funktionsverlauf stark ab. Solange das Modell noch weit vom Zielzustand entfernt ist, kann den lokalen Ableitungen „nur sehr bedingt getraut“ werden.
Damit ergibt sich eine zentrale Konsequenz: Die Qualität einer Ausgleichungsrechnung wird nicht allein durch die mathematische Methode bestimmt, sondern maßgeblich durch die Modellierung.
Insbesondere Singularitäten und starke Nichtlinearitäten sind keine Randphänomene, sondern treten genau in den Situationen auf, in denen das Modell eigentlich „richtig“ ist. Wird dies bei der Modellbildung nicht berücksichtigt, kann das Verfahren trotz korrekter Theorie in der Praxis versagen.
Für die weitere Betrachtung bedeutet das: Der Fokus liegt nicht auf der Methode der Ausgleichung, sondern auf der Frage, wie Beobachtungs- und Bedingungsgleichungen so formuliert werden, dass sie numerisch stabil lösbar bleiben.
Die folgenden Beiträge zeigen, wie sich diese Probleme durch geeignete Modellierung vermeiden lassen.