Java·Applied·Geodesy·3D

Least-Squares Adjustment Software for Geodetic Sciences

Benutzer-Werkzeuge

Webseiten-Werkzeuge


least-squares-adjustment

Ausgleichung im Gauß-Markov-Modell

Die Ausgleichung der erhobenen Daten in JAG3D erfolgt nach der Methode der kleinsten Verbesserungsquadratsumme im Gauß-Markov-Modell (GMM). Dieses Modell liegt immer dann vor, wenn die Beobachtungen $\mathbf{l}$ als Funktion der unbekannten Parameter $\mathbf{x}$ dargestellt werden können. Das Gauß-Markov-Modell gilt als Standardmodell in der geodätischen Netzauswertung, da sich alle Beobachtungsgleichungen nach diesem Schema formulieren lassen. Die Zielfunktion lautet

$$\Omega = \mathbf{v^TPv} = Min$$

worin $\mathbf{v}$ die Verbesserungen und $\mathbf{P}$ die Gewichtsmatrix sind. Eine detaillierte Darstellungen des Gauß-Markov-Modell findet sich u.a. bei Jäger et al. (2005).

Stochastisches Modell

Im Allgemeinen werden unterschiedliche Beobachtungstypen wie bspw. Strecken und Richtungen gemeinsam in die Ausgleichung als Beobachtungen eingeführt. Diese Beobachtungstypen unterscheiden sich i.d.R. in ihren Genauigkeiten. So sind bei der klassischen Tachymetrie die Winkelmessungen gegenüber der Streckenmessung häufig genauer. Aber auch Beobachtungen gleichen Typs können unterschiedlich genau ausfallen, wenn diese bspw. mit unterschiedlichen Instrumenten oder Verfahren registriert wurden. Das stochastisches Modell hat somit u.a. das Ziel, eine Balance zwischen den unterschiedlichen Beobachtungsgenauigkeiten herzustellen und somit den Einfluss von genaueren Messungen auf das Ausgleichungsergebnis zu erhöhen. Als Maßzahl für die Güte einer Beobachtung wird deren a-priori Standardunsicherheit $\sigma$ verwendet und in der sogenannten Kovarianzmatrix $\mathbf{C_{ll}}$ zusammengefasst. Wird von unabhängigen Beobachtungen ausgegangen, so ist in dieser Matrix lediglich die Hauptdiagonale besetzt.

$$ \mathbf{C_{ll}} = \begin{pmatrix} \sigma_1^2 & 0 & \dots & 0 \\ 0 & \sigma_i^2 & \dots & 0 \\ \vdots & 0 & \ddots & \vdots \\ 0 & \dots & 0 & \sigma_n^2 \end{pmatrix} $$

Durch Invertieren der Kovarianzmatrix gelangt man zur o.g. Gewichtsmatrix $\mathbf{P}$. Der vorgezogene Varianzfaktor $\sigma_0^2$ ist ein beliebig wählbarer Faktor und kann dazu verwendet werden, den Rechenaufwand zu minimieren. In JAG3D wird der Standardwert $\sigma_0 = 1$ verwendet.

$$ \mathbf{C_{ll}} = \sigma_0^2 \mathbf{Q_{ll}} = \sigma_0^2 \mathbf{P^{-1}} $$

Die Matrix $\mathbf{Q_{ll}}$ entspricht hierbei der Kofaktormatrix. Sie unterscheidet sich von der a-priori Varianz-Kovarianz-Matrix $\mathbf{C_{ll}}$ lediglich um den Vorfaktor $\sigma_0^2$ und ist mit $\mathbf{C_{ll}}$ identisch, wenn $\sigma_0 = 1$ gilt.

Funktionales Modell

Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. linearisierte Zusammenhang zwischen den (gekürzten) Beobachtungen $\mathbf{l}$ und den zu schätzenden Unbekannten $\mathbf{\hat x}$ abgebildet

$$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$

worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{l}$ ist. Die Normalgleichung ergibt sich zu:

$$\mathbf{A^TPA\hat{x}} = \mathbf{A^TPl}$$

bzw.

$$\mathbf{N\hat{x}} = \mathbf{n}$$

mit der Normalgleichungsmatrix

$$\mathbf{N} = \mathbf{A^TPA}$$

und dem Absolutgliedvektor

$$\mathbf{n} = \mathbf{A^TPl}$$

Durch Inversion der Normalgleichungsmatrix $\mathbf{N}$ erhält man den Lösungsvektor $\mathbf{\hat x}$ der unbekannten Parameter und deren Kofaktormatrix $\mathbf{Q_{\hat{x}\hat{x}}}$.

$$\mathbf{\hat{x}} = \mathbf{N^{-1}n} = \mathbf{Q_{\hat{x}\hat{x}}n}$$

Im linearisierten Modell enthält der geschätzte Lösungsvektor der unbekannten Parameter lediglich die Zuschläge zur Entwicklungsstelle $\mathbf{x}_0$.

Die Anwendung des Unsicherheitsfortpflanzungsgesetz liefert auch die Kofaktormatrix der ausgeglichenen Beobachtungen

$$\mathbf{Q_{\hat{l}\hat{l}}} = \mathbf{AQ_{\hat{x}\hat{x}}A^T}$$

und die Kofaktormatrix der Verbesserungen

$$\mathbf{Q_{vv}} = \mathbf{Q_{ll} - Q_{\hat{l}\hat{l}}}$$

Die geschätzten Kovarianzmatrizen für die Unbekannten, die Beobachtungen und die Verbesserungen ergeben sich aus der Multiplikation der entsprechenden Kofaktormatrizen mit dem a-posteriori Varianzfaktor

$$\hat{\sigma}^2_0 = \frac{\mathbf{v^TPv}} {n-u+d} = \frac{\Omega} {\tr \mathbf{R}}$$

worin $n$ der Anzahl der Beobachtungen, $u$ der Anzahl der Unbekannten und $d$ einen möglichen Datumsdefekt beschreiben. Die Matrix $\mathbf{R}$ wird als Redundanzmatrix bezeichnet.

$$\mathbf{R} = \mathbf{Q_{vv}P}$$

Der Gesamtfreiheitsgrad $f$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente – der sogenannten Spur (engl. Trace) einer Matrix - der Redundanzmatrix $\mathbf{R}$ abgeleitet werden. Es gilt daher auch der Zusammenhang $f = n - u + d = \tr \mathbf{R}$.

Linearisierung der Beobachtungsgleichungen

Mit Ausnahme von beobachteten Höhenunterschieden sind die Beobachtungsgleichungen für terrestrische Messungen und GNSS-Beobachtungen in der Netzausgleichung nicht-linear. Da der Ausgleichungsalgorithmus – formuliert als Gauß-Markov-Modell –, jedoch ein lineares Modell voraussetzt, sind die nicht-linearen Beobachtungsgleichungen zu linearisieren. Hierzu werden die Beobachtungsgleichungen $\phi$ am Entwicklungspunkt $\mathbf{x}_0$ unter Vernachlässigung von Termen höherer Ordnung mittels Taylorreihe entwickelt,

$$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + \ldots$$

worin $\mathbf{A}$ die Jacobi-Matrix mit den ersten partiellen Ableitungen und $\mathbf{H}$ die Hesse-Matrix mit den zweiten partiellen Ableitungen an der Entwicklungsstelle $\mathbf{x}_0$ sind und $\otimes$ den Kroneckerprodukt-Operator symbolisiert.

Diese Vorgehensweise ist zulässig, wenn die Näherungslösung der gesuchten Parameter $\mathbf{x}_0$ bereits sehr dicht an der tatsächlichen Lösung von $\mathbf{x}$ liegt und somit die Terme höherer Ordnung gegenüber dem linearen und dem konstanten Term vernachlässigt werden können.

$$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})\approx\phi(\mathbf{x_0})+\mathbf{A\hat x}$$

Die Lösung dieser Gleichung liefert – Konvergenz vorausgesetzt – eine verbesserte Schätzung der Parameter $\mathbf{x}$ gegenüber den zuvor gewählten Näherungswerten $\mathbf{x}_0$.

$$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$

Zur Bestimmung optimaler Parameter $\mathbf{x}$ lässt sich somit eine einfache Iterationsvorschrift formulieren: Die Taylorreihenentwicklung der Beobachtungsgleichung $\phi$ wird solange an der jeweils verbesserten Entwicklungsstelle $\mathbf{x}_0 := \mathbf{x}$ durchgeführt, bis der Zuschlagsvektor ein Nullvektor ist und somit

$$\mathbf{x}=\mathbf{x_0}$$

gilt.

Liegt die erste Näherung bereits sehr dich am Optimum, so sind nur wenige Iterationsschritte nötig um eine Lösung zu erzielen. Bei schlecht gewählten Näherungen sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem bei schlecht gewählten Näherungswerten sogar und liefert eine falsche oder keine Lösung. Die Güte der Näherungskoordinaten ist somit entscheidend für das Konvergenzverhalten.

least-squares-adjustment.txt · Zuletzt geändert: 2018/05/19 21:36 von Michael Lösler