least-squares-adjustment
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Nächste Überarbeitung | Vorhergehende Überarbeitung | ||
least-squares-adjustment [2018/03/11 18:32] – angelegt Michael Lösler | least-squares-adjustment [2023/08/10 16:03] (aktuell) – [Parameterschätzung] Michael Lösler | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
====== Ausgleichung im Gauß-Markov-Modell ====== | ====== Ausgleichung im Gauß-Markov-Modell ====== | ||
- | Die Ausgleichung der erhobenen Daten in JAG3D erfolgt nach der Methode der kleinsten Verbesserungsquadratsumme im Gauß-Markov-Modell (GMM). Dieses Modell liegt immer dann vor, wenn die Beobachtungen | + | Die Ausgleichung der erhobenen Daten in JAG3D erfolgt nach der //Methode der kleinsten Verbesserungsquadratsumme// im Gauß-Markov-Modell (GMM). Dieses Modell liegt immer dann vor, wenn die Beobachtungen |
$$\Omega = \mathbf{v^TPv} = Min$$ | $$\Omega = \mathbf{v^TPv} = Min$$ | ||
- | worin '' | + | worin $\mathbf{v}$ die Verbesserungen und $\mathbf{P}$ die Gewichtsmatrix sind. Eine detaillierte Darstellungen des Gauß-Markov-Modell findet sich u.a. bei Jäger et al. (2005). |
===== Stochastisches Modell ===== | ===== Stochastisches Modell ===== | ||
- | Im Allgemeinen werden unterschiedliche Beobachtungstypen wie bspw. Strecken und Richtungen gemeinsam in die Ausgleichung als Beobachtungen eingeführt. Diese Beobachtungstypen unterscheiden sich i.d.R. in ihren Genauigkeiten. So sind bei der klassischen Tachymetrie die Winkelmessungen gegenüber der Streckenmessung häufig genauer. Aber auch Beobachtungen gleichen Typs können unterschiedlich genau ausfallen, wenn diese bspw. mit unterschiedlichen Instrumenten oder Verfahren registriert wurden. Das stochastisches Modell hat somit u.a. das Ziel, eine Balance zwischen den unterschiedlichen Beobachtungsgenauigkeiten herzustellen und somit den Einfluss von genaueren Messungen auf das Ausgleichungsergebnis zu erhöhen. Als Maßzahl für die Güte einer Beobachtung wird deren // | + | Im Allgemeinen werden unterschiedliche Beobachtungstypen wie bspw. Strecken und Richtungen gemeinsam in die Ausgleichung als Beobachtungen eingeführt. Diese Beobachtungstypen unterscheiden sich i.d.R. in ihren Genauigkeiten. So sind bei der klassischen Tachymetrie die Winkelmessungen gegenüber der Streckenmessung häufig genauer. Aber auch Beobachtungen gleichen Typs können unterschiedlich genau ausfallen, wenn diese bspw. mit unterschiedlichen Instrumenten oder Verfahren registriert wurden. Das stochastisches Modell hat somit u.a. das Ziel, eine Balance zwischen den unterschiedlichen Beobachtungsgenauigkeiten herzustellen und somit den Einfluss von genaueren Messungen auf das Ausgleichungsergebnis zu erhöhen. Als Maßzahl für die Güte einer Beobachtung wird deren // |
$$ | $$ | ||
Zeile 20: | Zeile 20: | ||
$$ | $$ | ||
- | Durch Invertieren der Kovarianzmatrix gelangt man zur o.g. Gewichtsmatrix | + | Durch Invertieren der Kovarianzmatrix gelangt man zur o.g. Gewichtsmatrix |
$$ | $$ | ||
Zeile 26: | Zeile 26: | ||
$$ | $$ | ||
- | Die Matrix | + | Die Matrix |
===== Funktionales Modell ===== | ===== Funktionales Modell ===== | ||
- | Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[# | + | Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[# |
$$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ | $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ | ||
- | worin '' | + | worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{v}$ die Beobachtungsresiduen sind. Das hier verwendete funktionale Modell setzt voraus, dass jede Beobachtung $l_i$ als eigenständige Funktion |
+ | |||
+ | ===== Parameterschätzung ===== | ||
+ | |||
+ | Die Normalgleichung ergibt sich zu: | ||
$$\mathbf{A^TPA\hat{x}} = \mathbf{A^TPl}$$ | $$\mathbf{A^TPA\hat{x}} = \mathbf{A^TPl}$$ | ||
Zeile 51: | Zeile 55: | ||
$$\mathbf{n} = \mathbf{A^TPl}$$ | $$\mathbf{n} = \mathbf{A^TPl}$$ | ||
- | Durch Inversion | + | Durch Auflösen des Normalgleichungssystems nach $\mathbf{\hat x}$ ergibt sich der Lösungsvektor der unbekannten Parameter |
+ | |||
+ | $$\mathbf{\hat{x}} = \mathbf{N^{-1}n}$$ | ||
+ | |||
+ | welcher aus der lineare Funktion | ||
+ | |||
+ | $$\mathbf{\hat{x}} = \mathbf{Fl}$$ | ||
+ | |||
+ | resultiert, worin $\mathbf{F} = \left(\mathbf{A^TPA}\right)^{-1} \mathbf{A^TP}$ die Funktionalmatrix der linearen Transformation ist. | ||
+ | |||
+ | Die geschätzten Beobachtungsverbesserungen lauten | ||
+ | |||
+ | $$\mathbf{v} = \mathbf{A\hat{x}-l} = \left(\mathbf{AF-I}\right)\mathbf{l}$$ | ||
+ | |||
+ | und lassen sich ebenfalls als lineare Funktion von $\mathbf{l}$ darstellen. | ||
+ | |||
+ | Im [[# | ||
- | $$\mathbf{\hat{x}} = \mathbf{N^{-1}n} = \mathbf{Q_{\hat{x}\hat{x}}n}$$ | + | Die Anwendung des Unsicherheitsfortpflanzungsgesetzes liefert neben der Kofaktormatrix der ausgeglichenen Parameter |
- | Im [[# | + | $$\mathbf{Q_{\hat{x}\hat{x}}} = \mathbf{FQ_{ll}F^T} = \mathbf{N^{-1}}$$ |
- | Die Anwendung des Unsicherheitsfortpflanzungsgesetz liefert | + | auch die Kofaktormatrix der ausgeglichenen Beobachtungen |
$$\mathbf{Q_{\hat{l}\hat{l}}} = \mathbf{AQ_{\hat{x}\hat{x}}A^T}$$ | $$\mathbf{Q_{\hat{l}\hat{l}}} = \mathbf{AQ_{\hat{x}\hat{x}}A^T}$$ | ||
Zeile 65: | Zeile 85: | ||
$$\mathbf{Q_{vv}} = \mathbf{Q_{ll} - Q_{\hat{l}\hat{l}}}$$ | $$\mathbf{Q_{vv}} = \mathbf{Q_{ll} - Q_{\hat{l}\hat{l}}}$$ | ||
- | Die geschätzten Kovarianzmatrizen für die Unbekannten, | + | Die geschätzten Kovarianzmatrizen für die Unbekannten, |
$$\hat{\sigma}^2_0 = \frac{\mathbf{v^TPv}} {n-u+d} = \frac{\Omega} {\tr \mathbf{R}}$$ | $$\hat{\sigma}^2_0 = \frac{\mathbf{v^TPv}} {n-u+d} = \frac{\Omega} {\tr \mathbf{R}}$$ | ||
- | worin ''// | + | worin $n$ der Anzahl der Beobachtungen, |
$$\mathbf{R} = \mathbf{Q_{vv}P}$$ | $$\mathbf{R} = \mathbf{Q_{vv}P}$$ | ||
- | Der Gesamtfreiheitsgrad | + | Der Gesamtfreiheitsgrad |
===== Linearisierung der Beobachtungsgleichungen ===== | ===== Linearisierung der Beobachtungsgleichungen ===== | ||
- | Mit Ausnahme von beobachteten [[javagraticule3d: | + | Mit Ausnahme von beobachteten [[: |
$$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ | $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ | ||
- | worin '' | + | worin $\mathbf{A}$ die Jacobi-Matrix mit den ersten partiellen Ableitungen und $\mathbf{H}$ die Hesse-Matrix mit den zweiten partiellen Ableitungen an der Entwicklungsstelle |
- | Diese Vorgehensweise ist zulässig, wenn die Näherungslösung der gesuchten Parameter | + | Diese Vorgehensweise ist zulässig, wenn die Näherungslösung der gesuchten Parameter |
$$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})\approx\phi(\mathbf{x_0})+\mathbf{A\hat x}$$ | $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})\approx\phi(\mathbf{x_0})+\mathbf{A\hat x}$$ | ||
- | Die Lösung dieser Gleichung liefert – Konvergenz vorausgesetzt – eine verbesserte Schätzung der Parameter | + | Die Lösung dieser Gleichung liefert – Konvergenz vorausgesetzt – eine verbesserte Schätzung der Parameter |
$$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | $$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | ||
- | Zur Bestimmung optimaler Parameter | + | Zur Bestimmung optimaler Parameter |
$$\mathbf{x}=\mathbf{x_0}$$ | $$\mathbf{x}=\mathbf{x_0}$$ | ||
Zeile 98: | Zeile 118: | ||
gilt. | gilt. | ||
- | Liegt die erste Näherung bereits sehr dich am Optimum, so sind nur wenige Iterationsschritte nötig um eine Lösung zu erzielen. Bei schlecht | + | Liegt die erste Näherung bereits sehr dicht am Optimum, so sind nur wenige Iterationsschritte nötig, um eine Lösung zu erzielen. Bei ungünstig |
least-squares-adjustment.txt · Zuletzt geändert: 2023/08/10 16:03 von Michael Lösler