least-squares-adjustment
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende ÜberarbeitungNächste ÜberarbeitungBeide Seiten der Revision | ||
least-squares-adjustment [2018/03/11 18:43] – angelegt Michael Lösler | least-squares-adjustment [2018/05/19 21:36] – [Linearisierung der Beobachtungsgleichungen] Michael Lösler | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
====== Ausgleichung im Gauß-Markov-Modell ====== | ====== Ausgleichung im Gauß-Markov-Modell ====== | ||
- | Die Ausgleichung der erhobenen Daten in JAG3D erfolgt nach der Methode der kleinsten Verbesserungsquadratsumme im Gauß-Markov-Modell (GMM). Dieses Modell liegt immer dann vor, wenn die Beobachtungen | + | Die Ausgleichung der erhobenen Daten in JAG3D erfolgt nach der //Methode der kleinsten Verbesserungsquadratsumme// im Gauß-Markov-Modell (GMM). Dieses Modell liegt immer dann vor, wenn die Beobachtungen |
$$\Omega = \mathbf{v^TPv} = Min$$ | $$\Omega = \mathbf{v^TPv} = Min$$ | ||
- | worin '' | + | worin $\mathbf{v}$ die Verbesserungen und $\mathbf{P}$ die Gewichtsmatrix sind. Eine detaillierte Darstellungen des Gauß-Markov-Modell findet sich u.a. bei Jäger et al. (2005). |
===== Stochastisches Modell ===== | ===== Stochastisches Modell ===== | ||
- | Im Allgemeinen werden unterschiedliche Beobachtungstypen wie bspw. Strecken und Richtungen gemeinsam in die Ausgleichung als Beobachtungen eingeführt. Diese Beobachtungstypen unterscheiden sich i.d.R. in ihren Genauigkeiten. So sind bei der klassischen Tachymetrie die Winkelmessungen gegenüber der Streckenmessung häufig genauer. Aber auch Beobachtungen gleichen Typs können unterschiedlich genau ausfallen, wenn diese bspw. mit unterschiedlichen Instrumenten oder Verfahren registriert wurden. Das stochastisches Modell hat somit u.a. das Ziel, eine Balance zwischen den unterschiedlichen Beobachtungsgenauigkeiten herzustellen und somit den Einfluss von genaueren Messungen auf das Ausgleichungsergebnis zu erhöhen. Als Maßzahl für die Güte einer Beobachtung wird deren // | + | Im Allgemeinen werden unterschiedliche Beobachtungstypen wie bspw. Strecken und Richtungen gemeinsam in die Ausgleichung als Beobachtungen eingeführt. Diese Beobachtungstypen unterscheiden sich i.d.R. in ihren Genauigkeiten. So sind bei der klassischen Tachymetrie die Winkelmessungen gegenüber der Streckenmessung häufig genauer. Aber auch Beobachtungen gleichen Typs können unterschiedlich genau ausfallen, wenn diese bspw. mit unterschiedlichen Instrumenten oder Verfahren registriert wurden. Das stochastisches Modell hat somit u.a. das Ziel, eine Balance zwischen den unterschiedlichen Beobachtungsgenauigkeiten herzustellen und somit den Einfluss von genaueren Messungen auf das Ausgleichungsergebnis zu erhöhen. Als Maßzahl für die Güte einer Beobachtung wird deren // |
$$ | $$ | ||
Zeile 20: | Zeile 20: | ||
$$ | $$ | ||
- | Durch Invertieren der Kovarianzmatrix gelangt man zur o.g. Gewichtsmatrix | + | Durch Invertieren der Kovarianzmatrix gelangt man zur o.g. Gewichtsmatrix |
$$ | $$ | ||
Zeile 26: | Zeile 26: | ||
$$ | $$ | ||
- | Die Matrix | + | Die Matrix |
===== Funktionales Modell ===== | ===== Funktionales Modell ===== | ||
- | Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[# | + | Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[# |
$$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ | $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ | ||
- | worin '' | + | worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{l}$ ist. Die Normalgleichung ergibt sich zu: |
$$\mathbf{A^TPA\hat{x}} = \mathbf{A^TPl}$$ | $$\mathbf{A^TPA\hat{x}} = \mathbf{A^TPl}$$ | ||
Zeile 51: | Zeile 51: | ||
$$\mathbf{n} = \mathbf{A^TPl}$$ | $$\mathbf{n} = \mathbf{A^TPl}$$ | ||
- | Durch Inversion der Normalgleichungsmatrix | + | Durch Inversion der Normalgleichungsmatrix |
$$\mathbf{\hat{x}} = \mathbf{N^{-1}n} = \mathbf{Q_{\hat{x}\hat{x}}n}$$ | $$\mathbf{\hat{x}} = \mathbf{N^{-1}n} = \mathbf{Q_{\hat{x}\hat{x}}n}$$ | ||
- | Im [[# | + | Im [[# |
Die Anwendung des Unsicherheitsfortpflanzungsgesetz liefert auch die Kofaktormatrix der ausgeglichenen Beobachtungen | Die Anwendung des Unsicherheitsfortpflanzungsgesetz liefert auch die Kofaktormatrix der ausgeglichenen Beobachtungen | ||
Zeile 69: | Zeile 69: | ||
$$\hat{\sigma}^2_0 = \frac{\mathbf{v^TPv}} {n-u+d} = \frac{\Omega} {\tr \mathbf{R}}$$ | $$\hat{\sigma}^2_0 = \frac{\mathbf{v^TPv}} {n-u+d} = \frac{\Omega} {\tr \mathbf{R}}$$ | ||
- | worin ''// | + | worin $n$ der Anzahl der Beobachtungen, |
$$\mathbf{R} = \mathbf{Q_{vv}P}$$ | $$\mathbf{R} = \mathbf{Q_{vv}P}$$ | ||
- | Der Gesamtfreiheitsgrad | + | Der Gesamtfreiheitsgrad |
===== Linearisierung der Beobachtungsgleichungen ===== | ===== Linearisierung der Beobachtungsgleichungen ===== | ||
- | Mit Ausnahme von beobachteten [[least-squares-adjustment: | + | Mit Ausnahme von beobachteten [[:least-squares-adjustment: |
$$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ | $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ | ||
- | worin '' | + | worin $\mathbf{A}$ die Jacobi-Matrix mit den ersten partiellen Ableitungen und $\mathbf{H}$ die Hesse-Matrix mit den zweiten partiellen Ableitungen an der Entwicklungsstelle |
- | Diese Vorgehensweise ist zulässig, wenn die Näherungslösung der gesuchten Parameter | + | Diese Vorgehensweise ist zulässig, wenn die Näherungslösung der gesuchten Parameter |
$$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})\approx\phi(\mathbf{x_0})+\mathbf{A\hat x}$$ | $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})\approx\phi(\mathbf{x_0})+\mathbf{A\hat x}$$ | ||
- | Die Lösung dieser Gleichung liefert – Konvergenz vorausgesetzt – eine verbesserte Schätzung der Parameter | + | Die Lösung dieser Gleichung liefert – Konvergenz vorausgesetzt – eine verbesserte Schätzung der Parameter |
$$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | $$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | ||
- | Zur Bestimmung optimaler Parameter | + | Zur Bestimmung optimaler Parameter |
$$\mathbf{x}=\mathbf{x_0}$$ | $$\mathbf{x}=\mathbf{x_0}$$ | ||
Zeile 98: | Zeile 98: | ||
gilt. | gilt. | ||
- | Liegt die erste Näherung bereits sehr dich am Optimum, so sind nur wenige Iterationsschritte nötig um eine Lösung zu erzielen. Bei schlecht gewählten Näherungen sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem bei schlecht gewählten Näherungswerten sogar und liefert eine falsche oder keine Lösung. Die Güte der [[ui:preprocessing#bestimmung_von_naeherungskoordinaten|Näherungskoordinaten]] ist somit entscheidend für das Konvergenzverhalten. | + | Liegt die erste Näherung bereits sehr dich am Optimum, so sind nur wenige Iterationsschritte nötig um eine Lösung zu erzielen. Bei schlecht gewählten Näherungen sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem bei schlecht gewählten Näherungswerten sogar und liefert eine falsche oder keine Lösung. Die Güte der [[user-interface:pre-processing#bestimmung_von_naherungskoordinaten|Näherungskoordinaten]] ist somit entscheidend für das Konvergenzverhalten. |
least-squares-adjustment.txt · Zuletzt geändert: 2023/08/10 16:03 von Michael Lösler