least-squares-adjustment
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende Überarbeitung | Nächste ÜberarbeitungBeide Seiten der Revision | ||
least-squares-adjustment [2018/03/11 18:34] – gelöscht Michael Lösler | least-squares-adjustment [2018/03/11 18:40] – angelegt Michael Lösler | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
+ | ====== Ausgleichung im Gauß-Markov-Modell ====== | ||
+ | Die Ausgleichung der erhobenen Daten in JAG3D erfolgt nach der Methode der kleinsten Verbesserungsquadratsumme im Gauß-Markov-Modell (GMM). Dieses Modell liegt immer dann vor, wenn die Beobachtungen '' | ||
+ | |||
+ | $$\Omega = \mathbf{v^TPv} = Min$$ | ||
+ | |||
+ | worin '' | ||
+ | |||
+ | ===== Stochastisches Modell ===== | ||
+ | |||
+ | Im Allgemeinen werden unterschiedliche Beobachtungstypen wie bspw. Strecken und Richtungen gemeinsam in die Ausgleichung als Beobachtungen eingeführt. Diese Beobachtungstypen unterscheiden sich i.d.R. in ihren Genauigkeiten. So sind bei der klassischen Tachymetrie die Winkelmessungen gegenüber der Streckenmessung häufig genauer. Aber auch Beobachtungen gleichen Typs können unterschiedlich genau ausfallen, wenn diese bspw. mit unterschiedlichen Instrumenten oder Verfahren registriert wurden. Das stochastisches Modell hat somit u.a. das Ziel, eine Balance zwischen den unterschiedlichen Beobachtungsgenauigkeiten herzustellen und somit den Einfluss von genaueren Messungen auf das Ausgleichungsergebnis zu erhöhen. Als Maßzahl für die Güte einer Beobachtung wird deren // | ||
+ | |||
+ | $$ | ||
+ | \mathbf{C_{ll}} = \begin{pmatrix} | ||
+ | \sigma_1^2 & | ||
+ | 0 & \sigma_i^2 & \dots & 0 \\ | ||
+ | \vdots & | ||
+ | 0 & \dots & 0 & \sigma_n^2 | ||
+ | \end{pmatrix} | ||
+ | $$ | ||
+ | |||
+ | Durch Invertieren der Kovarianzmatrix gelangt man zur o.g. Gewichtsmatrix '' | ||
+ | |||
+ | $$ | ||
+ | \mathbf{C_{ll}} = \sigma_0^2 \mathbf{Q_{ll}} = \sigma_0^2 \mathbf{P^{-1}} | ||
+ | $$ | ||
+ | |||
+ | Die Matrix '' | ||
+ | |||
+ | |||
+ | ===== Funktionales Modell ===== | ||
+ | |||
+ | Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[# | ||
+ | |||
+ | $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ | ||
+ | |||
+ | worin '' | ||
+ | |||
+ | $$\mathbf{A^TPA\hat{x}} = \mathbf{A^TPl}$$ | ||
+ | |||
+ | bzw. | ||
+ | |||
+ | $$\mathbf{N\hat{x}} = \mathbf{n}$$ | ||
+ | |||
+ | mit der Normalgleichungsmatrix | ||
+ | |||
+ | $$\mathbf{N} = \mathbf{A^TPA}$$ | ||
+ | |||
+ | und dem Absolutgliedvektor | ||
+ | |||
+ | $$\mathbf{n} = \mathbf{A^TPl}$$ | ||
+ | |||
+ | Durch Inversion der Normalgleichungsmatrix '' | ||
+ | |||
+ | $$\mathbf{\hat{x}} = \mathbf{N^{-1}n} = \mathbf{Q_{\hat{x}\hat{x}}n}$$ | ||
+ | |||
+ | Im [[# | ||
+ | |||
+ | Die Anwendung des Unsicherheitsfortpflanzungsgesetz liefert auch die Kofaktormatrix der ausgeglichenen Beobachtungen | ||
+ | |||
+ | $$\mathbf{Q_{\hat{l}\hat{l}}} = \mathbf{AQ_{\hat{x}\hat{x}}A^T}$$ | ||
+ | |||
+ | und die Kofaktormatrix der Verbesserungen | ||
+ | |||
+ | $$\mathbf{Q_{vv}} = \mathbf{Q_{ll} - Q_{\hat{l}\hat{l}}}$$ | ||
+ | |||
+ | Die geschätzten Kovarianzmatrizen für die Unbekannten, | ||
+ | |||
+ | $$\hat{\sigma}^2_0 = \frac{\mathbf{v^TPv}} {n-u+d} = \frac{\Omega} {\tr \mathbf{R}}$$ | ||
+ | |||
+ | worin ''// | ||
+ | |||
+ | $$\mathbf{R} = \mathbf{Q_{vv}P}$$ | ||
+ | |||
+ | Der Gesamtfreiheitsgrad '' | ||
+ | |||
+ | |||
+ | ===== Linearisierung der Beobachtungsgleichungen ===== | ||
+ | |||
+ | Mit Ausnahme von beobachteten [[javagraticule3d: | ||
+ | |||
+ | $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ | ||
+ | |||
+ | worin '' | ||
+ | |||
+ | Diese Vorgehensweise ist zulässig, wenn die Näherungslösung der gesuchten Parameter '' | ||
+ | |||
+ | $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})\approx\phi(\mathbf{x_0})+\mathbf{A\hat x}$$ | ||
+ | |||
+ | Die Lösung dieser Gleichung liefert – Konvergenz vorausgesetzt – eine verbesserte Schätzung der Parameter '' | ||
+ | |||
+ | $$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | ||
+ | |||
+ | Zur Bestimmung optimaler Parameter '' | ||
+ | |||
+ | $$\mathbf{x}=\mathbf{x_0}$$ | ||
+ | |||
+ | gilt. | ||
+ | |||
+ | Liegt die erste Näherung bereits sehr dich am Optimum, so sind nur wenige Iterationsschritte nötig um eine Lösung zu erzielen. Bei schlecht gewählten Näherungen sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem bei schlecht gewählten Näherungswerten sogar und liefert eine falsche oder keine Lösung. Die Güte der [[javagraticule3d: |
least-squares-adjustment.txt · Zuletzt geändert: 2023/08/10 16:03 von Michael Lösler