Java·Applied·Geodesy·3D

Least-Squares Adjustment Software for Geodetic Sciences

Benutzer-Werkzeuge

Webseiten-Werkzeuge


least-squares-adjustment

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
least-squares-adjustment [2019/04/06 16:32] – [Funktionales Modell] Michael Löslerleast-squares-adjustment [2023/08/10 16:03] (aktuell) – [Parameterschätzung] Michael Lösler
Zeile 31: Zeile 31:
 ===== Funktionales Modell ===== ===== Funktionales Modell =====
  
-Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[#linearisierung_der_beobachtungsgleichungen|linearisierte Zusammenhang]] zwischen den (gekürzten) [[least-squares-adjustment:observation|Beobachtungen]] $\mathbf{l}$ und den zu schätzenden Unbekannten $\mathbf{\hat x}$ abgebildet+Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[#linearisierung_der_beobachtungsgleichungen|linearisierte Zusammenhang]] zwischen den (gekürzten) [[least-squares-adjustment:observation|Beobachtungen]] $\mathbf{l}$ und den zu schätzenden (Zuschlägen der) Unbekannten $\mathbf{\hat x}$ abgebildet
  
 $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$
Zeile 55: Zeile 55:
 $$\mathbf{n} = \mathbf{A^TPl}$$ $$\mathbf{n} = \mathbf{A^TPl}$$
  
-Durch Inversion der Normalgleichungsmatrix $\mathbf{N}$ erhält man den Lösungsvektor $\mathbf{\hat x}$ der unbekannten Parameter und deren Kofaktormatrix $\mathbf{Q_{\hat{x}\hat{x}}}$.+Durch Auflösen des Normalgleichungssystems nach $\mathbf{\hat x}$ ergibt sich der Lösungsvektor der unbekannten Parameter
  
-$$\mathbf{\hat{x}} = \mathbf{N^{-1}n} \mathbf{Q_{\hat{x}\hat{x}}n}$$+$$\mathbf{\hat{x}} = \mathbf{N^{-1}n}$$ 
 + 
 +welcher aus der lineare Funktion 
 + 
 +$$\mathbf{\hat{x}} = \mathbf{Fl}$$ 
 + 
 +resultiert, worin $\mathbf{F} = \left(\mathbf{A^TPA}\right)^{-1} \mathbf{A^TP}$ die Funktionalmatrix der linearen Transformation ist. 
 + 
 +Die geschätzten Beobachtungsverbesserungen lauten 
 + 
 +$$\mathbf{v} = \mathbf{A\hat{x}-l= \left(\mathbf{AF-I}\right)\mathbf{l}$$ 
 + 
 +und lassen sich ebenfalls als lineare Funktion von $\mathbf{l}$ darstellen.
  
 Im [[#linearisierung_der_beobachtungsgleichungen|linearisierten Modell]] enthält der geschätzte Lösungsvektor der unbekannten Parameter lediglich die Zuschläge zur Entwicklungsstelle $\mathbf{x}_0$. Im [[#linearisierung_der_beobachtungsgleichungen|linearisierten Modell]] enthält der geschätzte Lösungsvektor der unbekannten Parameter lediglich die Zuschläge zur Entwicklungsstelle $\mathbf{x}_0$.
  
-Die Anwendung des Unsicherheitsfortpflanzungsgesetz liefert auch die Kofaktormatrix der ausgeglichenen Beobachtungen +Die Anwendung des Unsicherheitsfortpflanzungsgesetzes liefert neben der Kofaktormatrix der ausgeglichenen Parameter  
 + 
 +$$\mathbf{Q_{\hat{x}\hat{x}}} = \mathbf{FQ_{ll}F^T} = \mathbf{N^{-1}}$$ 
 + 
 +auch die Kofaktormatrix der ausgeglichenen Beobachtungen 
  
 $$\mathbf{Q_{\hat{l}\hat{l}}} = \mathbf{AQ_{\hat{x}\hat{x}}A^T}$$ $$\mathbf{Q_{\hat{l}\hat{l}}} = \mathbf{AQ_{\hat{x}\hat{x}}A^T}$$
Zeile 69: Zeile 85:
 $$\mathbf{Q_{vv}} = \mathbf{Q_{ll} - Q_{\hat{l}\hat{l}}}$$ $$\mathbf{Q_{vv}} = \mathbf{Q_{ll} - Q_{\hat{l}\hat{l}}}$$
  
-Die geschätzten Kovarianzmatrizen für die Unbekannten, die Beobachtungen und die Verbesserungen ergeben sich aus der Multiplikation der entsprechenden Kofaktormatrizen mit dem //a-posteriori// Varianzfaktor+Die geschätzten Kovarianzmatrizen für die Unbekannten, die ausgeglichenen Beobachtungen und die Verbesserungen ergeben sich aus der Multiplikation der entsprechenden Kofaktormatrizen mit dem Varianzfaktor $\sigma^2_0$ der Gewichtseinheit. Die Schätzung für $\sigma^2_0$ wird häufig als //a-posteriori// Varianzfaktor bezeichnet und ergibt sich aus
  
 $$\hat{\sigma}^2_0 = \frac{\mathbf{v^TPv}} {n-u+d} = \frac{\Omega} {\tr \mathbf{R}}$$ $$\hat{\sigma}^2_0 = \frac{\mathbf{v^TPv}} {n-u+d} = \frac{\Omega} {\tr \mathbf{R}}$$
  
-worin $n$ der Anzahl der Beobachtungen, $u$ der Anzahl der Unbekannten und $d$ einen möglichen Datumsdefekt beschreiben. Die Matrix $\mathbf{R}$ wird als Redundanzmatrix bezeichnet.+worin $n$ der Anzahl der Beobachtungen, $u$ der Anzahl der Unbekannten und $d$ einen möglichen Datumsdefekt beschreiben. Die Matrix $\mathbf{R}$ wird Redundanzmatrix genannt.
  
 $$\mathbf{R} = \mathbf{Q_{vv}P}$$ $$\mathbf{R} = \mathbf{Q_{vv}P}$$
  
-Der Gesamtfreiheitsgrad $f$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente – der sogenannten Spur (engl. Trace) einer Matrix - der [[:least-squares-adjustment:reliability#redundanzanteil|Redundanzmatrix]] $\mathbf{R}$ abgeleitet werden. Es gilt daher auch der Zusammenhang $f = n - u + d = \tr \mathbf{R}$.+Der Gesamtfreiheitsgrad $f$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente der sogenannten Spur (engl. Trace) einer Matrix - der [[:least-squares-adjustment:reliability#redundanzanteil|Redundanzmatrix]] $\mathbf{R}$ abgeleitet werden, sofern die Beobachtungen unabhängig voneinander sind. Es gilt in diesem Fall $f = n - u + d = \tr \mathbf{R}$.
  
  
Zeile 102: Zeile 118:
 gilt. gilt.
  
-Liegt die erste Näherung bereits sehr dich am Optimum, so sind nur wenige Iterationsschritte nötig um eine Lösung zu erzielen. Bei schlecht gewählten Näherungen sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem bei schlecht gewählten Näherungswerten sogar und liefert eine falsche oder keine Lösung. Die Güte der [[user-interface:pre-processing#bestimmung_von_naherungskoordinaten|Näherungskoordinaten]] ist somit entscheidend für das Konvergenzverhalten.+Liegt die erste Näherung bereits sehr dicht am Optimum, so sind nur wenige Iterationsschritte nötigum eine Lösung zu erzielen. Bei ungünstig gewählten Näherungswerten sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem sogar und liefert eine falsche bzw. unbrauchbare Lösung. Die Güte der [[user-interface:pre-processing#bestimmung_von_naherungskoordinaten|Näherungskoordinaten]] ist somit entscheidend für das Konvergenzverhalten.
least-squares-adjustment.1554561161.txt.gz · Zuletzt geändert: 2019/04/06 16:32 von Michael Lösler