Java·Applied·Geodesy·3D

Least-Squares Adjustment Software for Geodetic Sciences

Benutzer-Werkzeuge

Webseiten-Werkzeuge


least-squares-adjustment

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
Nächste ÜberarbeitungBeide Seiten der Revision
least-squares-adjustment [2018/03/11 21:11] Michael Löslerleast-squares-adjustment [2022/09/21 17:17] – [Parameterschätzung] Michael Lösler
Zeile 31: Zeile 31:
 ===== Funktionales Modell ===== ===== Funktionales Modell =====
  
-Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[#linearisierung_der_beobachtungsgleichungen|linearisierte Zusammenhang]] zwischen den (gekürzten) Beobachtungen $\mathbf{l}$ und den zu schätzenden Unbekannten $\mathbf{\hat x}$ abgebildet+Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[#linearisierung_der_beobachtungsgleichungen|linearisierte Zusammenhang]] zwischen den (gekürzten) [[least-squares-adjustment:observation|Beobachtungen]] $\mathbf{l}$ und den zu schätzenden Unbekannten $\mathbf{\hat x}$ abgebildet
  
 $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$
  
-worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{l}$ ist. Die Normalgleichung ergibt sich zu:+worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{v}$ die Beobachtungsresiduen sindDas hier verwendete funktionale Modell setzt voraus, dass jede Beobachtung $l_i$ als eigenständige Funktion der unbekannten Parameter $l_i = \mathrm{f(\mathbf{\hat x})}$ beschrieben werden kann. In der geodätischen Literatur wird dieses Modell als //Gauß-Markov Modell// bezeichnet. 
 + 
 +===== Parameterschätzung ===== 
 + 
 +Die Normalgleichung ergibt sich zu:
  
 $$\mathbf{A^TPA\hat{x}} = \mathbf{A^TPl}$$ $$\mathbf{A^TPA\hat{x}} = \mathbf{A^TPl}$$
Zeile 51: Zeile 55:
 $$\mathbf{n} = \mathbf{A^TPl}$$ $$\mathbf{n} = \mathbf{A^TPl}$$
  
-Durch Inversion der Normalgleichungsmatrix $\mathbf{N}$ erhält man den Lösungsvektor $\mathbf{\hat x}$ der unbekannten Parameter und deren Kofaktormatrix $\mathbf{Q_{\hat{x}\hat{x}}}$.+Durch Inversion der Normalgleichungsmatrix $\mathbf{N}$ erhält man den Lösungsvektor $\mathbf{\hat x}$ der unbekannten Parameter
  
-$$\mathbf{\hat{x}} = \mathbf{N^{-1}n} \mathbf{Q_{\hat{x}\hat{x}}n}$$+$$\mathbf{\hat{x}} = \mathbf{N^{-1}n}$$ 
 + 
 +welcher aus der lineare Funktion 
 + 
 +$$\mathbf{\hat{x}} = \mathbf{Fl}$$ 
 + 
 +resultiert, worin $\mathbf{F} = \left(\mathbf{A^TPA}\right)^{-1} \mathbf{A^TP}$. 
 + 
 +Die geschätzten Beobachtungsverbesserungen lauten 
 + 
 +$$\mathbf{v} = \mathbf{A\hat{x}-l= \left(\mathbf{AF-I}\right)\mathbf{l}$$ 
 + 
 +und lassen sich als lineare Funktion von $\mathbf{l}$ darstellen.
  
 Im [[#linearisierung_der_beobachtungsgleichungen|linearisierten Modell]] enthält der geschätzte Lösungsvektor der unbekannten Parameter lediglich die Zuschläge zur Entwicklungsstelle $\mathbf{x}_0$. Im [[#linearisierung_der_beobachtungsgleichungen|linearisierten Modell]] enthält der geschätzte Lösungsvektor der unbekannten Parameter lediglich die Zuschläge zur Entwicklungsstelle $\mathbf{x}_0$.
  
-Die Anwendung des Unsicherheitsfortpflanzungsgesetz liefert auch die Kofaktormatrix der ausgeglichenen Beobachtungen +Die Anwendung des Unsicherheitsfortpflanzungsgesetz liefert neben der Kofaktormatrix der ausgeglichenen Parameter  
 + 
 +$$\mathbf{Q_{\hat{x}\hat{x}}} = \mathbf{FQ_{ll}F^T} = \mathbf{N^{-1}}$$ 
 + 
 +auch die Kofaktormatrix der ausgeglichenen Beobachtungen 
  
 $$\mathbf{Q_{\hat{l}\hat{l}}} = \mathbf{AQ_{\hat{x}\hat{x}}A^T}$$ $$\mathbf{Q_{\hat{l}\hat{l}}} = \mathbf{AQ_{\hat{x}\hat{x}}A^T}$$
Zeile 73: Zeile 93:
 $$\mathbf{R} = \mathbf{Q_{vv}P}$$ $$\mathbf{R} = \mathbf{Q_{vv}P}$$
  
-Der Gesamtfreiheitsgrad $f$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente – der sogenannten Spur (engl. Trace) einer Matrix - der [[:least-squares-adjustment:reliability#redundanzanteil|Redundanzmatrix]] $\mathbf{R}$ abgeleitet werden. Es gilt daher auch der Zusammenhang $f = n - u + d = \tr \mathbf{R}$.+Der Gesamtfreiheitsgrad $f$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente der sogenannten Spur (engl. Trace) einer Matrix - der [[:least-squares-adjustment:reliability#redundanzanteil|Redundanzmatrix]] $\mathbf{R}$ abgeleitet werden, sofern die Beobachtungen unabhängig voneinander sind. Es gilt in diesem Fall $f = n - u + d = \tr \mathbf{R}$.
  
  
Zeile 98: Zeile 118:
 gilt. gilt.
  
-Liegt die erste Näherung bereits sehr dich am Optimum, so sind nur wenige Iterationsschritte nötig um eine Lösung zu erzielen. Bei schlecht gewählten Näherungen sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem bei schlecht gewählten Näherungswerten sogar und liefert eine falsche oder keine Lösung. Die Güte der Näherungskoordinaten ist somit entscheidend für das Konvergenzverhalten.+Liegt die erste Näherung bereits sehr dich am Optimum, so sind nur wenige Iterationsschritte nötig um eine Lösung zu erzielen. Bei schlecht gewählten Näherungen sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem bei schlecht gewählten Näherungswerten sogar und liefert eine falsche oder keine Lösung. Die Güte der [[user-interface:pre-processing#bestimmung_von_naherungskoordinaten|Näherungskoordinaten]] ist somit entscheidend für das Konvergenzverhalten.
least-squares-adjustment.txt · Zuletzt geändert: 2023/08/10 16:03 von Michael Lösler