Java·Applied·Geodesy·3D

Least-Squares Adjustment Software for Geodetic Sciences

Benutzer-Werkzeuge

Webseiten-Werkzeuge


least-squares-adjustment

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
least-squares-adjustment [2023/08/10 16:00] – [Funktionales Modell] Michael Löslerleast-squares-adjustment [2025/03/29 13:57] (aktuell) – [Linearisierung der Beobachtungsgleichungen] Michael Lösler
Zeile 35: Zeile 35:
 $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$
  
-worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{v}$ die Beobachtungsresiduen sind. Das hier verwendete funktionale Modell setzt voraus, dass jede Beobachtung $l_i$ als eigenständige Funktion der unbekannten Parameter $l_i = \mathrm{f(\mathbf{\hat x})}$ beschrieben werden kann. In der geodätischen Literatur wird dieses Modell als //Gauß-Markov Modell// bezeichnet.+worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{v}$ die Beobachtungsresiduen sind. Das hier verwendete funktionale Modell setzt voraus, dass jede Beobachtung $l_i$ als eigenständige Funktion der unbekannten Parameter $l_i = \phi(\mathbf{\hat x})$ beschrieben werden kann. In der geodätischen Literatur wird dieses Modell als //Gauß-Markov Modell// bezeichnet.
  
 ===== Parameterschätzung ===== ===== Parameterschätzung =====
Zeile 55: Zeile 55:
 $$\mathbf{n} = \mathbf{A^TPl}$$ $$\mathbf{n} = \mathbf{A^TPl}$$
  
-Durch Inversion der Normalgleichungsmatrix $\mathbf{N}$ erhält man den Lösungsvektor $\mathbf{\hat x}$ der unbekannten Parameter+Durch Auflösen des Normalgleichungssystems nach $\mathbf{\hat x}$ ergibt sich der Lösungsvektor der unbekannten Parameter
  
 $$\mathbf{\hat{x}} = \mathbf{N^{-1}n}$$ $$\mathbf{\hat{x}} = \mathbf{N^{-1}n}$$
Zeile 93: Zeile 93:
 $$\mathbf{R} = \mathbf{Q_{vv}P}$$ $$\mathbf{R} = \mathbf{Q_{vv}P}$$
  
-Der Gesamtfreiheitsgrad $f$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente - der sogenannten Spur (engl. Trace) einer Matrix - der [[:least-squares-adjustment:reliability#redundanzanteil|Redundanzmatrix]] $\mathbf{R}$ abgeleitet werden, sofern die Beobachtungen unabhängig voneinander sind. Es gilt in diesem Fall $= n - u + d = \tr \mathbf{R}$.+Der Gesamtfreiheitsgrad $r$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente - der sogenannten Spur (engl. Trace) einer Matrix - der [[:least-squares-adjustment:reliability#redundanzanteil|Redundanzmatrix]] $\mathbf{R}$ abgeleitet werden, sofern die Beobachtungen unabhängig voneinander sind. Es gilt in diesem Fall $= n - u + d = \tr \mathbf{R}$.
  
  
 ===== Linearisierung der Beobachtungsgleichungen ===== ===== Linearisierung der Beobachtungsgleichungen =====
  
-Mit Ausnahme von beobachteten [[:least-squares-adjustment:observation#nivellement|Höhenunterschieden]] sind die [[:least-squares-adjustment:observation#terrestrische_beobachtungen|Beobachtungsgleichungen für terrestrische Messungen]] und [[:least-squares-adjustment:observation#gnss-basislinien|GNSS-Beobachtungen]] in der Netzausgleichung nicht-linear. Da der [[#ausgleichung_im_gauss-markov-modell|Ausgleichungsalgorithmus]] – formuliert als Gauß-Markov-Modell –jedoch ein lineares Modell voraussetzt, sind die nicht-linearen Beobachtungsgleichungen zu linearisieren. Hierzu werden die Beobachtungsgleichungen $\phi$ am Entwicklungspunkt $\mathbf{x}_0$ unter Vernachlässigung von Termen höherer Ordnung mittels Taylorreihe entwickelt,+Mit Ausnahme von beobachteten [[:least-squares-adjustment:observation#nivellement|Höhenunterschieden]] sind die [[:least-squares-adjustment:observation#terrestrische_beobachtungen|Beobachtungsgleichungen für terrestrische Messungen]] und [[:least-squares-adjustment:observation#gnss-basislinien|GNSS-Beobachtungen]] in der Netzausgleichung nicht-linear. Da der [[#ausgleichung_im_gauss-markov-modell|Ausgleichungsalgorithmus]] – formuliert als Gauß-Markov-Modell – jedoch ein lineares Modell voraussetzt, sind die nicht-linearen Beobachtungsgleichungen zu linearisieren. Hierzu werden die Beobachtungsgleichungen $\phi$ am Entwicklungspunkt $\mathbf{x}_0$ unter Vernachlässigung von Termen höherer Ordnung mittels Taylorreihe entwickelt,
  
 $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$
Zeile 112: Zeile 112:
 $$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ $$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$
  
-Zur Bestimmung optimaler Parameter $\mathbf{x}$ lässt sich somit eine einfache Iterationsvorschrift formulieren: Die Taylorreihenentwicklung der Beobachtungsgleichung $\phi$ wird solange an der jeweils verbesserten Entwicklungsstelle $\mathbf{x}_0 := \mathbf{x}$ durchgeführt, bis der Zuschlagsvektor ein Nullvektor ist und somit+Zur Bestimmung optimaler Parameter $\mathbf{x}$ lässt sich somit eine einfache Iterationsvorschrift formulieren: Die Taylorreihenentwicklung der Beobachtungsgleichung $\phi$ wird solange an der jeweils verbesserten Entwicklungsstelle $\mathbf{x}_0 := \mathbf{x}$ durchgeführt, bis der Zuschlagsvektor (praktisch) ein Nullvektor ist und somit
  
-$$\mathbf{x}=\mathbf{x_0}$$+$$\left|\mathbf{x} \mathbf{x_0}\right|_{\infty} < \varepsilon$$
  
 gilt. gilt.
  
 Liegt die erste Näherung bereits sehr dicht am Optimum, so sind nur wenige Iterationsschritte nötig, um eine Lösung zu erzielen. Bei ungünstig gewählten Näherungswerten sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem sogar und liefert eine falsche bzw. unbrauchbare Lösung. Die Güte der [[user-interface:pre-processing#bestimmung_von_naherungskoordinaten|Näherungskoordinaten]] ist somit entscheidend für das Konvergenzverhalten. Liegt die erste Näherung bereits sehr dicht am Optimum, so sind nur wenige Iterationsschritte nötig, um eine Lösung zu erzielen. Bei ungünstig gewählten Näherungswerten sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem sogar und liefert eine falsche bzw. unbrauchbare Lösung. Die Güte der [[user-interface:pre-processing#bestimmung_von_naherungskoordinaten|Näherungskoordinaten]] ist somit entscheidend für das Konvergenzverhalten.
least-squares-adjustment.1691676054.txt.gz · Zuletzt geändert: 2023/08/10 16:00 von Michael Lösler