least-squares-adjustment
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
least-squares-adjustment [2022/09/21 17:27] – [Parameterschätzung] Michael Lösler | least-squares-adjustment [2025/03/29 13:57] (aktuell) – [Linearisierung der Beobachtungsgleichungen] Michael Lösler | ||
---|---|---|---|
Zeile 31: | Zeile 31: | ||
===== Funktionales Modell ===== | ===== Funktionales Modell ===== | ||
- | Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[# | + | Neben dem stochastischen Modell existiert das funktionale oder mathematische Modell der Ausgleichung. In diesem wird der lineare bzw. [[# |
$$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ | $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ | ||
- | worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{v}$ die Beobachtungsresiduen sind. Das hier verwendete funktionale Modell setzt voraus, dass jede Beobachtung $l_i$ als eigenständige Funktion der unbekannten Parameter $l_i = \mathrm{f(\mathbf{\hat x})}$ beschrieben werden kann. In der geodätischen Literatur wird dieses Modell als // | + | worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{v}$ die Beobachtungsresiduen sind. Das hier verwendete funktionale Modell setzt voraus, dass jede Beobachtung $l_i$ als eigenständige Funktion der unbekannten Parameter $l_i = \phi(\mathbf{\hat x})$ beschrieben werden kann. In der geodätischen Literatur wird dieses Modell als // |
===== Parameterschätzung ===== | ===== Parameterschätzung ===== | ||
Zeile 55: | Zeile 55: | ||
$$\mathbf{n} = \mathbf{A^TPl}$$ | $$\mathbf{n} = \mathbf{A^TPl}$$ | ||
- | Durch Inversion der Normalgleichungsmatrix $\mathbf{N}$ erhält man den Lösungsvektor | + | Durch Auflösen des Normalgleichungssystems nach $\mathbf{\hat x}$ ergibt sich der Lösungsvektor |
$$\mathbf{\hat{x}} = \mathbf{N^{-1}n}$$ | $$\mathbf{\hat{x}} = \mathbf{N^{-1}n}$$ | ||
Zeile 93: | Zeile 93: | ||
$$\mathbf{R} = \mathbf{Q_{vv}P}$$ | $$\mathbf{R} = \mathbf{Q_{vv}P}$$ | ||
- | Der Gesamtfreiheitsgrad $f$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente - der sogenannten Spur (engl. Trace) einer Matrix - der [[: | + | Der Gesamtfreiheitsgrad $r$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente - der sogenannten Spur (engl. Trace) einer Matrix - der [[: |
===== Linearisierung der Beobachtungsgleichungen ===== | ===== Linearisierung der Beobachtungsgleichungen ===== | ||
- | Mit Ausnahme von beobachteten [[: | + | Mit Ausnahme von beobachteten [[: |
$$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ | $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ | ||
Zeile 112: | Zeile 112: | ||
$$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | $$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | ||
- | Zur Bestimmung optimaler Parameter $\mathbf{x}$ lässt sich somit eine einfache Iterationsvorschrift formulieren: | + | Zur Bestimmung optimaler Parameter $\mathbf{x}$ lässt sich somit eine einfache Iterationsvorschrift formulieren: |
- | $$\mathbf{x}=\mathbf{x_0}$$ | + | $$\left|\mathbf{x} |
gilt. | gilt. | ||
- | Liegt die erste Näherung bereits sehr dich am Optimum, so sind nur wenige Iterationsschritte nötig um eine Lösung zu erzielen. Bei schlecht | + | Liegt die erste Näherung bereits sehr dicht am Optimum, so sind nur wenige Iterationsschritte nötig, um eine Lösung zu erzielen. Bei ungünstig |
least-squares-adjustment.1663774048.txt.gz · Zuletzt geändert: 2022/09/21 17:27 von Michael Lösler