least-squares-adjustment
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
least-squares-adjustment [2023/08/10 16:03] – [Parameterschätzung] Michael Lösler | least-squares-adjustment [2025/03/29 13:57] (aktuell) – [Linearisierung der Beobachtungsgleichungen] Michael Lösler | ||
---|---|---|---|
Zeile 35: | Zeile 35: | ||
$$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ | $$\mathbf{l} + \mathbf{v} = \mathbf{\hat{l}} = \mathbf{A\hat{x}}$$ | ||
- | worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{v}$ die Beobachtungsresiduen sind. Das hier verwendete funktionale Modell setzt voraus, dass jede Beobachtung $l_i$ als eigenständige Funktion der unbekannten Parameter $l_i = \mathrm{f(\mathbf{\hat x})}$ beschrieben werden kann. In der geodätischen Literatur wird dieses Modell als // | + | worin $\mathbf{A}$ die Design- oder Jacobimatrix und $\mathbf{v}$ die Beobachtungsresiduen sind. Das hier verwendete funktionale Modell setzt voraus, dass jede Beobachtung $l_i$ als eigenständige Funktion der unbekannten Parameter $l_i = \phi(\mathbf{\hat x})$ beschrieben werden kann. In der geodätischen Literatur wird dieses Modell als // |
===== Parameterschätzung ===== | ===== Parameterschätzung ===== | ||
Zeile 93: | Zeile 93: | ||
$$\mathbf{R} = \mathbf{Q_{vv}P}$$ | $$\mathbf{R} = \mathbf{Q_{vv}P}$$ | ||
- | Der Gesamtfreiheitsgrad $f$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente - der sogenannten Spur (engl. Trace) einer Matrix - der [[: | + | Der Gesamtfreiheitsgrad $r$ der Netzausgleichung kann auch aus der Summe der Hauptdiagonalelemente - der sogenannten Spur (engl. Trace) einer Matrix - der [[: |
===== Linearisierung der Beobachtungsgleichungen ===== | ===== Linearisierung der Beobachtungsgleichungen ===== | ||
- | Mit Ausnahme von beobachteten [[: | + | Mit Ausnahme von beobachteten [[: |
$$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ | $$\phi(\mathbf{x})=\phi(\mathbf{x_0}+\mathbf{\hat x})=\phi(\mathbf{x_0})+\mathbf{A\hat x} + \frac{1}2\mathbf{H}[\mathbf{\hat x}\otimes\mathbf{\hat x}] + ...$$ | ||
Zeile 112: | Zeile 112: | ||
$$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | $$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | ||
- | Zur Bestimmung optimaler Parameter $\mathbf{x}$ lässt sich somit eine einfache Iterationsvorschrift formulieren: | + | Zur Bestimmung optimaler Parameter $\mathbf{x}$ lässt sich somit eine einfache Iterationsvorschrift formulieren: |
- | $$\mathbf{x}=\mathbf{x_0}$$ | + | $$\left|\mathbf{x} |
gilt. | gilt. | ||
Liegt die erste Näherung bereits sehr dicht am Optimum, so sind nur wenige Iterationsschritte nötig, um eine Lösung zu erzielen. Bei ungünstig gewählten Näherungswerten sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem sogar und liefert eine falsche bzw. unbrauchbare Lösung. Die Güte der [[user-interface: | Liegt die erste Näherung bereits sehr dicht am Optimum, so sind nur wenige Iterationsschritte nötig, um eine Lösung zu erzielen. Bei ungünstig gewählten Näherungswerten sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem sogar und liefert eine falsche bzw. unbrauchbare Lösung. Die Güte der [[user-interface: |
least-squares-adjustment.1691676212.txt.gz · Zuletzt geändert: 2023/08/10 16:03 von Michael Lösler