least-squares-adjustment
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende Überarbeitung | |||
least-squares-adjustment [2025/03/15 10:40] – Gesamtfreiheitsgrad Michael Lösler | least-squares-adjustment [2025/03/29 13:57] (aktuell) – [Linearisierung der Beobachtungsgleichungen] Michael Lösler | ||
---|---|---|---|
Zeile 112: | Zeile 112: | ||
$$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | $$\mathbf{x}=\mathbf{x_0}+\mathbf{\hat x}$$ | ||
- | Zur Bestimmung optimaler Parameter $\mathbf{x}$ lässt sich somit eine einfache Iterationsvorschrift formulieren: | + | Zur Bestimmung optimaler Parameter $\mathbf{x}$ lässt sich somit eine einfache Iterationsvorschrift formulieren: |
- | $$\mathbf{x}=\mathbf{x_0}$$ | + | $$\left|\mathbf{x} |
gilt. | gilt. | ||
Liegt die erste Näherung bereits sehr dicht am Optimum, so sind nur wenige Iterationsschritte nötig, um eine Lösung zu erzielen. Bei ungünstig gewählten Näherungswerten sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem sogar und liefert eine falsche bzw. unbrauchbare Lösung. Die Güte der [[user-interface: | Liegt die erste Näherung bereits sehr dicht am Optimum, so sind nur wenige Iterationsschritte nötig, um eine Lösung zu erzielen. Bei ungünstig gewählten Näherungswerten sind entsprechend mehr Iterationen notwendig. Im ungünstigsten Fall divergiert das Gleichungssystem sogar und liefert eine falsche bzw. unbrauchbare Lösung. Die Güte der [[user-interface: |
least-squares-adjustment.1742031653.txt.gz · Zuletzt geändert: 2025/03/15 10:40 von Michael Lösler