Java·Applied·Geodesy·3D

Least-Squares Adjustment Software for Geodetic Sciences

Benutzer-Werkzeuge

Webseiten-Werkzeuge


least-squares-adjustment:reliability

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
least-squares-adjustment:reliability [2022/07/29 17:37] – Kontrollierbarkeit hinzugefügt Michael Löslerleast-squares-adjustment:reliability [2025/03/15 20:39] (aktuell) Michael Lösler
Zeile 5: Zeile 5:
 ===== Genauigkeitsmaße der Parameter ===== ===== Genauigkeitsmaße der Parameter =====
  
-Die Genauigkeitsmaße der geschätzten Parameter z.B. die Koordinaten der Netzpunkte werden nach der [[:least-squares-adjustment|Ausgleichungsrechnung]] aus der Varianz-Kovarianz-Matrix $\mathbf{C_{\hat x \hat x}}$ der Parameter abgeleitet. +Die Genauigkeitsmaße der geschätzten Parameter z.B. die Koordinaten der Netzpunkte werden nach der [[:least-squares-adjustment|Ausgleichungsrechnung]] aus der Varianz-Kovarianz-Matrix der Parameter abgeleitet. Diese ergibt sich aus der Kofaktormatrix $\mathbf{Q_{\hat x \hat x}}$, die entweder mit dem a-priori Varianzfaktor $\sigma^2_0$ 
  
-$$\mathbf{C_{\hat x \hat x}}=\hat{\sigma}_0^2\mathbf{Q_{\hat x \hat x}}$$+$$\mathbf{C_{\hat x \hat x}}=\sigma_0^2\mathbf{Q_{\hat x \hat x}}$$
  
-Während auf der Hauptdiagonalen die Varianzen $\sigma^2$ der Parameter angeordnet sind, befinden sich auf den Nebendiagonalen die Kovarianzen $\rho$, welche die (linearen) Abhängigkeiten zwischen den Parametern quantifiziert. Während für $\rho \gt 0$ eine positive Korrelation besteht, sind die Parameter für $\rho \lt 0$ negativ korreliert. Für $\rho = 0$ sind die Parameter vollständig (linear) unabhängig.+oder dem aus der Stichprobe abgeleiteten empirischen a-posteriori Varianzfaktor $\hat{\sigma}_0^2$ skaliert wurde
  
-Die geschätzten Standardunsicherheiten $\sigma$ der Parameter z.B. der ausgeglichenen Koordinaten eines Punktes können demnach direkt aus der Varianz-Kovarianz-Matrix $\mathbf{C_{\hat x \hat x}}$ abgelesen werden. Zu beachten ist, dass die Varianz-Kovarianz-Matrix $\mathbf{C_{\hat x \hat x}}$ datumsabhängig ist. Dies bedeutet, dass bspw. die Standardunsicherheiten $\sigma$ nicht invariant gegenüber Netzverdrehungen sind und sich daher nur bedingt zur Genauigkeitsbeurteilung eignen. Ein punktbezogenes rotationsinvariantes Genauigkeitsmaß sind hingegen die Halbachsen der Konfidenzbereiche. +$$\mathbf{\hat{C}_{\hat x \hat x}}=\hat{\sigma}_0^2\mathbf{Q_{\hat x \hat x}}$$ 
 + 
 +Die Wahl des zu berücksichtigenden Varianzfaktors sollte problemspezifisch erfolgen. Insbesondere bei sehr kleinen Stichproben ist der a-priori Varianzfaktor häufig repräsentativer als der empirisch bestimmte a-posteriori Varianzfaktor. 
 + 
 +Während auf der Hauptdiagonalen die Varianzen der Parameter angeordnet sind, befinden sich auf den Nebendiagonalen die Kovarianzen, welche die (linearen) Abhängigkeiten zwischen den Parametern quantifiziert und häufig durch den Korrelationskoeffizient ausgedrückt wird. Der Korrelationskoeffizient lautet für das $i$-te und $j$-te Element aus $\mathbf{Q_{\hat x \hat x}}$   
 + 
 +$$\rho = \frac{q_{ij}}{\sqrt{q_{ii} \cdot q_{jj}}}$$ 
 + 
 +Während für $\rho \gt 0$ eine positive Korrelation besteht, d.h. tendenziell fallen bzw. steigen beide Parameter gemeinsam, sind die Parameter für $\rho \lt 0$ negativ korreliert, d.h. tendenziell steigt einer der beiden Parameter an während der andere abfällt. Für $\rho = 0$ sind die Parameter vollständig (linear) unabhängig, d.h. die Änderung eines Parameters wirkt sich nicht auf den anderen aus. 
 + 
 +Die geschätzten Standardunsicherheiten $\sigma$ der Parameter z.B. der ausgeglichenen Koordinaten eines Punktes können demnach direkt aus der Varianz-Kovarianz-Matrix abgelesen werden. Zu beachten ist, dass die Varianz-Kovarianz-Matrix datumsabhängig ist. Dies bedeutet, dass bspw. die Standardunsicherheiten $\sigma$ nicht invariant gegenüber Netzverdrehungen sind und sich daher nur bedingt zur Genauigkeitsbeurteilung eignen. Ein punktbezogenes rotationsinvariantes Genauigkeitsmaß sind hingegen die Halbachsen der Konfidenzbereiche. 
  
 Durch spektrale Zerlegung der punktbezogenen Sub-Kofaktormatrix $\mathbf{Q_{\hat x \hat x}}_{ii}$ werden die Halbachsen und die Orientierung des $n$-dimensionalen Hyperellipsoids gewonnen. Während sich für $n=3$ ein Ellipsoid ergibt, erhält man für $n = 2$ eine Ellipse und für $n = 1$ ein einfaches Intervall. Die Halbachsen bilden somit die Extremstellen des Konfidenzbereichs. Durch spektrale Zerlegung der punktbezogenen Sub-Kofaktormatrix $\mathbf{Q_{\hat x \hat x}}_{ii}$ werden die Halbachsen und die Orientierung des $n$-dimensionalen Hyperellipsoids gewonnen. Während sich für $n=3$ ein Ellipsoid ergibt, erhält man für $n = 2$ eine Ellipse und für $n = 1$ ein einfaches Intervall. Die Halbachsen bilden somit die Extremstellen des Konfidenzbereichs.
Zeile 22: Zeile 32:
 \end{bmatrix}}$$ \end{bmatrix}}$$
  
-Abbildung {{ref>confidence_ellipse}} stellt für zwei Punkte die zugehörigen Konfidenzellipsen gegenüber. Während die Standardunsicherheiten $\sigma_x = \sigma_y = 5~\rm{mm}$ bei beiden Punkten identisch sind, lässt sich aus der Form der Ellipsen erkennen, dass der Konfidenzbereich der roten Ellipse kleiner ist als der der blauen. Beide Punkte weisen somit nicht dieselbe Unsicherheit auf. Die Koordinatenachsen-bezogenen Standardunsicherheiten sind demnach nur aussagekräftig, wenn diese mit den Halbachsen des Konfidenzbereichs (näherungsweise) zusammenfallen, siehe blaue Ellipse. Die Forderung nach //homogenen// und //isotropen// Konfidenzbereichen bedeutet, dass im 2D-Fall die Ellipse zu einem Kreis und im 3D-Fall das Ellipsoid zu einer Kugel entartet.+Abbildung {{ref>confidence_ellipse}} stellt für zwei Punkte die zugehörigen (einfachen) Konfidenzellipsen (Standardellipse nach Helmert; früher häufig auch Fehlerellipse) gegenüber. Während die Standardunsicherheiten $\sigma_x = \sigma_y = 5~\rm{mm}$ bei beiden Punkten identisch sind, lässt sich aus der Form der Ellipsen erkennen, dass der Konfidenzbereich der roten Ellipse kleiner ist als der der blauen. Beide Punkte weisen somit nicht dieselbe Unsicherheit auf. Die Koordinatenachsen-bezogenen Standardunsicherheiten sind demnach nur aussagekräftig, wenn diese mit den Halbachsen des Konfidenzbereichs (näherungsweise) zusammenfallen, siehe blaue Ellipse. Die Forderung nach //homogenen// und //isotropen// Konfidenzbereichen bedeutet, dass im 2D-Fall die Ellipse zu einem Kreis und im 3D-Fall das Ellipsoid zu einer Kugel entartet.
  
 <figure|confidence_ellipse|fright> <figure|confidence_ellipse|fright>
-{{:least-squares-adjustment:confidence_ellipse.png?nolink|Gegenüberstellung zweier Konfidenzellipsen}} +{{:least-squares-adjustment:confidence_ellipse.png?nolink|Gegenüberstellung zweier Konfidenzellipsen (Standardellipsen nach Helmert)}} 
-<caption>Gegenüberstellung zweier Konfidenzellipsen</caption>+<caption>Gegenüberstellung zweier (einfacher) Konfidenzellipsen</caption>
 </figure> </figure>
  
 Im Folgenden soll explizit nur der räumliche Fall skizziert werden. Für $n \lt 3$ vereinfacht sich die Darstellung sinngemäß. Die $i$-te punktbezogene Sub-Kofaktormatrix $\mathbf{Q_{\hat x \hat x}}_{ii}$ lautet Im Folgenden soll explizit nur der räumliche Fall skizziert werden. Für $n \lt 3$ vereinfacht sich die Darstellung sinngemäß. Die $i$-te punktbezogene Sub-Kofaktormatrix $\mathbf{Q_{\hat x \hat x}}_{ii}$ lautet
  
-$$\hat{\sigma}_0^2\mathbf{Q_{\hat x \hat x}}_{ii}=+$$\mathbf{Q_{\hat x \hat x}}_{ii}=
 \begin{pmatrix} \begin{pmatrix}
-\sigma_x^2&\rho_{xy}&\rho_{xz}\\ +q_{xx}&q_{xy}&q_{xz}\\ 
-\rho_{yx}&\sigma_y^2&\rho_{yz}\\ +q_{xy}&q_{yy}&q_{yz}\\ 
-\rho_{zx}&\rho_{zy}&\sigma_z^2+q_{xz}&q_{yz}&q_{zz}\\
 \end{pmatrix}_{ii}$$ \end{pmatrix}_{ii}$$
  
-Die drei Halbachsen $A$, $B$ und $C$ ergeben sich aus den (sortierten) Eigenwerten $\mathbf{\lambda} = [\lambda_{max}, \lambda_{mid}, \lambda_{min}]^T$+Die drei Halbachsen $a$, $b$ und $c$ ergeben sich aus den (sortierten) Eigenwerten $\mathbf{\lambda} = [\lambda_{max}, \lambda_{mid}, \lambda_{min}]^T$ und dem gewählten Varianzfaktor. Für den a-priori Varianzfaktor $\sigma_0^2$ gilt
  
-$= \sigma_0 \sqrt{ \lambda_{max} }$, $= \sigma_0 \sqrt{ \lambda_{mid} }$, $= \sigma_0 \sqrt{ \lambda_{min} }$+$= \sigma_0 \sqrt{ \lambda_{max} }$, $= \sigma_0 \sqrt{ \lambda_{mid} }$, $= \sigma_0 \sqrt{ \lambda_{min} }$ 
 + 
 +und für den a-posteriori Varianzfaktor $\hat{\sigma}_0^2$ entsprechend 
 + 
 +$\hat{a} = \hat{\sigma}_0 \sqrt{ \lambda_{max} }$, $\hat{b} = \hat{\sigma}_0 \sqrt{ \lambda_{mid} }$, $\hat{c} = \hat{\sigma}_0 \sqrt{ \lambda_{min} }$
  
 Die Orientierung lässt sich aus den drei korrespondierenden Eigenvektoren $\mathbf{m}$ ableiten.  Die Orientierung lässt sich aus den drei korrespondierenden Eigenvektoren $\mathbf{m}$ ableiten. 
Zeile 50: Zeile 64:
 $$\mathbf{M}=\mathbf{R_x}(\alpha)\mathbf{R_y}(\beta)\mathbf{R_z}(\gamma)$$ $$\mathbf{M}=\mathbf{R_x}(\alpha)\mathbf{R_y}(\beta)\mathbf{R_z}(\gamma)$$
  
-Die folgende Tabelle zeigt die maximale Sicherheitswahrscheinlichkeit in Abhängigkeit der Dimension $n$ für die so gebildeten einfachen Konfidenzbereiche.+Die folgende Tabelle zeigt die maximale Sicherheitswahrscheinlichkeit unter Berücksichtigung von $\sigma_0$ in Abhängigkeit der Dimension $n$ für die so gebildeten einfachen Konfidenzbereiche.
  
 ^  n  ^  Wahrscheinlichkeit  ^ ^  n  ^  Wahrscheinlichkeit  ^
Zeile 57: Zeile 71:
 |  3  |  19,87 %  | |  3  |  19,87 %  |
  
-Aufgrund der geringen Sicherheitswahrscheinlichkeit des einfachen Konfidenzbereichs von 40 % bzw. 20 % für einen Lage- bzw. Raumpunkt, werden die Halbachsen i.d.R. unter der Annahme der Normalverteilung mit einem Quantil der $\chi^2_n$-Verteilung skaliert, sodass sich ein vergrößerter Konfidenzbereich mit einer entsprechend höheren Sicherheitswahrscheinlichkeit ergibt. In JAG3D wird die Sicherheitswahrscheinlichkeit aus der gewählten [[:least-squares-adjustment:outlier#teststatistik|Irrtumswahrscheinlichkeit]] abgeleitet.+Aufgrund der geringen Sicherheitswahrscheinlichkeit des einfachen Konfidenzbereichs von 40 % bzw. 20 % für einen Lage- bzw. Raumpunkt, werden die Halbachsen i.d.R. unter der Annahme der Normalverteilung mit einem Quantil der Fisher-Verteilung skaliert, sodass sich ein vergrößerter Konfidenzbereich mit einer entsprechend höheren Sicherheitswahrscheinlichkeit ergibt. In JAG3D wird die Sicherheitswahrscheinlichkeit $\left(1 - \alpha\right)$ als Gegenwahrscheinlichkeit aus der gewählten (und ggf. abgestimmten) [[:least-squares-adjustment:outlier#teststatistik|Irrtumswahrscheinlichkeit]] $\alpha$ abgeleitet. 
 +Die Längen der Halbachsen des Konfidenzbereichs hängen somit von der Sicherheitswahrscheinlichkeit und vom gewählten Varianzfaktor ab. Für a-priori Varianzfaktor-bezogene Konfidenzbereiche gilt für die Halbachsen  
 +  
 +$$\sqrt{\sigma_0^2 \cdot \lambda \cdot n \cdot F_{n,\infty}}$$ 
 + 
 +Entsprechend gilt für die Halbachsen von Konfidenzbereichen, die sich auf den empirisch ermittelten a-posteriori Varianzfaktor beziehen 
 + 
 +$$\sqrt{\hat{\sigma}_0^2 \cdot \lambda \cdot n \cdot F_{n,r}}$$
  
 +worin $r$ der Gesamtfreiheitsgrad der Ausgleichung ist.
  
 ===== Redundanzanteil ===== ===== Redundanzanteil =====
Zeile 72: Zeile 94:
   * $0.7 \leq r_i \leq 1.0$ → sehr gut kontrolliert.   * $0.7 \leq r_i \leq 1.0$ → sehr gut kontrolliert.
  
-Die Summe aller $r_i$ bzw. die Spur der Matrix $\mathbf{R}$ liefert den Gesamtfreiheitsgrad $= \tr \mathbf{R}$ der [[:least-squares-adjustment|Ausgleichung]]. Eine hohes Maß an Kontrolle wird erreicht, wenn die Anzahl an Beobachtungen $n$ erhöht wird. Dieser Forderung stehen jedoch vor allem wirtschaftliche Aspekte gegenüber. Mithilfe des Redundanzanteils $r_i$ lässt sich durch $1 - r_i$ der Grad der Überschüssigkeit angeben. Hierdurch lässt sich bemessen, welchen Anteil die Beobachtung am Ausgleichungsergebnis mit einbringt.+Die Summe aller $r_i$ bzw. die Spur der Matrix $\mathbf{R}$ liefert den Gesamtfreiheitsgrad $= \tr \mathbf{R}$ der [[:least-squares-adjustment|Ausgleichung]]. Eine hohes Maß an Kontrolle wird erreicht, wenn die Anzahl an Beobachtungen $n$ erhöht wird. Dieser Forderung stehen jedoch vor allem wirtschaftliche Aspekte gegenüber. Mithilfe des Redundanzanteils $r_i$ lässt sich durch $1 - r_i$ der Grad der Überschüssigkeit angeben. Hierdurch lässt sich bemessen, welchen Anteil die Beobachtung am Ausgleichungsergebnis mit einbringt.
  
  
Zeile 104: Zeile 126:
 worin $\mathbf{A}_{\mathbf{x},i}$ den koordinatenbezogenen Anteil der Designmatrix $\mathbf{A}$ des [[:least-squares-adjustment#funktionales_modell|funktionalen Modells]], $\nabla\mathbf{x}_i$ die Auswirkung einer Modellstörung $\nabla_i$ auf die geschätzten Koordinaten beschreiben worin $\mathbf{A}_{\mathbf{x},i}$ den koordinatenbezogenen Anteil der Designmatrix $\mathbf{A}$ des [[:least-squares-adjustment#funktionales_modell|funktionalen Modells]], $\nabla\mathbf{x}_i$ die Auswirkung einer Modellstörung $\nabla_i$ auf die geschätzten Koordinaten beschreiben
  
-$$\nabla\mathbf{x}_i=\mathbf{Q_{\hat{x}\hat{x}}}{\mathbf{\bar{A_{x}}}}^T{\mathbf{PB}}_i {\mathbf{\nabla}}_i$$+$$\nabla\mathbf{x}_i=\mathbf{Q_{\hat{x}\hat{x}}}{\mathbf{\bar{A}_{x}}}^T{\mathbf{PB}}_i {\mathbf{\nabla}}_i$$
  
 und und
  
-$$\mathbf{\bar{A_{x}}}=\mathbf{A_x} - \mathbf{A_z}(\mathbf{A_z}^T\mathbf{PA_z})^{-1}\mathbf{A_z}^T\mathbf{PA_x}$$+$$\mathbf{\bar{A}_{x}}=\mathbf{A_x} - \mathbf{A_z}(\mathbf{A_z}^T\mathbf{PA_z})^{-1}\mathbf{A_z}^T\mathbf{PA_x}$$
  
 die um den Anteil der Zusatzunbekannten $\mathbf{A_z}$ reduzierte Designmatrix $\mathbf{A}$ sind. Enthält das funktionale Modell für die betreffende Beobachtung keine Zusatzparameter, so ergibt sich $\mathbf{EP}_i$ direkt aus die um den Anteil der Zusatzunbekannten $\mathbf{A_z}$ reduzierte Designmatrix $\mathbf{A}$ sind. Enthält das funktionale Modell für die betreffende Beobachtung keine Zusatzparameter, so ergibt sich $\mathbf{EP}_i$ direkt aus
least-squares-adjustment/reliability.1659109023.txt.gz · Zuletzt geändert: 2022/07/29 17:37 von Michael Lösler