Java·Applied·Geodesy·3D

Least-Squares Adjustment Software for Geodetic Sciences

Benutzer-Werkzeuge

Webseiten-Werkzeuge


least-squares-adjustment:outlier

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
least-squares-adjustment:outlier [2021/02/17 18:06] – [$p$-Wert] Michael Löslerleast-squares-adjustment:outlier [2023/01/24 16:26] (aktuell) – natürlicher Logarithmus Michael Lösler
Zeile 9: Zeile 9:
 mit der zu prüfenden Nullhypothese mit der zu prüfenden Nullhypothese
  
-$$ \hat\sigma_0^2  \leq \sigma_0^2 | H_0 $$+$$ \hat\sigma_0^2  \leq \sigma_0^2 | \mathrm{H}_0 $$
  
 und der Alternativhypothese und der Alternativhypothese
  
-$$ \hat\sigma_0^2  \gt \sigma_0^2 | H_A $$+$$ \hat\sigma_0^2  \gt \sigma_0^2 | \mathrm{H}_A $$
  
  
Zeile 26: Zeile 26:
 Die $i$-te //a-priori// bezogene Testgröße ergibt sich für den $m$-dimensionalen multiplen Test aus Die $i$-te //a-priori// bezogene Testgröße ergibt sich für den $m$-dimensionalen multiplen Test aus
  
-$$ T_{prio,i} = \frac{\mathbf{\nabla_i^TQ_{\nabla\nabla,i}^{-1}\nabla_i}} {m\sigma_0^2} \sim F_{m,\infty} $$ +$$ T_{prio,i} = \frac{\mathbf{\nabla}_i^T\mathbf{Q}_{\nabla\nabla,i}^{-1}\mathbf{\nabla}_i} {m\sigma_0^2} \sim F_{m,\infty} | \mathrm{H}_0$$ 
  
 und für den //a-posteriori// bezogenen Test aus und für den //a-posteriori// bezogenen Test aus
  
-$$ T_{post,i} = \frac{\mathbf{\nabla_i^TQ_{\nabla\nabla,i}^{-1}\nabla_i}} {m\hat{\sigma'_i}^2} \sim F_{m,f-m} $$ +$$ T_{post,i} = \frac{\mathbf{\nabla}_i^T\mathbf{Q}_{\nabla\nabla,i}^{-1}\mathbf{\nabla}_i} {m{{\hat{\sigma}_j'}^2}} \sim F_{m,f-m} | \mathrm{H}_0 $$ 
  
 Der geschätzte //a-posteriori// Varianzfaktor der Gesamtausgleichung ist aufgrund einer Modellstörung verzerrt. Aus diesem Grund wird die Verbesserungsquadratsumme $\Omega$ um den Einfluss der möglichen Modellstörung reduziert. Der geschätzte //a-posteriori// Varianzfaktor der Gesamtausgleichung ist aufgrund einer Modellstörung verzerrt. Aus diesem Grund wird die Verbesserungsquadratsumme $\Omega$ um den Einfluss der möglichen Modellstörung reduziert.
  
-$$ \hat{\sigma'_i}^2 = \frac{\Omega - \mathbf{\nabla_i^TQ_{\nabla\nabla,i}^{-1}\nabla_i}} {f-m} $$+$$ {{\hat{\sigma}_j'}^2= \frac{\Omega - \mathbf{\nabla}_i^T\mathbf{Q}_{\nabla\nabla,i}^{-1}\mathbf{\nabla}_i} {f-m} $$
  
-Die zur $i$-ten [[:least-squares-adjustment:observation|Beobachtung]] geschätzte [[:least-squares-adjustment:reliability#modellstoerung|Modellstörung]] ist hierbei $\nabla_i$ mit zugehöriger Kofaktormatrix $\mathbf{Q}_{\nabla\nabla,i}$.+Die zur $i$-ten [[:least-squares-adjustment:observation|Beobachtung]] geschätzte [[:least-squares-adjustment:reliability#modellstoerung|Modellstörung]] ist hierbei $\nabla_i$ mit zugehöriger Kofaktormatrix $\mathbf{Q}_{\nabla\nabla,i}$ und $m = \tr\left(\mathbf{Q}_{\nabla\nabla,i}\right)$.
  
 Analog zum Globaltest lassen sich auch die geschätzten Varianzfaktoren der Beobachtungsgruppen, die aus der [[:least-squares-adjustment:variance-component-estimation|Varianzkomponentenschätzung]] resultieren, auf Modellkonformität prüfen. Anstelle des //a-posteriori// Varianzfaktors der Gesamtausgleichung wird hierbei auf den geschätzten Varianzfaktor der jeweiligen Gruppe zurückgegriffen. Analog zum Globaltest lassen sich auch die geschätzten Varianzfaktoren der Beobachtungsgruppen, die aus der [[:least-squares-adjustment:variance-component-estimation|Varianzkomponentenschätzung]] resultieren, auf Modellkonformität prüfen. Anstelle des //a-posteriori// Varianzfaktors der Gesamtausgleichung wird hierbei auf den geschätzten Varianzfaktor der jeweiligen Gruppe zurückgegriffen.
Zeile 73: Zeile 73:
 Beim Durchführen des klassischen //Datasnoopings// wird das Beobachtungsmaterial (die Stichprobe) parallel auf eine Reihe von Hypothesen überprüft. In der Statistik spricht man in diesem Fall von einem multiplen Testproblem. Dies führt zur sogenannten //Alphafehler-Kumulierung//, dem Anstieg der Wahrscheinlichkeit für einen Fehler 1. Art. Mittels der Šidák (1967)-Korrektur Beim Durchführen des klassischen //Datasnoopings// wird das Beobachtungsmaterial (die Stichprobe) parallel auf eine Reihe von Hypothesen überprüft. In der Statistik spricht man in diesem Fall von einem multiplen Testproblem. Dies führt zur sogenannten //Alphafehler-Kumulierung//, dem Anstieg der Wahrscheinlichkeit für einen Fehler 1. Art. Mittels der Šidák (1967)-Korrektur
  
-$$\alpha_{lokal}=1-(1-\alpha_{global})^{1/p}$$+$$\alpha_{lokal}=1-(1-\alpha_{global})^{1/h}$$
  
-lässt sich die Irrtumswahrscheinlichkeit der gesamten Hypothesenfamilie $\alpha_{global}$ auf die einzelnen lokalen Hypothesen $\alpha_{lokal}$ portionieren. Hierbei entspricht $p$ der Anzahl der Hypothesen. In JAG3D ergibt sich $p$ aus der Anzahl aller prüfbaren Beobachtungen und dem Globaltest. Eine Beobachtung gilt als prüfbar, wenn sie einen [[:least-squares-adjustment|Redundanzanteil]] von $r_i \gt 0$ aufweist. Durch Vorgabe eines $\alpha_{lokal}$ und Umkehrung der Šidák-Korrektur lässt sich wahlweise auch das globale $\alpha_{global}$-Nivau ableiten.+lässt sich die Irrtumswahrscheinlichkeit der gesamten Hypothesenfamilie $\alpha_{global}$ auf die einzelnen lokalen Hypothesen $\alpha_{lokal}$ portionieren. Hierbei entspricht $h$ der Anzahl der Hypothesen. In JAG3D ergibt sich $h$ aus der Anzahl aller prüfbaren Beobachtungen und dem Globaltest. Eine Beobachtung gilt als prüfbar, wenn sie einen [[:least-squares-adjustment|Redundanzanteil]] von $r_i \gt 0$ aufweist. Durch Vorgabe eines $\alpha_{lokal}$ und Umkehrung der Šidák-Korrektur lässt sich wahlweise auch das globale $\alpha_{global}$-Nivau ableiten.
  
 Der Nichtzentralitätsparameter $\lambda$ ist durch das vorgegebene $\alpha$ und $\beta$ festgelegt und wird analog zum ermittelten $\alpha_{lokal}$ einheitlich bei allen $m$-dimensionalen Teststatistiken zugrunde gelegt. Hierdurch ändert sich die Testgüte der einzelnen Teststatistiken in Abhängigkeit der Freiheitsgrade $n$ und $m$. Der Nichtzentralitätsparameter $\lambda$ ist durch das vorgegebene $\alpha$ und $\beta$ festgelegt und wird analog zum ermittelten $\alpha_{lokal}$ einheitlich bei allen $m$-dimensionalen Teststatistiken zugrunde gelegt. Hierdurch ändert sich die Testgüte der einzelnen Teststatistiken in Abhängigkeit der Freiheitsgrade $n$ und $m$.
  
-$$\beta(m, n)=\beta(\beta,\lambda,p,\infty,m,n)$$+$$\beta(m, n)=\beta(\beta,\lambda,h,\infty,m,n)$$
  
 ===== Keine Abstimmung ===== ===== Keine Abstimmung =====
Zeile 104: Zeile 104:
 ===== $p$-Wert ===== ===== $p$-Wert =====
  
-Neben den beiden Teststatistiken $T_{prio}$ und $T_{post}$ kann eine mögliche Modellstörung auch mit dem $p$-Wert (engl. $p$-Value) beurteilt werden. Der $p$-Wert beschreibt hierbei eine Überschreitungswahrscheinlichkeit und definiert den Grenzwert, bei dem die als zutreffend angenommene Nullhypothese $H_0$ gerade noch verworfen werden kann. Der $p$-Wert ist somit eine Wahrscheinlichkeit und kann Werte zwischen 0 und 1 (bzw. 0 % und 100 %) annehmen. Die Nullhypothese $H_0$ ist allgemein zu verwerfen, wenn der Wert kleiner ist als ein vorgegebenes Signifikanzniveau $\alpha$. Analog zu den beiden Teststatistiken $T_{prio}$ und $T_{post}$ kann der $p$-Wert mit dem //a-priori// Varianzfaktor $\sigma_0^2$ und dem //a-posteriori// Varianzfaktor $\hat{\sigma}_0^2$ angegeben werden. +Neben den beiden Teststatistiken $T_{prio}$ und $T_{post}$ kann eine mögliche Modellstörung auch mit dem $p$-Wert (engl. $p$-Value) beurteilt werden. Der $p$-Wert beschreibt hierbei eine Überschreitungswahrscheinlichkeit und definiert den Grenzwert, bei dem die als zutreffend angenommene Nullhypothese $H_0$ gerade noch verworfen werden kann. Der $p$-Wert ist somit eine Wahrscheinlichkeit und kann Werte zwischen 0 und 1 (bzw. 0% und 100%) annehmen. Die Nullhypothese $H_0$ ist allgemein zu verwerfen, wenn der $p$-Wert kleiner als ein vorgegebenes Signifikanzniveau $\alpha$ ist. Analog zu den beiden Teststatistiken $T_{prio}$ und $T_{post}$ kann der $p$-Wert mit dem //a-priori// Varianzfaktor $\sigma_0^2$ und dem //a-posteriori// Varianzfaktor $\hat{\sigma}_0^2$ angegeben werden. 
  
-Da im Falle einer möglichen Modellstörung die $p$-Wert sehr klein werden, werden in JAG3D beide Evidenzmaße in logarithmischer Darstellung ausgegeben und mit $\log(p_{prio})$ bzw. $\log(p_{post})$ bezeichnet. Der hierdurch resultierende Wertebereich lautet $[\log(0), \log(1)] = [-\infty, 0]$. Die Nullhypothese ist zu verwerfen, wenn+Da im Falle einer möglichen Modellstörung die $p$-Werte sehr klein werden, sind in JAG3D beide Evidenzmaße in logarithmischer Darstellung zur Basis $e$ (natürlicher Logarithmus) angegeben und mit $\log(p_{prio})$ bzw. $\log(p_{post})$ bezeichnet. Der hierdurch resultierende Wertebereich lautet $[\log(0^+), \log(1)] = [-\infty, 0]$. Die Nullhypothese ist zu verwerfen, wenn
  
-$$p \alpha \asymp \log(p) \log(\alpha)$$+$$p \lt \alpha \asymp \log(p) \lt \log(\alpha)$$
  
 gilt. Im Gegensatz zur Bewertung mittels $T_{prio}$ bzw. $T_{post}$ bietet der $p$-Wert den Vorteil, verschiedene Testergebnisse miteinander zu vergleichen. gilt. Im Gegensatz zur Bewertung mittels $T_{prio}$ bzw. $T_{post}$ bietet der $p$-Wert den Vorteil, verschiedene Testergebnisse miteinander zu vergleichen.
least-squares-adjustment/outlier.1613581573.txt.gz · Zuletzt geändert: 2021/02/17 18:06 von Michael Lösler