Grobe Fehler und Konfidenzintervall

by Micha ⌂, Monday, September 16, 2019, 09:27 (30 days ago) @ gf

Hallo,

D.h. die Fehler meiner Horizontalstereckenbeobachtungen sind nicht normalverteilt, sondern folgen einer Verteilung mit fetten Enden ("fat tails"). Ich weiß aber a priori nicht, welche der Messwerte ungenauer sind.

Da die Normalverteilung von -∞ bis +∞ definiert ist, ist zunächst jeder Wert zulässig - jedoch nicht mit der selben Wahrscheinlichkeit p. Ob Werte demnach normalverteilt sind oder eben nicht, lässt sich nicht anhand eines Wertes identifizieren. Man könnte dies aber testen z.B. mit dem Shapiro-Wilk-Test.

Das Unangenehme ist jetzt natürlich, dass mir vom Programm für jeden Konfidenzlevel, den ich berechnen möchte, eine unterschiedliche Menge an groben Fehlern angezeigt wird, die ich erst einmal beseitigen muss. Wenn ich das nicht tue, dann wird ja vermutlich die Konfidenzellipse falsch berechnet, oder?

Nein, hier hast Du einen Denkfehler. Du musst den reinen Rechen- oder Ausgleichungsprozess von der Analyse trennen. Das Schätzen der Koordinaten und der zugehörigen Kovarianz-Matrix ist der reine Auswerteteil, der unabhängig von der Wahl bzgl. α und β ist. Die Festlegung von α und β beeinflusst demnach nur den Analyseteil dieser Ergebnisse, indem sie Grenzwerte definieren, die bei Überschreitungen angezeigt werden.

[ Ich denke ich habe verstanden, wie es dazu kommt, aber dennoch ist es natürlich kurios, dass gerade bei geringen Konfidenzandorderungen von 95% viele grobe Fehler bemängelt werden, während die meisten davon bei einer hohen Konfidenzanforderung von 99.9% auf einmal keine Rolle mehr spielen und nicht mehr bemängelt werden. Intuitiv würde man denken, dass es genau umgekehrt wäre. ]

Nein. Du definierst mit den bspw. α = 5 %, dass Du α = 5 % der Gesamtfläche als nicht vertrauenswürdig genug einstufst und lieber verwerfen möchtest. Ist α kleiner, erhöht sich folglich der Annahmebereich. Ein häufiger Irrtum ist zu glauben, dass man Ausreißer mit 95 % Wahrscheinlichkeit aufdecken würde. Wenn dies aber zutreffen würde, warum würde man dann nicht 100 % wollen? Die 5 % beziehen sich ausschließlich auf die eigenen Fehlentscheidungen (Fehler 1. Art), eine Beobachtung, deren Teststatistik über dem Grenzwert liegt, als Ausreißer zu klassifizieren, obwohl diese eben kein Ausreißer ist. Die 5 % sagt aber nichts darüber aus, ob von den als Ausreißer identifizierten Beobachtungen überhaupt ein Ausreißer dabei war. Wenn Du also 5 % wählst, dann erhöhst Du Deine Fehlentscheidungen. Bei 1 % ist dieses Risiko kleiner, weshalb Dir hier auch weniger Beobachtungen angekreidet werden.

Die Teststatistik liegt nach der Ausgleichung vor. Solange Du das funktionale und stochastische Modell sowie die Anzahl der Beobachtungen nicht veränderst, wird diese sich immer gleich ergeben. Mit der Wahl von α legst Du nun fest, mit welchem Wert die einfache Standardunsicherheit noch skaliert werden soll. Hieraus ergibt sich Dein Konfidenzbereich. Wählst Du ein kleines α, erhöht sich der Skalierungsfaktor und der Konfidenzbereich wird größer. Nimmst Du ein größeres α reduziert er sich. Fällt die zu bewertende Größe nun in den Konfidenzbereich, dann würde man die Abweichung als rein zufällig betrachten. Verlässt die Abweichung das definierte Konfidenzintervall, so bezeichnet man diese als signifikant. Nehmen wir an, dass die geschätzte Modellstörung einer Strecke ∇ = 0,9 mm ist und die einfache Standardunsicherheit von mit σ = 0,4 mm abgeschätzt wurde. Für α = 5 % ist die Skalierung etwa 2 (2-Sigma-Regel), sodass mit 0,9 / 0,4 > 2 die Modellstörung (leicht) signifikant wäre. Für α = 1 % ist die Skalierung etwa 3 (3-Sigma-Regel) und der selbe Test würde 0,9 / 0,4 < 3 keine Signifikanz unterstellen. Oder anders ausgedrückt, solange Du ein α < 2.44... wählst, wird als insignifikant klassifiziert. Ist hingegen α > 2.44..., so wird die Nullhypothese verworfen. An der Rechnung für die Teststatistik ändert sich aber nichts, nur an der Bewertung der Größe.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Tags:
Konfidenzintervall, Irrtumswahrscheinlichkeit, Ausreißertest, Teststatistik


Complete thread:

 RSS Feed of thread