Einstellung Zwangsausgleichung

by FA @, Tuesday, September 10, 2019, 08:42 (210 days ago)

Hallo, Michael.

Ich habe leider sehr große Schwierigkeiten mit den Einstellungen.
Ich habe viele Jahre WinKafafka genutzt und die Oberfläche/ Zuordnungen sind wesentlich anders.
Nach einiger Zeit der Selbstversuche nun meine Frage, liege ich bei den Einstellungen richtig?

-Richtungsmessgenauigkeit: 1,5 mgon (unter Hz, sigma a)
- Zielpunktexzentr.: 2 mm (unter Raumstr., NullPktAbw.)
- Streckenmessgenauigkeit: 3 mm (unter Raumstr., sigma a)
- entfernungsabh. Anteil: 3 mm/ km (generell Beob., sigma c(d))
- ZenitGenauigkeit: 2,0 mgon (unter Zenit., sigma a)
- Fehler Höhendiff: 4 mm (unter Hoehenunt., sigma a)
- Refraktionskoeff. 0,13 (unter Zenit, Refr. )

- GK, als KoordSystem (unter Einstellungen, Projektionseinst.)
Liege ich da richtig?

Zum Anderen welche sonstigen Einstellungen sind in 3D-Form zu treffen um eine gaengige Zwangausgleichung mit Fehlerellipsen der selben Groessenordnung, wie die StandAbweichungen, zu erhalten? Aehnlich der Katasterberechnungen..

Gruss

Florian

Einstellung Zwangsausgleichung

by Micha ⌂, Tuesday, September 10, 2019, 09:04 (210 days ago) @ FA

Hallo Florian,

Nach einiger Zeit der Selbstversuche nun meine Frage, liege ich bei den Einstellungen richtig?

Das kann ich Dir nicht direkt beantworten. Kafka kann meines Wissens keine 3D-Ausgleichung, sondern zerlegt das Problem in getrennte 2D und 1D-Probleme. Aus diesem Grund sind Ergebnisse, die einen völlig anderes funktionales Modell verwenden, nicht vergleichbar. Diese Aussage trifft allgemein zu und beschränkt sich nicht auf Kafka. Auch Caplan, Neptan oder NetzCG sind hier zu nennen.

Programme, die den Import von räumlichen Daten (Schrägstrecke und Zentiwinkel) erlauben, leiten aus diesen Daten intern die horizontale Strecke und den Höhenunterschied ab. Bei unserem o.g. Vergleich haben wir festgestellt, dass hierbei mitunter auch Reduktionen angebracht werden, die der Nutzer nicht aktivieren/deaktivieren kann. Die horizontale Strecke ergibt sich daher nicht aus der reinen Trigonometrie. Ich empfehle daher bei Vergleichen stets die Daten so aufzubereiten, dass wirklich jedes Programm identische Daten nutzt und eine interne intransparente Modifizierung der Daten unnötig wird.

Das klassische Kataster trennt die Lage von der Höhe und kennt daher kein gemeinsam definiertes echtes 3D-Netz. Wenn Du also eine Katastermessung auswertest, dann wirst Du um die Zerlegung des 3D-Netzes in ein 2D und 1D Netz nicht drum herumkommen. Alles andere wäre keine sachgerechte Ausgleichung.


-Richtungsmessgenauigkeit: 1,5 mgon (unter Hz, sigma a)
- Zielpunktexzentr.: 2 mm (unter Raumstr., NullPktAbw.)
- Streckenmessgenauigkeit: 3 mm (unter Raumstr., sigma a)
- entfernungsabh. Anteil: 3 mm/ km (generell Beob., sigma c(d))
- ZenitGenauigkeit: 2,0 mgon (unter Zenit., sigma a)
- Fehler Höhendiff: 4 mm (unter Hoehenunt., sigma a)
- Refraktionskoeff. 0,13 (unter Zenit, Refr. )

Diese Werte können bei den jeweiligen Punkt- bzw. Beobachtungsgruppen individuell vorgegeben werden, siehe hierzu Datentabellen und Gruppeneinstellungen. Wie diese Werte zur Bildung des stochastischen Modells verwendet werden, findet sich hier.

- GK, als KoordSystem (unter Einstellungen, Projektionseinst.)
Liege ich da richtig?

Wenn Du das Netz nicht in ein Lage- und Höhennetz trennst, liegst Du nicht richtig. GK ist eine Projektion und der Name impliziert bereits, dass es nur ein 2D-Netz ist. Raumstrecken und Zenitwinkel existieren demnach in diesem Netztyp nicht, wie diese Tabelle zeigt. Beachte bitte den Hinweis für die Beschreibung zu den Projektionseinstellungen: "Im Rahmen einer zweidimensionalen Ausgleichung (2D und 2,5D) mit amtlichem Bezug führt JAG3D die hierfür notwendigen Abbildungsreduktionen optional durch."

Zum Anderen welche sonstigen Einstellungen sind in 3D-Form zu treffen um eine gaengige Zwangausgleichung mit Fehlerellipsen der selben Groessenordnung, wie die StandAbweichungen, zu erhalten? Aehnlich der Katasterberechnungen..

Da im Kataster keine echten 3D-Netze existieren, erübrigt sich diese Frage eigentlich. Trenne die Lage von der Höhe für eine sachgerechte Katasterauswertung und um vergleichbare Ergebnisse zu gängigen Katasterprogrammen zu erhalten. ;-)

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Einstellung Zwangsausgleichung

by FA @, Tuesday, September 10, 2019, 09:28 (210 days ago) @ Micha

Hallo, Michael.
Es ist mir schon klar das GK ein 2D Model ist. Ist dann bei Jag 3D generell keine Möglichkeit vorhanden in diesem Modell Höhen auszuwerten und zu bestimmen?!?

Auch das Kafka Raum und Lage getrennt auswertet ist mir bewusst.

Wie auch die Einstellungen der Standardabweichungen.
Fakt ist es existiert kein Handbuch und daher beseelt mich eine gewisse Unsicherheit.
Das ist der Punkt.
Wie auch folgender:
Wenn ich eine Zwangsausgleichung in GK und Raum durchführen möchte, habe ich welche Einstellungen für die Ausgleichung fern ab der STandardabweichungen zu treffen?

Entscheidend sind sicher die Parameter zur Ausgleichungseinstellungen!?
Worauf habe ich da zu achten?
Und was sagt der P - Wert simpel gesagt genau aus?

Gruß

Florian

Einstellung Zwangsausgleichung

by Micha ⌂, Tuesday, September 10, 2019, 12:24 (210 days ago) @ FA

Hallo Florian,

Es ist mir schon klar das GK ein 2D Model ist.

Dann verstehe ich Deine bisherige Vorgehensweise nicht. Diese spiegelt dies so nicht unmittelbar wider.

Ist dann bei Jag 3D generell keine Möglichkeit vorhanden in diesem Modell Höhen auszuwerten und zu bestimmen?!?

Doch, und zwar genauso, wie es Kafka, Neptan usw. auch tun, als 2,5D, 2D+H oder 2D/1D-Auswertung (und was es noch für Bezeichnungen gibt) aber eben nicht als 3D-Auswertung. Die 2D+H Auswertung ist letztlich nichts anderes als eine g e t r e n n t e 1D und 2D-Auswertung, die in den meisten Programmen einfach nacheinander ablaufen. In JAG3D werden diese zwar gemeinsam ausgewertet, aber die Nebendiagonalblöcke der Normalgleichung sind alle Null, sodass eine gemeinsame Ausgleichung identische Ergebnisse liefert wie eine getrennte Auswertung. Die getrennte wird aber schneller sein aufgrund der jeweils kleineren Teilprobleme.

Um den Unterschied noch etwas zu verdeutlichen: Ich vergleiche es mal mit einem Werkzeugkoffer. Wenn Du mit einem der genannten Programme arbeitest, hast Du ausschließlich einen Schraubenzieher in Deiner Toolbox. JAG3D hat nun neben diesem Schraubenzieher noch einen Hammer in der Kiste. Du versucht nun mit dem Hammer die Schraube zu versenken mit JAG3D anstatt naheliegend auch hier den Schraubenzieher zu verwenden - und wunderst Dich, warum die Schraube nun krum ist.

Fakt ist es existiert kein Handbuch und daher beseelt mich eine gewisse Unsicherheit.

Das ist ebenso falsch. Das im letzten posting mehrfach zitierte Wiki ist das Handbuch. Es wird auch innerhalb von JAG3D referenziert.

Wenn ich eine Zwangsausgleichung in GK und Raum durchführen möchte

... dann willst Du scheinbar nicht verstehen, dass es in GK oder UTM kein Raumnetz gibt. Die Lage und die Höhe sind getrennt definiert.

Entscheidend sind sicher die Parameter zur Ausgleichungseinstellungen!?

Nein, entscheidend sind die Daten, die der Anwender zur Verfügung stellt und den Zweck den er verfolgt. JAG3D ist nur das Werkzeug und hinterfragt die Sinnhaftigkeit eines Vorhabens daher nicht.

Worauf habe ich da zu achten?

Das Deine Daten zu den gewünschten Anforderungen passen. Wenn GK oder UTM gefordert ist, ist es eben kein 3D-Netz und lässt sich auch nicht als solches auswerten.

Und was sagt der P - Wert simpel gesagt genau aus?

JAG3D nutzt für Kurzerklärung den Tooltip. Dort findest Du eine kurze Beschreibung, ansonsten auch im Wiki. Ansonsten weiß auch Wikipedia, was der P-Wert ist.


Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Einstellung Zwangsausgleichung

by Pierre, Tuesday, September 10, 2019, 13:49 (210 days ago) @ FA

Hallo,

mal so zwischen Tür und Angel ... aber vielleicht hilft es ja.

Lagenetz (GK) und gemessene Höhenunterschiede in einer Ausgleichung:

Als Beobachtungen die Richtungssätze (1 Gruppe pro Richtungssatz), Horizontalstrecken! und gemessenen Höhenunterschiede (trigon. oder geometrisch oder sonst woher) einführen.

Bei der "Zwangsausgleichung" die datumsbestimmenden Punkte als Festpunkte und alle weiteren Punkte (Stand-, Verknüpfungs- Objektpunkte usw.) - mit ihren Näherungskoord. - als Neupunkte definieren.

Bei den Projektionseinstellungen ist die GK-Reduktion zu aktivieren und die Höhenreduktion. Sofern in den Näherungskoord. keine Höheninformationen vorliegen ist noch die mittlere (ellipsoidische) Höhe einzugeben.

@Micha
Dort müsste doch die ellipsoidische Höhe rein oder bzw. hast Du eine Undulation fest im Programm verankert und ist dort die Gebrauchshöhe einzutragen?

Dann sollte das eigentlich funktionieren ...;-)

Beim stochastischen Modell noch die folgenden Hinweise (was mir so auffällt) wobei ich die Größenordnung der Angaben natürlich nicht bewerten kann!

Der $\sigma_a$ Betrag ist immer der absolute Unsicherheitsbetrag, die anderen beiden sind streckenabhängig. Bei den Richtungen ist somit unter $\sigma_c$ die Unsicherheit der Anzielung, Zentrierung usw. in Querrichtung anzugeben. In Längsrichtung ist eine Zentrierunsicherheit bspw. im konstanten Anteil der Strecke zu berücksichtigen, sofern man dies denn möchte.

-Richtungsmessgenauigkeit: 1,5 mgon (unter Hz, sigma a)

Wenn da der konstante Anteil der Richtungsmessgenauigkeit ist = korrekt.

- Zielpunktexzentr.: 2 mm (unter Raumstr., NullPktAbw.)

Leider nein! So wie oben beschrieben die Unsicherheiten der Zentrierung, Anzielung usw. als $\sigma_c$-Anteil bei den Richtungen und nach Bedarf im konstanten Anteil der Strecken berücksichtigen.

- Streckenmessgenauigkeit: 3 mm (unter Raumstr., sigma a)
- entfernungsabh. Anteil: 3 mm/ km (generell Beob., sigma c(d))

An der richtigen Stelle angegeben, aber bitte bei den Horizontalstrecken!

- ZenitGenauigkeit: 2,0 mgon (unter Zenit., sigma a)

Soweit korrekt ggf. ist hier unter $\sigma_c$ noch eine Anzielgenauigkeit (Anteil in vertikaler Richtung) zu berücksichtigen.

- Fehler Höhendiff: 4 mm (unter Hoehenunt., sigma a)

Wenn die Höhenunterschiede nur mit einem konstanten Anteil angegeben werden sollen, dann unter $\sigma_a$ korrekt und den $\sigma_b$-Anteil dann 0 setzen.

- Refraktionskoeff. 0,13 (unter Zenit, Refr. )

Den würde ich bei 0 belassen.

Die Hinweise von Micha würde ich mir zu Herzen nehmen, ebenso wie das Wiki!

Viele Grüße
Pierre

P.S. Geht es denn hier um die "katasterkonforme" Ausgleichung eines Netzes (mal die höhen außen vorgelassen)?

Einstellung Zwangsausgleichung

by Micha ⌂, Tuesday, September 10, 2019, 13:58 (210 days ago) @ Pierre

Hej Pierre,

@Micha
Dort müsste doch die ellipsoidische Höhe rein oder bzw. hast Du eine Undulation fest im Programm verankert und ist dort die Gebrauchshöhe einzutragen?

Ersteres. Dort muss die ellipsoidische Höhe rein. Da diese Einstellung aber nur für horizontale Strecken gilt, hängen wir noch nicht an diesen Feinheiten. ;-)

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Einstellung Zwangsausgleichung

by FA @, Tuesday, September 10, 2019, 18:02 (209 days ago) @ Micha

Erstmal vielen Dank für die Mühen.

Ich habe alles so umgesetzt.
Aber das Hauptproblem bleibt vorhanden.
Die Fehlerellipsen sind immer noch wesentlich höher als diese bei den Standardabweichung in Y,X und Z sein sollten.
Mein Frage, welche Einstellungen muss ich für die Zwangsausgleichung treffen. Nur als allgemeine Häkchen etc..?
Es kann nur daran liegen.

Bitte machen Sie sich frei vom allgemeinen Kataster. Meine Aussage war nur das ich das Programm "Kafka" viele Jahre für diese Zwecke nutzte.

Wie gesagt, nur die Einstellungen der Ausgleichung!?

Danke

Freundlicher Gruß

Florian Altner

Einstellung Zwangsausgleichung

by Micha ⌂, Tuesday, September 10, 2019, 18:12 (209 days ago) @ FA

Hallo Florian,

Die Fehlerellipsen sind immer noch wesentlich höher als diese bei den Standardabweichung in Y,X und Z sein sollten.

Mir ist nicht klar, woran Du das festmachst. Hast Du das Netz nun als 2D-Netz ausgewertet oder nicht? Bei einem 3D-Netz werden die Ellipsen zwar geplottet aber numerische Werte werden nirgends ausgegeben, da der Konfidenzbereich hier durch ein Ellipsoid beschrieben wird.

Mein Frage, welche Einstellungen muss ich für die Zwangsausgleichung treffen. Nur als allgemeine Häkchen etc..?
Es kann nur daran liegen.

Dass es nicht nru daran liegen muss, zeigt diese Diskussion hier. Gleiche Ergebnisse sind nur bei identischen Eingangsdaten erwartbar. Wenn also alles gleich wäre, würde es auch keine Unterschiede geben.

Wenn es nur Fest- und Neupunkte im Projekt gibt, ist es automatisch eine Ausgleichung mit varianzfreien Festpunkten, die ihrerseits Zwang ausüben. Wenn es eine dynamische Ausgleichung sein soll, sind Anschlußpunkte mit Unsicherheiten zu wählen. Auch hierzu findet sich einiges in der Dokumentation.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Einstellung Zwangsausgleichung

by gf, Tuesday, September 10, 2019, 19:10 (209 days ago) @ FA
edited by gf, Tuesday, September 10, 2019, 19:20

Die Fehlerellipsen sind immer noch wesentlich höher als diese bei den Standardabweichung in Y,X und Z sein sollten.

Gehst Du beim Vergleich der Ellipsen von gleicher Konfidenz aus? Mein Verständnis ist, dass die gewünschte Konfidenz, die neben der Kovarianzmatrix die Größe der Fehlerellipsen bestimmt, in Einstellungen -> Teststatistik -> Irrtumswahrscheinlichkeit festgelegt wird. Der voreingestellte Wert ist offenbar 0.1%. Ellipsen für 1% oder gar 5% Irrtumswahrscheinlichkeit würden natürlich wesentlich kleiner ausfallen.

@Micha, btw., gibt es einen zwingenden Grund, für den Hypothesis/Outlier-Test und für die Fehlerellipsen die selbe Irrtumswahrscheinlichkeit zu benutzen?

Grüße
gf

Einstellung Zwangsausgleichung

by Micha ⌂, Tuesday, September 10, 2019, 22:05 (209 days ago) @ gf

Hallo gf,

@Micha, btw., gibt es einen zwingenden Grund, für den Hypothesis/Outlier-Test und für die Fehlerellipsen die selbe Irrtumswahrscheinlichkeit zu benutzen?

Nein. Die Motivation ist hier, dass in beiden Fällen der Konfidenzbereich benötigt wird. Frage ich mal andersherum: Welcher (fachliche) Grund besteht, einmal einen kleineren Bereich zu akzeptieren und im selben Analyseschritt an anderer Stelle diesen als nicht ausreichend groß zu empfinden?

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Einstellung Zwangsausgleichung

by gf, Wednesday, September 11, 2019, 20:36 (208 days ago) @ Micha

@Micha, btw., gibt es einen zwingenden Grund, für den Hypothesis/Outlier-Test und für die Fehlerellipsen die selbe Irrtumswahrscheinlichkeit zu benutzen?

Nein. Die Motivation ist hier, dass in beiden Fällen der Konfidenzbereich benötigt wird. Frage ich mal andersherum: Welcher (fachliche) Grund besteht, einmal einen kleineren Bereich zu akzeptieren und im selben Analyseschritt an anderer Stelle diesen als nicht ausreichend groß zu empfinden?

Hallo Micha, hier mal ein Beispiel. Ich habe z.B. ca. 150 Beobachtungen, darin sind 3 Ausreißer enthalten. Mit 0.1% werden diese gerade noch nicht als solche klassifiziert, mit >=1% aber schon.

Wenn ich alle drei Ausreißer entferne, dann verbessert sich der Gesamtvarianzfaktor um Faktor 2 (von ca. 1.2 auf ca. 0.6). Dann war es m.E. doch wert, diese Ausreißer zu entfernen, denn die verbleibenden 147 Beobachtungen passen nun doch wesentlich besser zueinander?

Die Ellipsen möchte ich aber dennoch gerne aus den verbleibenden 147 Beobachtungen nicht für 1%, sondern für 0.1% Irrtumswahrscheinlichkeit berechnen (um die Gesamtwahrscheinlichkeit, dass mindestens ein Punkt aus seiner Ellipse ausbricht, gering zu halten).

Viele Grüße
gf

Einstellung Zwangsausgleichung

by Micha ⌂, Thursday, September 12, 2019, 07:59 (208 days ago) @ gf

Hallo gf,

Ich habe z.B. ca. 150 Beobachtungen, darin sind 3 Ausreißer enthalten. Mit 0.1% werden diese gerade noch nicht als solche klassifiziert, mit >=1% aber schon.

Ja, da Du mit der Erhöhung auf 1 % die Grenze nach unten verschiebst. Oder anderes ausgedrückt: Von 100 Beobachtungen wirst Du bei 1 % genau eine Beobachtung als Ausreißer einstufen, die kein Ausreißer war (Fehler 1. Art). Ob es also drei Ausreißer waren (oder vielleicht sogar keiner) wirst Du nicht erkennen. Ein kleineres α verringert demnach das Risiko, einen Fehler 1. Art zu machen (fehlerfreie Messungen als falsch einzustufen).

Wenn ich alle drei Ausreißer entferne, dann verbessert sich der Gesamtvarianzfaktor um Faktor 2 (von ca. 1.2 auf ca. 0.6).

Bitte beachte, dass Du dies konsekutiv machen musst. Die Hypothese ist so formuliert, dass es nur eine falsche Beobachtung im Datenbestand gibt. Werden mehrere angezeigt, könnte es sich um eine Verschmierung handeln. In diesem Fall wird empfohlen, nur die Beobachtung mit der größten Teststatistik zu eliminieren. Anschließen die Ausgleichung wiederholen und wiederum nur die größte Teststatistik bewerten (und ggf. eliminieren).

Das sich die Varianz verringert ist naheliegend. Du entfernst Daten, die eine große Verbesserung hatten, wodurch sich ohne diese Messungen natürlich eine kleinere Verbesserungsquadratsumme einstellt. Dies wird mit jeder Reduktion des Datenbestandes passieren, bis irgendwann ein widerspruchsfreies Set an Messungen vorliegt und keine Verbesserungen mehr bestimmbar sind.

Dann war es m.E. doch wert, diese Ausreißer zu entfernen, denn die verbleibenden 147 Beobachtungen passen nun doch wesentlich besser zueinander?

Du kannst abschätzen, ob sich die Eliminierung gelohnt hat. Die Redundanz zeigt an, wie gut eine Beobachtung durch die übrigen kontrolliert wird. Ein r=0,9 bedeutet, dass diese Messung zu 90 % von den übrigen Messungen kontrolliert wird. Gleichzeitig kann man aber auch den Anteil der Beobachtung auf die Schätzung mit der Redundanz ausrechnen, dieser beträgt (1 - r) % = 10 %. Bedeutet also, dass lediglich 10 % der Information, die diese Beobachtung mitbringt, in die finale Lösung einfließt. (Kleines Beispiel: Ein Mittelwert aus 10 Messungen bedeutet, dass jede Messung einen Anteil von 1/10 auf den geschätzten Mittelwert besitzt. Die anderen 9/10 werden durch die anderen Messungen beigesteuert.)

Der Anteil, den die Beobachtung auf die Schätzung hat, kann auf den möglichen groben Fehler übertragen werden. In JAG3D wird diese Störgröße als (Nabla) ausgegeben. Nehmen wir an, ∇ = 10 mm und r = 0,9, dann geht diese vermutete Störgröße auch nur zu (1 - r) 100 % = 10 % in den Schätzwerten auf, hier also 1 mm. In JAG3D wird dieser Wert als EP (Einfluss auf die Punktlage) bezeichnet. Bitte beachte, dass die Formeln dort etwas komplexer sind, da die o.g. Rechnung nur gilt, wenn die Beobachtungen keine Zusatzunbekannten haben. Für Richtungsmessungen muss bspw. die Orientierung noch berücksichtigt werden.

Du könntest so also überschlagen, ob sich das Eliminieren tatsächlich gelohnt hat oder ob es eher einen akademischen Wert besitzt.

Die Ellipsen möchte ich aber dennoch gerne aus den verbleibenden 147 Beobachtungen nicht für 1%, sondern für 0.1% Irrtumswahrscheinlichkeit berechnen

Dies bedeutet, bei der Punktlage würdest Du extremere Ausprägungen akzeptieren als bei Deinen Messungen? Ich stelle mir eine Deformationsanalyse vor. Sowohl eine Höhenmessung (Nivellement) als auch ein Höhenpunkt besitzen die selbe Varianz und das selbe . Die Messung würdest Du also verwerfen mit 1 %, die Deformation aber mit 0,1 % akzeptieren.

Um Deinen Wunsch aber zu entsprechen, müsstest Du tatsächlich noch eine zusätzliche Auswertung ganz am Ende machen. In der ersten Analyse bewertest Du dann ausschließlich die Beobachtungen mit einem gewünschten α = 1 %. Anschließend müsstest Du das α = 0,1 % neu festlegen, damit Du für die Koordinaten die gewünschten Intervalle erhältst. Bitte beachte, dass Du hierfür auf eine Abstimmung der Teststatistiken verzichten musst, da sonst das abgestimmte α verwendet wird, welches Du bei den globalen Ergebnissen siehst.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Grobe Fehler und Konfidenzintervall

by gf, Sunday, September 15, 2019, 20:23 (204 days ago) @ Micha

Ja, da Du mit der Erhöhung auf 1 % die Grenze nach unten verschiebst. Oder anderes ausgedrückt: Von 100 Beobachtungen wirst Du bei 1 % genau eine Beobachtung als Ausreißer einstufen, die kein Ausreißer war (Fehler 1. Art). Ob es also drei Ausreißer waren (oder vielleicht sogar keiner) wirst Du nicht erkennen. Ein kleineres α verringert demnach das Risiko, einen Fehler 1. Art zu machen (fehlerfreie Messungen als falsch einzustufen).

Hallo Micha, ich habe meine Daten nochmals genauer untersucht. Du hast vermutlich recht, dass es keine klassischen Ausreißer / groben Fehler sind, sondern durchaus "fehlerfreie" Messungen, die jedoch eine höhere Ungenauigkeit als die restlichen Streckenmessungen aufweisen. D.h. die Fehler meiner Horizontalstereckenbeobachtungen sind nicht normalverteilt, sondern folgen einer Verteilung mit fetten Enden ("fat tails"). Ich weiß aber a priori nicht, welche der Messwerte ungenauer sind.

Ich könnte jetzt einfach sigma_a der Horizontalstreckenbeobachtungsgruppe auf ca. 3mm erhöhen, um einen ausgewogenen Varianzfaktor zu erhalten. Dann werden aber bei der Ausgleichung größere Konfidenzellipsen geschätzt (die dann wiederum meine Akzeptanz in mm überschreiten :-(), weil die "guten" Messwerte nicht mehr ausreichend gewichtet werden...

[...] Dies bedeutet, bei der Punktlage würdest Du extremere Ausprägungen akzeptieren als bei Deinen Messungen?

Nicht akzeptieren, sondern einfach nur berechnen. Meine Akzeptanzgrenze wird letztendlich in mm gemessen, und ich habe mir das Ziel <= 10mm für die Unsicherheit der geschätzten Punktlagen gesetzt. Die würde ich gerne mit 99,9% Konfidenz erreichen. Und falls bei 99.9% die Ellipsen doch noch größer als 10mm ausfallen sollten, dann interessiert mich umgekehrt, mit welcher Konfidenz ich <= 10 mm noch erreiche. Dann kann ich entscheiden, wie ich weiter vorgehe...

Da mir letztere Information nicht berechnet wird, möchte ich einfach mehrere Ellipsen berechnen, für z.B. 95%, 99%, 99.7% und 99.9% Konfidenz, und dann schauen, welcher Konfidenzlevel zu den geforderten 10mm passt. Das Unangenehme ist jetzt natürlich, dass mir vom Programm für jeden Konfidenzlevel, den ich berechnen möchte, eine unterschiedliche Menge an groben Fehlern angezeigt wird, die ich erst einmal beseitigen muss. Wenn ich das nicht tue, dann wird ja vermutlich die Konfidenzellipse falsch berechnet, oder? Und wenn ich für die Berechnung jedes Konfidenzlevels unterschiedlieche Mengen an groben Fehlern ausblenden muss, dann stimmen auch die geschätzten Punktlagen der Berechnungen nicht überein.

[ Ich denke ich habe verstanden, wie es dazu kommt, aber dennoch ist es natürlich kurios, dass gerade bei geringen Konfidenzandorderungen von 95% viele grobe Fehler bemängelt werden, während die meisten davon bei einer hohen Konfidenzanforderung von 99.9% auf einmal keine Rolle mehr spielen und nicht mehr bemängelt werden. Intuitiv würde man denken, dass es genau umgekehrt wäre. ]

Neben den Konfidenzbereichen für die geschätzten Punktlagen interessieren mich primär natürlich die wahrscheinlichsten Punktlagen. Bei nicht normalverteilten Fehlern sind LS jedoch nicht unbedingt ein unbiased MLE, sodass die Benutzung ausreißerbereinigter Messwerte (oder alternativ robuste Schätzung) dem Ziel einer MLE vermutlich näher kommt.

Mein Gedanke war daher, bei alpha=5% erst mal die groben Fehler, die dort gemeldet werden, auszusortieren, und dann für alle weiteren Berechnungen nur die verbleibenden Beobachtungen zu verwenden. Bei "normalen" Regressionsproblemen, wo man z.B. 10 Parameter aus 1000 Beobachtungen schätzt, hätte man damit keinen großen Informationsverlust. Inzwischen habe ich auch die Erkenntnis, dass das bei der Netzausgleichung jedoch kontraproduktiv sein kann, weil man dort oft einfach nicht ausreichende Redundanz hat.

Ich habe mich letztendlich entschieden, die betroffenen Beobachtungen in eine separate Gruppe mit höherem sigma_a einzuordnen, damit sie nach wie vor zum Ergebnis beitragen können, während die "guten" Beobachtungen in der anderen Gruppe entsprechend höher gewichtet werden. Mit ein wenig Feilen an den Sigmas erreiche ich auch meine gewünschten <= 10mm mit 99.9%, und die Varianzfaktoren sind noch "pessimistisch" (< 1).

Viele Grüße
gf

Grobe Fehler und Konfidenzintervall

by Micha ⌂, Monday, September 16, 2019, 09:27 (204 days ago) @ gf

Hallo,

D.h. die Fehler meiner Horizontalstereckenbeobachtungen sind nicht normalverteilt, sondern folgen einer Verteilung mit fetten Enden ("fat tails"). Ich weiß aber a priori nicht, welche der Messwerte ungenauer sind.

Da die Normalverteilung von -∞ bis +∞ definiert ist, ist zunächst jeder Wert zulässig - jedoch nicht mit der selben Wahrscheinlichkeit p. Ob Werte demnach normalverteilt sind oder eben nicht, lässt sich nicht anhand eines Wertes identifizieren. Man könnte dies aber testen z.B. mit dem Shapiro-Wilk-Test.

Das Unangenehme ist jetzt natürlich, dass mir vom Programm für jeden Konfidenzlevel, den ich berechnen möchte, eine unterschiedliche Menge an groben Fehlern angezeigt wird, die ich erst einmal beseitigen muss. Wenn ich das nicht tue, dann wird ja vermutlich die Konfidenzellipse falsch berechnet, oder?

Nein, hier hast Du einen Denkfehler. Du musst den reinen Rechen- oder Ausgleichungsprozess von der Analyse trennen. Das Schätzen der Koordinaten und der zugehörigen Kovarianz-Matrix ist der reine Auswerteteil, der unabhängig von der Wahl bzgl. α und β ist. Die Festlegung von α und β beeinflusst demnach nur den Analyseteil dieser Ergebnisse, indem sie Grenzwerte definieren, die bei Überschreitungen angezeigt werden.

[ Ich denke ich habe verstanden, wie es dazu kommt, aber dennoch ist es natürlich kurios, dass gerade bei geringen Konfidenzandorderungen von 95% viele grobe Fehler bemängelt werden, während die meisten davon bei einer hohen Konfidenzanforderung von 99.9% auf einmal keine Rolle mehr spielen und nicht mehr bemängelt werden. Intuitiv würde man denken, dass es genau umgekehrt wäre. ]

Nein. Du definierst mit den bspw. α = 5 %, dass Du α = 5 % der Gesamtfläche als nicht vertrauenswürdig genug einstufst und lieber verwerfen möchtest. Ist α kleiner, erhöht sich folglich der Annahmebereich. Ein häufiger Irrtum ist zu glauben, dass man Ausreißer mit 95 % Wahrscheinlichkeit aufdecken würde. Wenn dies aber zutreffen würde, warum würde man dann nicht 100 % wollen? Die 5 % beziehen sich ausschließlich auf die eigenen Fehlentscheidungen (Fehler 1. Art), eine Beobachtung, deren Teststatistik über dem Grenzwert liegt, als Ausreißer zu klassifizieren, obwohl diese eben kein Ausreißer ist. Die 5 % sagt aber nichts darüber aus, ob von den als Ausreißer identifizierten Beobachtungen überhaupt ein Ausreißer dabei war. Wenn Du also 5 % wählst, dann erhöhst Du Deine Fehlentscheidungen. Bei 1 % ist dieses Risiko kleiner, weshalb Dir hier auch weniger Beobachtungen angekreidet werden.

Die Teststatistik liegt nach der Ausgleichung vor. Solange Du das funktionale und stochastische Modell sowie die Anzahl der Beobachtungen nicht veränderst, wird diese sich immer gleich ergeben. Mit der Wahl von α legst Du nun fest, mit welchem Wert die einfache Standardunsicherheit noch skaliert werden soll. Hieraus ergibt sich Dein Konfidenzbereich. Wählst Du ein kleines α, erhöht sich der Skalierungsfaktor und der Konfidenzbereich wird größer. Nimmst Du ein größeres α reduziert er sich. Fällt die zu bewertende Größe nun in den Konfidenzbereich, dann würde man die Abweichung als rein zufällig betrachten. Verlässt die Abweichung das definierte Konfidenzintervall, so bezeichnet man diese als signifikant. Nehmen wir an, dass die geschätzte Modellstörung einer Strecke ∇ = 0,9 mm ist und die einfache Standardunsicherheit von mit σ = 0,4 mm abgeschätzt wurde. Für α = 5 % ist die Skalierung etwa 2 (2-Sigma-Regel), sodass mit 0,9 / 0,4 > 2 die Modellstörung (leicht) signifikant wäre. Für α = 1 % ist die Skalierung etwa 3 (3-Sigma-Regel) und der selbe Test würde 0,9 / 0,4 < 3 keine Signifikanz unterstellen. Oder anders ausgedrückt, solange Du ein α < 2.44... wählst, wird als insignifikant klassifiziert. Ist hingegen α > 2.44..., so wird die Nullhypothese verworfen. An der Rechnung für die Teststatistik ändert sich aber nichts, nur an der Bewertung der Größe.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Tags:
Konfidenzintervall, Irrtumswahrscheinlichkeit, Ausreißertest, Teststatistik

Grobe Fehler und Konfidenzintervall

by gf, Monday, September 16, 2019, 15:37 (203 days ago) @ Micha

Ob Werte demnach normalverteilt sind oder eben nicht, lässt sich nicht anhand eines Wertes identifizieren. Man könnte dies aber testen z.B. mit dem Shapiro-Wilk-Test.

Hallo Micha, ja, den Shapiro-Wilk hatte ich ebefalls "befragt". Dieser sagt ein klares p=1.00 zu den Residien (epsilon) der bereinigten Beobachtungen, und < 1 ohne Bereinigung (den genauen Wert habe ich nicht mehr im Kopf). Bei einer geringen Anzahl an Beobachtungen ist das Ergebnis sicher mit Vorsicht zu genießen, aber zumindest die Tendenz ist zu erkennen.

Viele Grüße
gf

Grobe Fehler und Konfidenzintervall

by gf, Monday, September 16, 2019, 16:12 (203 days ago) @ Micha

Das Unangenehme ist jetzt natürlich, dass mir vom Programm für jeden Konfidenzlevel, den ich berechnen möchte, eine unterschiedliche Menge an groben Fehlern angezeigt wird, die ich erst einmal beseitigen muss. Wenn ich das nicht tue, dann wird ja vermutlich die Konfidenzellipse falsch berechnet, oder?


Nein, hier hast Du einen Denkfehler. Du musst den reinen Rechen- oder Ausgleichungsprozess von der Analyse trennen. Das Schätzen der Koordinaten und der zugehörigen Kovarianz-Matrix ist der reine Auswerteteil, der unabhängig von der Wahl bzgl. α und β ist. Die Festlegung von α und β beeinflusst demnach nur den Analyseteil dieser Ergebnisse, indem sie Grenzwerte definieren, die bei Überschreitungen angezeigt werden.

Hallo Micha, mir geht es darum: Wenn die gegebene Kombination aus Beobachtungen und Modell (vorgegebene sigma-Werte,...) beim Hypothesentest durchfällt, sind denn dann die berechneten Konfidenzellipsen dennoch voll vertrauenswürdig, sodass sie mir jene Bereiche anzeigen, aus denen die geschätzten Punktlagen mit einer Wahrscheinlichkeit von 1-α nicht ausbrechen werden?

Wenn das nicht der Fall ist (was ich annehme), dann muss ich ja doch die Daten bereinigen, und/oder das Modell so lange anpassen, bis der Hypothesentest erfolgreich ist, bevor ich vertrauenswürdige Konfidenzbereiche berechnen kann.

Viele Grüße
gf

Grobe Fehler und Konfidenzintervall

by Micha ⌂, Thursday, September 19, 2019, 12:22 (201 days ago) @ gf

Hallo,

Wenn die gegebene Kombination aus Beobachtungen und Modell (vorgegebene sigma-Werte,...) beim Hypothesentest durchfällt, sind denn dann die berechneten Konfidenzellipsen dennoch voll vertrauenswürdig, sodass sie mir jene Bereiche anzeigen, aus denen die geschätzten Punktlagen mit einer Wahrscheinlichkeit von 1-α nicht ausbrechen werden?

Du vermischt hier zwei Sachen. Wenn sich grobe Fehler in den Daten befinden, ist die Schätzung verzerrt. Dies gilt für die Parameter aber auch für die Varianz-Kovarianz-Matrix. Dies ist unstrittig. Da die Anzahl der groben Fehler nicht von der Wahl eines α abhängen, stellt sich Deine Frage so nicht. Entweder, das Datenmaterial ist bereinigt, dann sind (für jedes beliebige α) alle Konfidenzbereiche unverzerrt (Normalverteilung und lineares Modell seien hier mal unterstellt) oder, das Datenmaterial enthält Ausreißer, dann sie sind die Schätzwerte (für jedes beliebige α) verzerrt. Die Vertrauenswürdigkeit richtet sich nicht nach der Größe des α sondern ergibt sich vielmehr aus Deinen eigentlichen Beobachtungen.

Wenn das nicht der Fall ist (was ich annehme), dann muss ich ja doch die Daten bereinigen, und/oder das Modell so lange anpassen, bis der Hypothesentest erfolgreich ist, bevor ich vertrauenswürdige Konfidenzbereiche berechnen kann.

Ich habe es bereits versucht zu erklären: Das α hat nichts mit der Anzahl der Ausreißer in Deinen Daten zu tun. Es erlaubt keinen Rückschluss auf die Qualität Deiner Messungen sondern definiert, wie häufig _Du_ eine Fehlentscheidung treffen möchtest und eine fälschlicherweise als Ausreißer markierte Beobachtung entfernst.

Die Konfidenzbereiche der Punkte zeigen Dir auch nicht an, ob der wahre Wert (mit einer gewählten Wahrscheinlichkeit 1-α) in diesem Intervall liegt. Der wahre Wert liegt entweder drin oder eben nicht.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Grobe Fehler und Konfidenzintervall

by gf, Thursday, September 19, 2019, 23:18 (200 days ago) @ Micha

Hallo Micha,

Du vermischt hier zwei Sachen. Wenn sich grobe Fehler in den Daten befinden, ist die Schätzung verzerrt. Dies gilt für die Parameter aber auch für die Varianz-Kovarianz-Matrix. Dies ist unstrittig. Da die Anzahl der groben Fehler nicht von der Wahl eines α abhängen, stellt sich Deine Frage so nicht. Entweder, das Datenmaterial ist bereinigt, dann sind (für jedes beliebige α) alle Konfidenzbereiche unverzerrt (Normalverteilung und lineares Modell seien hier mal unterstellt) oder, das Datenmaterial enthält Ausreißer, dann sie sind die Schätzwerte (für jedes beliebige α) verzerrt.

Ok, das kann ich soweit nachvollziehen.

Die Vertrauenswürdigkeit richtet sich nicht nach der Größe des α sondern ergibt sich vielmehr aus Deinen eigentlichen Beobachtungen.

Ich habe es bereits versucht zu erklären: Das α hat nichts mit der Anzahl der Ausreißer in Deinen Daten zu tun. Es erlaubt keinen Rückschluss auf die Qualität Deiner Messungen sondern definiert, wie häufig _Du_ eine Fehlentscheidung treffen möchtest und eine fälschlicherweise als Ausreißer markierte Beobachtung entfernst.

Ja klar, α ist ja erst mal nur ein Schwellwert, denn _ich_ vorgeben muss, womit ich auch die Höhe des Risikos für False Positives festlege. Der Wert erlaubt per se natürlich keinen Rückschluss auf die Qualität der Messungen.

Allerdings erwarte ich vom Hypothesentest, dass er mich unterstützen kann, zu bewerten wie gut das gegebene Modell und die Daten zusammen passen. Wenn er mich dabei nicht unterstützen kann, dann muss ich hinterfragen, wozu gibt es ihn überhaupt, wenn das Ergebnis keine Aussagekraft haben soll?

Dass er als statistischer Test keine fehlerfreien ja/nein Ergebnisse liefern kann, sondern dass es sowohl False Positives als auch False Negatives geben kann (und wird), mit denen ich leben muss, ist klar.

Die Konfidenzbereiche der Punkte zeigen Dir auch nicht an, ob der wahre Wert (mit einer gewählten Wahrscheinlichkeit 1-α) in diesem Intervall liegt.

Dann könnte hier mein momentan noch größtes Missverständnis liegen, denn ich hatte die "Vertrauenswürdigkeit" ja gerade auf diese vermeintliche Aussagekraft der Konfidenzbereiche bezogen. Meine Annahme war, dass die Konfidenzbereiche der Punkte diese Aussagekraft hätten (zumindest näherungsweise), wenn sich keine Ausreißer in den Daten befinden, und wenn das Modell korrekt gewählt wurde.

Aber welche Aussagekraft haben sie dann?

Hmmm, eigentlich würden mich durchaus jene Bereiche interessieren, in denen die wahren Punktkoordinaten mit einer vorgegebenen Wahrscheinlichkeit liegen. Kann ich diese irgendwie ermitteln?

Der wahre Wert liegt entweder drin oder eben nicht.

Diese Aussage stimmt natürlich immer, aber ich wüsste nicht, wie ich davon eine Qualitätsmetrik ableiten soll ;-)

Viele Grüße
gf

Grobe Fehler und Konfidenzintervall

by Micha ⌂, Friday, September 20, 2019, 08:23 (200 days ago) @ gf

Hallo,

vielleicht habe ich Dich hier auch missverstanden.

Mein Gedanke war daher, bei alpha=5% erst mal die groben Fehler, die dort gemeldet werden, auszusortieren, und dann für alle weiteren Berechnungen nur die verbleibenden Beobachtungen zu verwenden.

Ich hatte diese Frage so interpretiert: Muss ich die durch die Erhöhung von α neuerlich angezeigten Ausreißer entfernen, damit die Konfidenzintervalle vertrauenswürdig(er) sind?

Bezogen auf das α ist diese Frage eindeutig zu verneinen, da α keinen Einfluss auf die Anzahl der Ausreißer im Datenbestand hat. Für vertrauenswürdige Konfidenzbereiche müssen schlicht die Ausreißer eliminiert sein.

wozu gibt es ihn überhaupt, wenn das Ergebnis keine Aussagekraft haben soll?

Der Test unterstürzt Dich ja auch, aber Deine Frage in der Form, wie ich sie verstanden habe, beantwortet er eben nicht. ;-)

Dann könnte hier mein momentan noch größtes Missverständnis liegen, denn ich hatte die "Vertrauenswürdigkeit" ja gerade auf diese vermeintliche Aussagekraft der Konfidenzbereiche bezogen. Meine Annahme war, dass die Konfidenzbereiche der Punkte diese Aussagekraft hätten (zumindest näherungsweise), wenn sich keine Ausreißer in den Daten befinden, und wenn das Modell korrekt gewählt wurde.

Aber welche Aussagekraft haben sie dann?

Der wahre Wert besitzt keine Wahrscheinlichkeit, er ist der wahre Wert. Die bspw. 5 % sagen aus, dass wenn Du Dein Messexperiment 100 mal wiederholst, dann liegt statistisch gesehen in 95 % der so gebildeten Konfidenzbereichen der wahre Wert und in 5 % der Fälle eben nicht. Wikipedia weist auf diesen Fakt explizit hin: "Die häufig anzutreffende Formulierung, dass der wahre Wert mit 95 % Wahrscheinlichkeit im Konfidenzintervall liegt, d. h., im vorliegenden berechneten Intervall, ist streng genommen nicht korrekt, da der wahre Wert als gegeben (fix) und nicht stochastisch angenommen wird."

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Grobe Fehler und Konfidenzintervall

by gf, Friday, September 20, 2019, 20:27 (199 days ago) @ Micha

Ich hatte diese Frage so interpretiert: Muss ich die durch die Erhöhung von α neuerlich angezeigten Ausreißer entfernen, damit die Konfidenzintervalle vertrauenswürdig(er) sind?

Hallo Micha, Deine Interpretation ist korrekt, so war das ursprünglich gemeint.

Bezogen auf das α ist diese Frage eindeutig zu verneinen, da α keinen Einfluss auf die Anzahl der Ausreißer im Datenbestand hat. Für vertrauenswürdige Konfidenzbereiche müssen schlicht die Ausreißer eliminiert sein.

Deine Message ist inzwischen bei mir angekommen - sorry, ich stand anfangs etwas auf der Leitung.

Der wahre Wert besitzt keine Wahrscheinlichkeit, er ist der wahre Wert.

Wikipedia weist auf diesen Fakt explizit hin: "Die häufig anzutreffende Formulierung, dass der wahre Wert mit 95 % Wahrscheinlichkeit im Konfidenzintervall liegt, d. h., im vorliegenden berechneten Intervall, ist streng genommen nicht korrekt, da der wahre Wert als gegeben (fix) und nicht stochastisch angenommen wird."

Die Formulierung "Wahrer Wert liegt mit 95% Wahrscheinlichkeit im Konfidenzintervall" mag ja etwas unpräzise sein. Ich würde daraus jedoch nicht gleich schließen, dass der wahre Wert in diesem Kontext als Zufallsvariable betrachtet werden soll, oder dass dem wahren Wert selbst eine Wahrscheinlichkeit zugeordnet werden soll, sondern vielmehr dem (positiven Ausgang des) zufälligen Ereignisses "Wahrer Wert liegt im Konfidenzintervall".

Die bspw. 5 % sagen aus, dass wenn Du Dein Messexperiment 100 mal wiederholst, dann liegt statistisch gesehen in 95 % der so gebildeten Konfidenzbereichen der wahre Wert und in 5 % der Fälle eben nicht.

Daraus folgt doch m.E., dass das zufällige Ereignis "wahrer Wert liegt (bei Ausführung eines Messexperiments) innerhalb des Konfidenzbereich" Bernoulli-verteilt ist, mit p=95%.

Viele Grüße
gf

Grobe Fehler und Konfidenzintervall

by Micha ⌂, Saturday, September 21, 2019, 11:09 (199 days ago) @ gf

Hallo,

für das eine Ereignis kann die Aussage nur Fifty-Fifty sein, da Du ja nicht weist, ob Du zufällig in den 5 % oder in den 95 % Bereich liegst. Die Wahrscheinlichkeit, in einen dieser beiden Bereich zu kommen, ist natürlich anders verteilt.

Ich denke, wir verlassen hier sehr stark die eigentliche Applikation. Die Deutung bzw. Interpretation des Konfidenzbereiches ist letztlich unabhängig von JAG3D und gilt in jeder anderen Auswertesoftware sinngemäß. Wenn Dir Wikipedia hier nicht ausreicht, finden sich noch unzählige weitere Seiten im Netz, die diese Thematik fokussieren - von Büchern mal ganz zu schweigen.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Konfidenzintervall - Baarda/Sidack/...

by gf, Friday, September 20, 2019, 21:00 (199 days ago) @ Micha

Hallo Micha,

mir ist aufgefallen, dass die Teststatistik-Einstellungen Baarda / Sidak / "Keine Anpassung" und "globales alpha" die berechneten Konfidenzintervalle beeinflussen und zu unterschiedlich großen Ellipsen führen.

Wieso kann es für dasselbe Modell und dieselben Daten mehrere unterschiedliche Konfidenzintervalle geben? Welche sind "richtig"?

Viele Grüße
gf

Konfidenzintervall - Baarda/Sidack/...

by Micha ⌂, Saturday, September 21, 2019, 11:28 (199 days ago) @ gf

Hallo gf,

mir ist aufgefallen, dass die Teststatistik-Einstellungen Baarda / Sidak / "Keine Anpassung" und "globales alpha" die berechneten Konfidenzintervalle beeinflussen und zu unterschiedlich großen Ellipsen führen.

Ja, es wäre doch (noch) unlogisch(er), wenn unterschiedliche Einstellungen das Ergebnis nicht beeinflussen, oder? Ich hatte Dich auf diesen Fakt bereis hier kurz hingewiesen - ganz am Ende, letzter Absatz.

Wieso kann es für dasselbe Modell und dieselben Daten mehrere unterschiedliche Konfidenzintervalle geben? Welche sind "richtig"?

Da bei diesen drei Einstellungen das α angepasst wird, vgl. das Kapitel zur Teststatistik im Wiki, unterscheiden sich die Grenzwerte. Welches α letztlich genommen wird, siehst Du in der Tabelle mit den globalen Ausgleichungsergebnissen (Teststatistik). Hier kannst Du für die entsprechenden Freiheitsgrade der F-Verteilung das α ablesen.

Die Frage nach dem "richtig" kann ich nicht beantworten. Keine Anpassung zu verwenden, ist vermutlich die Einstellung, die die meisten Programme verwenden aber aufgrund der Alphafehler-Kumulierung die mit Abstand schlechteste Wahl. Die B-Methode nach Baarda ist vermutlich fast ausnahmslos in der Geodäsie bekannt, die Šidák–Korrektur ist hingegen in jedem (guten) Statistikbuch beschrieben.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Einstellung Zwangsausgleichung

by Pierre, Tuesday, September 10, 2019, 19:41 (209 days ago) @ FA

Nabend,

natürlich ist in den Einstellungen, Teststatistik noch die gewünschte Irrtumswahrscheinlichkeit (bspw. 5 %) einzustellen, aber das ist wahrscheinlich klar. Einstellungen für den gewünschten Netzanschluss (Zwang usw.) gibt es nicht explizit. Das wird allein durch die Zuordnung der Punktklassen vorgeben (siehe Wiki), so dass keine weiteren Einstellungen vorzunehmen sind.

Aber das Hauptproblem bleibt vorhanden.
Die Fehlerellipsen sind immer noch wesentlich höher als diese bei den Standardabweichung in Y,X und Z sein sollten.

Daraus entnehme ich mal, dass der Rest soweit klar ist und funktioniert. Somit sollen jetzt im Report, Tabellen und im Plot von JAG3D noch die Fehlerellipsen erscheinen?

JAG3D gibt aus guten Grund (die Erklärung spare ich mir) die Konfidenzellipse aus. JAG3D gibt keine Fehlerellipse aus, würde ich mal sagen und dafür gibt es auch keine Einstellung wo die Ausgabe umgeschaltet wird. Andere Programme bieten hier eine Auswahl (Fehler- oder Konfidenzellipse) an, das ist richtig.

Unabhängig ob dies nun für sinnvoll oder nicht erachtet wird, ist hier Micha gefragt, ob dies realisierbar ist.

Natürlich kann man über eine kleinere Irrtumswahrscheinlichkeit die Größe der Konfidenzellipse beeinflussen ... aber dies beeinflusst im Weiteren ja auch direkt die statistischen Tests usw. ... somit ehr keine gute Idee.

Viele Grüße
Pierre

Einstellung Zwangsausgleichung

by Micha ⌂, Tuesday, September 10, 2019, 22:10 (209 days ago) @ Pierre

Hi,

Unabhängig ob dies nun für sinnvoll oder nicht erachtet wird, ist hier Micha gefragt, ob dies realisierbar ist.

Ja, das könnte ich noch implementieren. Aber die einfachen Konfidenzbereiche decken im 2D-Fall (Ellipse) nur 39,35 % und im räumlichen Fall (Ellipsoid) nicht mal 20 % ab. Wenn hier aber tatsächlich Bedarf besteht, könnte ich eine Checkbox noch integrieren.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

Einstellung Zwangsausgleichung

by Pierre, Tuesday, September 10, 2019, 19:59 (209 days ago) @ Micha

Nabend Micha,

da stimme ich Dir zu. Beim "echten" 3D-Netz wird die Höhe zur Reduktion laut Wiki aus den z-Werten der Punkte abgeleitet. Dann gehe ich davon aus, dass diese Höhen auch nicht weiter verändert/umgerechnet werden. Auf welche "Ersatzfläche" wird dann die Höhe reduziert, auf eine Schmiegungskugel o. ä. - hast Du hier ein praktischen Anwendungsfall als Beispiel?

Viele Grüße
Pierre

Einstellung Zwangsausgleichung

by Micha ⌂, Tuesday, September 10, 2019, 22:18 (209 days ago) @ Pierre

Hi,

es muss ein 2D+H Netz sein und kein reines 3D-Netz. In diesem Fall wird nicht die (mittlere) Höhe aus den Projektionseinstellungen verwendet sondern die Höhen der beiden Punkte, zwischen denen die Beobachtung vorliegt. Es sind also die Standardgleichungen die u.a. Joeckel/Stober angeben.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences

RSS Feed of thread