Schätzung a posteriori sigma_a, sigma_b, sigma_c

by Micha ⌂, Thursday, September 12, 2019, 15:34 (34 days ago) @ gf

Hallo,

Danke Micha, ist jetzt klar, dann ist also Ω/r doch der Varianzfaktor, und nicht die Varianz selbst.

Ja, das trifft es zutreffend.

Wie gehe ich damit um, wenn ich zur Erreichung eines Varianzfaktors von 1 eine deutlich geringere a priori Standardabweichung festlegen müsste, als es der vom Hersteller des Messgeräts spezifizierten Genauigkeit entspricht?

Allgemein gelten die Aussagen im Abschnitt Varianzkomponentenschätzung:

Pauschale Aussagen besitzen jedoch eine gewisse Gefahr, dass sie unreflektiert angewendet werden. Damit eine Varianz zuverlässig ist, sollte die Stichprobe einen ausreichenden Umfang (weitgehend unabhängiger) Beobachtungen aufweisen. Wenn die Redundanz also extrem klein ist, dann würde ich den Wert nicht beachten - siehe auch die Anmerkungen im anderen Posting.

Die Varianz wird grundsätzlich aus der Streuung der Residuen ermittelt. Die Residuen der Stichprobe müssen aber nicht zwangsläufig den gesamten Merkmalsraum der Verteilung abdecken. Insbesondere weisen Wiederholungsmessungen hohe Abhängigkeiten auf, die in der Ausgleichung aber nicht berücksichtigt werden. Aus diesem Grund werden in der Vermessung Vollsätze üblicherweise auch gemittelt. Weiterhin gelten die Spezifikationen häufig für einen sehr großen Anwendungsbereich, z.B. von -10 ℃ bis +40 ℃. Bei der erhobenen Stichprobe wird man diesen Bereich aber meist nicht abdecken können. Aus diesem Grund weisen die registrierten Messungen häufig eine (scheinbar) höhere Genauigkeit auf als der Hersteller spezifiziert. In der Norm wird hierfür der Begriff Präzision verwendet, der in Abbildung 2 zu sehen ist.

Es sollte Dich also nicht wundern, wenn Du die Spezifikation unterbietest. Solltest Du hingegen deutlich drüber liegen, sollte Dich das in jedem Fall stutzig machen.

Die vom Hersteller spezifizierte Genauigkeit eines bestimmten Messgerätemodells beinhaltet ja nicht nur die Reproduzierbarkeit von Messungen, sondern z.B. auch Exemplarstreueungen, die sich bei meinen Messungen natürlich nicht als Zufallsvariable bemerkbar machen, sondern vielmehr als unbekannter systematischer Fehler, da ich ja alle Messungen mit dem selben Messgeräteexemplar durchführe, das nur eine einzige Stichprobe mit einem Sample aus der Exemplarstreuung darstellt. Auch wenn sich diser Fehleranteil nicht (oder nur partiell) in der geschätzten a posteriori Varianz niederschlägt, kann ich ihn ja dennoch nicht ignorieren?

Im Konzept des Guide to the Expression of Uncertainty in Measurement (GUM) werden die erzielten Ergebnisse dem Typ A zu geordnet. Typ A meint hierbei, dass es statistisch ermittelte Werte sind. Dem gegenüber steht der Typ B, der aus nicht-statistischen Informationen resultiert wie bspw. Erfahrungen, Untersuchungen, Kalibrierungen usw. Der GUM kombiniert final beide Anteile zu einer Gesamtunsicherheit, sodass die Unsicherheiten der unbekannten Restsystematiken berücksichtigt sind. Vielleicht schaust Du Dir dieses Konzept an. Die englischen Fassungen sind kostenfrei verfügbar.

Der Vollständigkeit halber: Die Standardabweichung nach der Ausgleichung ergibt sich aus der geschätzten Varianz-Kovarianz-Matrix. Sie kann also direkt von der Hauptdiagonalen abgelesen werden.


Ist das dann jener Wert, der im Report in der sigma-Spalte der Beobachtungen steht?

Ja. Das ist der Wert, der auf der Oberfläche und im Report mit σ bezeichnet ist.

In welchem Zusammenhang steht die Standardabweichung nach der Ausgleichung zu sigma_0 und dem Varianzfaktor?

Ich bin mir nicht sicher, was Du mit sigma_0 meinst. Meinst Du hier die Standardabweichung der Beobachtung oder bezieht es sich auf die Standardabweichung der Gewichtseinheit?

Aus allen Residuen wird eine globale Varianz geschätzt $\hat{\sigma}^2_0$, die eine Schätzung der Varianz der Grundgesamtheit $\sigma^2_0$ darstellt. Nach der Ausgleichung lassen sich Kofaktormatizen für praktisch alle Unbekannten aufstellen. Neben den Koordinaten $\mathbf{x}$ sind die Residuen $\mathbf{v}$ selbst und damit auch die ausgeglichenen Beobachtungen $\mathbf{l}$ unbekannt. Es gibt hier also allein schon drei Matrizen, die in der Dokumentation mit $\mathbf{Q}$ bezeichnet sind. Der Index zeigt dann an, auf welchen Parameter diese Matrix sich jeweils bezieht. Da $\mathbf{Q}$ als Kofaktormatrix nur die relativen Informationen beinhaltet (Punkt A hat eine kleinere Varianz als B, ohne die Varianz im einzelnen jeweils zu kennen), muss diese mit einem Varianzfaktor noch skaliert werden. Dies kann $\sigma^2_0$ sein, dann werden Deine angenommenen Beobachtungsunsicherheiten auf die Unsicherheiten der Punkte direkt übertragen (Fehlerfortpflanzung), oder dessen Schätzwert $\hat{\sigma}^2_0$. In den Ausgleichungseinstellungen kannst Du dies festlegen. Die resultierende Matrix $\mathbf{C}={\sigma}^2_0\mathbf{Q}$ bzw. $\mathbf{C}=\hat{\sigma}^2_0\mathbf{Q}$ ist dann die Varianz-Kovarianz-Matrix.

Wenn nach ein paar Iterationen Varianzfaktor 1 erreicht ist, sollte dann sigma_0 mit der Standardabweichung nach der Ausgleichung übereinstimmen?

Dann gilt ${\sigma}^2_0 = \hat{\sigma}^2_0$, ja. Ob man diesen Status erreichen möchte, steht jedoch auf einem anderen Blatt. Wenn ich also bei einem Tachymeter, dass der Hersteller mit 2 mm spezifiziert hat, 2 µm einstellen müsste, damit diese Gleichung erfüllt wird, lasse ich es lieber und ignoriere den Test. Das steht mir als Anwender immer zu, da JAG3D nur das Werkzeug ist und mir das Denken nicht abnehmen soll.

Btw, ist die geschätzte Kovarianzmatrix der Beobachtungen nach der Ausgleichung immer noch eine Diagonalmatrix?

Nein. Diese Matrix ist i.A. vollbesetzt. Dies trifft auch auf die Varianz-Kovarianz-Matrix der Koordinaten zu, welche Du Dir sogar exportieren kannst, siehe Ausgleichungseinstellungen.

Viele Grüße
Micha

--
applied-geodesy.org - OpenSource Least-Squares Adjustment Software for Geodetic Sciences


Complete thread:

 RSS Feed of thread