0 Daumen
53 Aufrufe

Hallo


Aufgabe:

Von zwei Regressionsgeraden (aus Messdaten erstellt) wurde der Schnittpunkt bestimmt. Es soll aus den Unsicherheiten der Regressionsparameter die Unsicherheit des Schnittpunktes berechnet werden.


Problem/Ansatz:

Ich weiß nicht, wie die entsprechende Unsicherheit des Schnittpunktes berechnet werden kann bzw. welche Regressionsparameter dafür nötig sind (R-Quadrat, Standardabweichungen der Anstiege/Schnittpunkte der y-Achse...)

Die Funktionen der Regressionsgeraden sowie die entsprechenden Regressionsparameter (aus der Excel-RGP-Funktion) und Schnittpunkte habe ich unten aufgeführt. Wenn die Berechnung der Schnittpunktunsicherheit daran exemplarisch gezeigt werden kann, wäre das super, aber auch eine Skizze des Lösungswegs bzw. ein Ansatz hilft sehr.

(Die Messwerte liegen vor - sollten weitere Angaben benötigt werden, kann ich die sicherlich nachreichen)


Regressionsfunktion 1:

$$y = 71,317 - 0,16741x$$


Regressionsfunktion 2:

$$y = 65,501 - 0,028103x$$

Ermittelter Schnittpunkt:

x = 41,750

y = 64,328


Regressionsparameter für Regressionsfunktion 1:

Standardabweichung Anstieg
0,001074751
Standardabweichung Schnittpunkt mit y-Achse
0,04072725
Regressionskoeffizient (R2)
0,998406701
Standardfehler Prognosewert
0,081426134
F-Wert
24438,51873


Regressionsparameter für Regressionsfunktion 2:

Standardabweichung Anstieg
0,068053572
Standardabweichung Schnittpunkt mit y-Achse
0,068053572
Regressionskoeffizient (R2)
0,991618649
Standardfehler Prognosewert
0,112626904
F-Wert
17510,25158


Vielen Dank bereits im Voraus

Avatar von

Dein Problem tönt nach einem Fall für das Kalman-Filter.

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community