Hvad er en fejlperiode?

I statistik er en fejlperiode summen af ​​afvigelserne for hver faktisk observation fra en modelregressionslinje. Regressionsanalyse bruges til at etablere graden af ​​korrelation mellem to variabler, en uafhængig og en afhængig, hvis resultat er en linje, der bedst "passer" de faktisk observerede værdier af den afhængige værdi i forhold til den uafhængige variabel eller variabler. Sagt på en anden måde, en fejlperiode er udtrykket i en modelregressionsligning, der samler sig og tegner sig for den uforklarlige forskel mellem de faktisk observerede værdier for den uafhængige variabel og de resultater, der er forudsagt af modellen. Derfor er fejlbegrebet et mål for, hvor nøjagtigt regressionsmodellen afspejler det faktiske forhold mellem den uafhængige og afhængige variabel eller variabler. Fejlbegrebet kan indikere enten, at modellen kan forbedres, f.eks. Ved at tilføje en anden uafhængig variabel, der forklarer en eller anden forskel eller ved tilfældighed, hvilket betyder, atAfhængige og uafhængige variabel eller variabler er ikke korreleret i større grad.

Også kendt som den resterende udtryk eller forstyrrelsesbegivenhed, ifølge matematisk konvention, er fejlbegrebet det sidste udtryk i en modelregressionsligning og er repræsenteret af det græske bogstav Epsilon (ε). Økonomer og fagfolk inden for finanssektoren bruger regelmæssigt regressionsmodeller eller i det mindste deres resultater for bedre at forstå og forudsige en lang række forhold, såsom hvordan ændringer i pengemængden er relateret til inflation, hvordan aktiemarkedspriser er relateret til arbejdsløshedsprocent eller hvordan ændringer i råvarepriser påvirker specifikke virksomheder i en økonomisk sektor. Derfor er fejlbegrebet en vigtig variabel at huske og huske på, idet den måler den grad, i hvilken en given model ikke afspejler eller redegør for, det faktiske forhold mellem DEPEndent og uafhængige variabler.

Der er faktisk to typer fejlbetegnelser, der ofte bruges i regressionsanalyse: absolut fejl og relativ fejl. Absolut fejl er fejlbegrebet som tidligere defineret, forskellen mellem de faktisk observerede værdier for den uafhængige variabel og resultaterne, der er forudsagt af modellen. Afledt af dette defineres relativ fejl som den absolutte fejl divideret med den nøjagtige værdi, der er forudsagt af modellen. Udtrykt i procentvise termer er relativ fejl kendt som procentfejl, hvilket er nyttigt, fordi den sætter fejlperioden i større perspektiv. For eksempel er en fejlperiode på 1, når den forudsagte værdi er 10, meget værre end en fejlperiode på 1, når den forudsagte værdi er 1 million, når man forsøger at komme med en regressionsmodel, der viser, hvor godt to eller flere variabler er korreleret.

ANDRE SPROG

Hjalp denne artikel dig? tak for tilbagemeldingen tak for tilbagemeldingen

Hvordan kan vi hjælpe? Hvordan kan vi hjælpe?