Qu'est-ce qu'un terme d'erreur?
En statistique, un terme d'erreur est la somme des déviations de chaque observation réelle par rapport à une droite de régression du modèle. L’analyse de régression permet d’établir le degré de corrélation entre deux variables, l’une indépendante et l’autre dépendante, dont le résultat est une ligne qui "correspond" le mieux aux valeurs réellement observées de la valeur dépendante par rapport à la ou les variables indépendantes. En d'autres termes, un terme d'erreur est le terme utilisé dans une équation de régression de modèle qui calcule et rend compte de la différence inexpliquée entre les valeurs réellement observées de la variable indépendante et les résultats prédits par le modèle. Par conséquent, le terme d'erreur est une mesure de la précision avec laquelle le modèle de régression reflète la relation réelle entre la ou les variables indépendante et dépendante. Le terme d'erreur peut indiquer soit que le modèle peut être amélioré, par exemple en ajoutant une autre variable indépendante expliquant une partie ou la totalité de la différence, ou de manière aléatoire, ce qui signifie que la ou les variables dépendantes et indépendantes ne sont pas davantage corrélées. .
Également appelé terme résiduel ou terme de perturbation, selon la convention mathématique, le terme d'erreur est le dernier terme d'une équation de régression type et est représenté par la lettre grecque epsilon (ε). Les économistes et les professionnels du secteur financier utilisent régulièrement des modèles de régression, ou au moins leurs résultats, pour mieux comprendre et prévoir un large éventail de relations, telles que les liens entre l'évolution de la masse monétaire et l'inflation et le chômage taux ou comment les variations des prix des produits de base affectent des entreprises spécifiques dans un secteur économique. Par conséquent, le terme d'erreur est une variable importante à garder à l'esprit et à garder en mémoire, car il mesure la mesure dans laquelle un modèle donné ne reflète pas ou ne rend pas compte de la relation réelle entre les variables dépendantes et indépendantes.
Il existe en réalité deux types de termes d'erreur couramment utilisés dans l'analyse de régression: erreur absolue et erreur relative. L'erreur absolue est le terme d'erreur tel que défini précédemment, la différence entre les valeurs réellement observées de la variable indépendante et les résultats prédits par le modèle. En dérivant, l'erreur relative est définie comme l'erreur absolue divisée par la valeur exacte prédite par le modèle. Exprimée en pourcentage, l'erreur relative est appelée erreur en pourcentage, ce qui est utile car elle met le terme d'erreur en perspective. Par exemple, un terme d'erreur de 1 lorsque la valeur prédite est 10 est bien pire qu'un terme d'erreur de 1 lorsque la valeur prédite est de 1 million lorsque vous essayez de créer un modèle de régression qui indique le degré de corrélation de deux variables ou plus.