Qu'est-ce que l'analyse de variance?
Lors de recherches, il devient parfois nécessaire d'analyser des données comparant plus de deux échantillons ou groupes. Un type de test de statistiques inférentielles, l’analyse de variance (ANOVA), permet d’examiner simultanément plusieurs échantillons aux fins de déterminer s’il existe une relation significative entre eux. Le raisonnement est identique aux tests t, seule l'analyse de la variance inclut les variables indépendantes de deux échantillons ou plus. Les différences entre les échantillons ainsi que la différence au sein d'un échantillon sont déterminées. L'ANOVA repose sur quatre hypothèses: le niveau de mesure, la méthode d'échantillonnage, la répartition de la population et l'homogénéité de la variance.
Afin de déterminer si les différences sont significatives, l'ANOVA concerne les différences entre les échantillons et au sein de ceux-ci, appelée variance. L'ANOVA peut déterminer si la variance entre les échantillons est plus grande par rapport à celle entre les membres de l'échantillon. Si cela est avéré, les différences sont considérées comme significatives.
Réaliser un test ANOVA implique l'acceptation de certaines hypothèses. La première est que la méthode d'échantillonnage aléatoire indépendante est utilisée et que le choix des membres de l'échantillon d'une seule population n'influence pas le choix des membres des populations ultérieures. Les variables dépendantes sont mesurées principalement au niveau du rapport d'intervalle; Cependant, il est possible d'appliquer l'analyse de variance à des mesures au niveau ordinal. On peut supposer que la population est normalement répartie, même si cela n’est pas vérifiable, et que les variances de population sont les mêmes, ce qui signifie que les populations sont homogènes.
L'hypothèse de recherche suppose qu'au moins une moyenne est différente des autres, mais les différentes moyennes ne sont pas identifiées comme étant plus grandes ou plus petites. Seul le fait qu'il existe une différence est prédit. L'ANOVA teste l'hypothèse nulle, ce qui signifie qu'il n'y a pas de différence entre toutes les valeurs moyennes, telle que A = B = C. Cela nécessite de définir l'alpha, faisant référence au niveau de probabilité où l'hypothèse nulle sera rejetée.
Le ratio F est une statistique de test utilisée spécifiquement pour l'analyse de la variance, car le score F indique où commence la zone de rejet pour l'hypothèse nulle. Développée par le statisticien Ronald Fisher, la formule pour F est la suivante: F = estimation de la variance de groupe (MSB) divisée par l’estimation de la variance au sein du groupe (MSW), telle que F = MSB / MSW. Chacune des estimations de la variance comprend deux parties: la somme des carrés (SSB et SSW) et des degrés de liberté (df). À l'aide des tableaux statistiques pour la recherche biologique, agricole et médicale , l'alpha peut être défini et basé sur celui-ci, et l'hypothèse nulle d'absence de différence peut être rejetée. On peut en conclure qu'il existe une différence significative entre tous les groupes, si tel est le cas.