Aller directement au contenu
Désactiver la version mobile Ouvrir le menu

Balises relatives à l’interprétation des coefficients

Mise en contexte

Cette page vise à fournir des repères pour aider les utilisateurs du répertoire ORVIS à interpréter les statistiques relatives aux qualités métrologiques des instruments de mesure rapportées dans les fiches. Sans prétention d’exhaustivité et dans le seul but d’offrir des balises, cette page présente des informations tirées d’écrits scientifiques ou d’ouvrages reconnus. Soulignons qu’il n’est pas du ressort de l’équipe du répertoire ORVIS de prendre position quant aux valeurs à privilégier lorsque celles-ci diffèrent entre les auteurs cités.

Ceux qui, comme vous, s’intéressent aux qualités métrologiques des instruments de mesure, savent qu’il peut s’avérer difficile d’apprécier la force des statistiques rapportées par les études. Premièrement, parce que l’interprétation des coefficients de corrélation diffère considérablement selon les domaines de recherche scientifique et, deuxièmement, parce qu’il n’existe pas de règles absolues pour l’interprétation de leur force [1]. Un moyen de s’y retrouver consiste à porter une attention particulière et éclairée aux travaux empiriques existants dans un domaine précis, de manière à camper le contexte dans lequel interpréter la force d’un coefficient de validité donné [2]. Ainsi, lorsque le domaine auquel se rapportent des balises a été précisé par l’auteur lui-même, il sera rapporté dans ce document.

Les types de statistiques répertoriés dans cette page sont classés par ordre alphabétique et sont suivis d’un tableau qui présente les valeurs des coefficients selon la propriété métrologique.

Alpha de Cronbach (α)

 La valeur alpha devrait se situer entre 0,70 et 0,90.

  • Une valeur plus faible peut révéler que les items mesurent des aspects différents.
  • Une valeur trop élevée indique que les items sont probablement redondants et que certains pourraient être supprimés sans mettre en péril la fiabilité de l’échelle. [3]

 

Valeur d’alpha
(ou autre mesure de consistance interne)
Interprétation
≥ 0,90 Excellente
0,80 à 0,89 Bonne
0,70 à 0,79 Passable
< 0,70 Inacceptable
[4]

Ampleur de l’effet (effect size; psychologie) [5]

Valeur de r Interprétation
≥ 0,40 Effet très important susceptible d’être une surestimation grossière, et rarement présent dans un grand échantillon ou dans une réplication
= 0,30 Effet important et potentiellement puissant à la fois à court et à long terme
= 0,20 Effet moyen ayant une certaine utilité explicative et pratique, même à court terme
= 0,10 Effet faible pour l’explication d’événements uniques, mais potentiellement plus substantiel avec le temps
= 0,05 Effet très faible pour l’explication d’événements uniques, mais potentiellement important dans un délai assez court

Analyses factorielles exploratoires (Exploratory Factor Analysis ou EFA) [6]

Outre les nombreuses décisions méthodologiques requises à chaque étape de la réalisation d’une EFA, les résultats doivent être examinés en tenant compte des éléments suivants :

  1. chaque facteur doit être saturé de manière marquée par au moins trois variables
  2. chaque variable doit saturer de manière marquée sur un seul facteur
  3. chaque facteur doit être pourvu d’une consistance interne ≥ 0,70
  4. tous les facteurs doivent être signifiants du point de vue théorique

Concordance de Lin [1]

Valeur du coefficient de concordance de Lin Interprétation
> 0,99 Presque parfaite
0,95 à 0,99 Substantielle
0,90 à 0,95 Modérée
< 0,90 Faible

Corrélation intraclasse (Intraclass Correlation ou ICC; psychologie)

 

Valeur de ICC Interprétation
> 0,90 Excellente
> 0,75 Bonne
> 0,50 Modérée
< 0,50 Faible

L’auteur précise qu’une « fidélité acceptable » demeure une question de jugement de la part du chercheur ou du clinicien. Celui-ci doit comprendre la nature de la variable mesurée et le niveau de précision convenable pour une utilisation appropriée des statistiques la concernant. [3]

 

Valeur de ICC Interprétation
> 0,75 Excellente
0,60 à 0,74 Bonne
0,40 à 0,59 Passable
< 0,40 Médiocre
[4]

d de Cohen [7]

Valeur de
d de Cohen
Interprétation
+/-  0,80 Forte
+/-  0,50 Modérée
+/-  0,20 Faible

 Kappa [8]

Valeur de
Kappa
Interprétation
0,81 à 1,00 Presque parfaite
0,61 à 0,80 Substantielle
0,41 à 0,60 Modérée
0,21 à 0,40 Passable
0,00 à 0,20 Légère
< 0,00 Médiocre

Phi et V de Cramer [1]

Valeur de Phi et de
V de Cramer
Interprétation
> 0,25 Très forte
> 0,15 Forte
> 0,10 Modérée
> 0,05 Faible
> 0 Nulle ou très faible

r de Pearson [7]

Valeur de
r de Pearson
Interprétation
+/- 0,50 Forte
+/-  0,30 Modérée
+/-  0,10 Faible

r de Pearson et rho de Spearman [1]

  Sources
Valeur de r
et de rho

Dancey et Reidy

(psychologie)

Chan YH

(médecine)

+ 1 – 1 Parfaite Parfaite
+ 0,9 – 0,9 Forte Très forte
+ 0,8 – 0,8 Forte Très forte
+ 0,7 – 0,7 Forte Modérée
+ 0,6 – 0,6 Modérée Modérée
+ 0,5 – 0,5 Modérée Passable
+ 0,4 – 0,4 Modérée Passable
+ 0,3 – 0,3 Faible Passable
+ 0,2 – 0,2 Faible Faible
+ 0,1 – 0,1 Faible Faible
0 Nulle Nulle

Interprétation des coefficients selon la propriété (développement de l’enfant) [9]

Propriété Bonne Acceptable Sous le seuil acceptable
Fidélité 0,70 et + Entre 0,65 et 0,70 Moins de 0,65
Cohérence interne 0,80 et + Moins de 0,80
Test-retest 0,80 et + Entre 0,70 et 0,80 Moins de 0,70
Validité concomitante 0,70 et + Entre 0,50 et 0,70 Moins de 0,50
Validité prédictive 60 à 70 % Entre 30 % et 60 % Moins de 30 %
Sensibilité 80 % et + Entre 70 % et 80 % Moins de 70 %
Spécificité 80 % et + Entre 70 % et 80 % Moins de 70 %

Références

  1. Akoglu H. User’s guide to correlation coefficients. Turkish Journal of Emergency Medicine. 2018;18(3):91-3.
  2. Furr RM. Psychometrics : An introduction. Fourth ed. Los Angeles : SAGE; 2021.
  3. Gross KD. Measurement Revisited : Reliability and Validity Statistics. In : Portney LG, editor. Foundations of Clinical Research : Applications to Evidence-Based Practice Chapter 32. 4 ed. New York, NY : F. A. Davis Company; 2020.
  4. Cicchetti DV. Guidelines, criteria, and rules of thumb for evaluating normed and standardized assessment instruments in psychology. Psychological Assessment. 1994;6(4):284-90.
  5. Funder DC, Ozer DJ. Evaluating effect size in psychological research : Sense and nonsense – suivi de Corrigendum. Advances in Methods and Practices in Psychological Science. 2019;2(2):156-68.
  6. Watkins MW. Exploratory Factor Analysis : A Guide to Best Practice. Journal of Black Psychology. 2018;44(3):219-46.
  7. Price PC, Jhangiani RS, Chiang I-CA. Research methods of psychology. 2nd Canadian ed. Victoria, B.C. : BCcampus; 2015. 353 p.
  8. Landis JR, Koch GG. The measurement of observer agreement for categorical data. 1977;33(1):159-74.
  9. Beauregard D, Comeau L, Poissant J. Avis scientifique sur le choix d’un outil de mesure du développement des enfants de 0 à 5 ans dans le cadre des Services intégrés en périnatalité et pour la petite enfance. Montréal : Institut national de santé publique du Québec; 2010. 78 p.