Méthode test-retest : définition, exemple

tester la méthode de retest

La mesure de la fiabilité dans les situations d'enquête est plus difficile et moins facile à réaliser que dans les études observationnelles.

En observant une certaine action encore et encore, il n'est généralement possible de répéter une enquête qu'une seule fois. Cela conduit à une méthode test-retest, qui compare deux tests pour déterminer leur fiabilité. La méthode consiste à administrer le test au même groupe d’individus à deux reprises.

Puis un coefficient test-retest, parfois appelé coefficient de stabilité, est déterminé. Le coefficient de fiabilité, dans ce cas, est simplement le coefficient de corrélation produit-moment de Pearson entre les scores obtenus par les mêmes personnes aux deux administrations du test.

Exemple de méthode test-retest

La méthode test-retest est illustrée par un exemple ci-dessous.

Prenons l’exemple d’un groupe d’adolescents à qui l’on a demandé de nommer quelques méthodes contraceptives à un moment donné. Les réponses rapportées ont été enregistrées sous les nombres 0, 1,2, etc.

Plus tard, les mêmes questions ont été posées au même groupe et leurs réponses ont été enregistrées exactement de la même manière.

Le coefficient de corrélation calculé à partir de ces deux ensembles de scores nous fournit une mesure de stabilité. Nous illustrons cela dans le tableau ci-joint, et le coefficient de corrélation produit-moment est calculé comme suit :

Méthode test-retest

Avec 8 df, le Pearson r est significatif à 0,05 (une valeur de tableau de 0,632 est requise pour r être significatif). Ainsi, la fiabilité est établie à 0,745, une valeur acceptable pour ce type de test.

Le principal inconvénient de cette méthode est que si le retest est effectué trop rapidement, le premier test sensibilise les répondants au sujet. En conséquence, le répondant se souviendra des réponses déjà données et les répétera.

Cela conduit à des indicateurs de fiabilité biaisés à la hausse.

Deuxièmement, les opinions peuvent changer en raison des influences situationnelles avant le nouveau test. Dans ces cas-là, il existe un biais à la baisse dans les scores de stabilité.

Cela implique que plus l'intervalle entre deux administrations successives est long, plus le coefficient de corrélation est faible, ce qui indique une mauvaise fiabilité.

Quel est l’objectif principal de la fiabilité test-retest ?

La fiabilité test-retest mesure la cohérence des résultats lorsque le même test est administré au même échantillon à différents moments. Il garantit que les résultats d’un test peuvent être reproduits dans les mêmes conditions dans le temps.

Comment est calculée la fiabilité test-retest ?

La fiabilité test-retest est calculée à l’aide du coefficient de corrélation de Pearson entre les résultats du test effectué à deux moments différents. Une corrélation d'au moins 0,80 ou plus indique généralement une bonne fiabilité.

Quel est le biais potentiel qui peut affecter la fiabilité test-retest ?

Un biais potentiel est « l’effet pratique », selon lequel les participants pourraient obtenir de meilleurs résultats aux tests ultérieurs en raison de leur familiarité ou de leur pratique. Un autre est « l’effet de fatigue », dans lequel les participants obtiennent de moins bons résultats parce qu’ils sont mentalement épuisés par les tests précédents.

Comment minimiser les biais tels que l’effet pratique en termes de fiabilité test-retest ?

Pour éviter l'effet pratique, les chercheurs peuvent proposer des tests de difficulté égale mais avec une variété de questions différente, garantissant ainsi que les participants ne peuvent pas mémoriser les réponses du premier test.

Qu’est-ce que la fiabilité inter-évaluateurs ?

La fiabilité inter-évaluateurs mesure le degré d’accord entre différentes personnes observant ou évaluant la même chose. Cela permet de garantir que plusieurs chercheurs ou observateurs évaluent ou notent une variable de manière cohérente.

Qu’est-ce que la fiabilité des formulaires parallèles ?

La fiabilité des formes parallèles mesure la corrélation entre deux versions équivalentes d’un test. Il est utilisé lorsqu'il existe plusieurs versions d'un test conçues pour mesurer la même chose.

Comment est évaluée la cohérence interne ?

La cohérence interne mesure la corrélation entre plusieurs éléments d'un test destiné à mesurer le même construit. Il peut être calculé à l’aide de méthodes telles que la corrélation moyenne entre éléments ou la fiabilité divisée par deux.