Théorie classique du test
Un test est un instrument scientifique dans la mesure où il mesure ce qu'il entend, c'est-à-dire qu'il est valide et qu'il mesure bien, c'est-à-dire qu'il est précis ou fiable. Si nous trouvons un instrument dont nous ne pouvons pas nous fier aux mesures qu’elles fournissent, puisqu’elles varient de temps en temps lorsque nous mesurons le même objet, nous dirons qu’il n’est pas fiable. Un instrument à mesurer correctement quelque chose doit être précis, car sinon, mesurez ce que vous mesurez, mesurez-le mal. Par conséquent, être précis est une condition nécessaire mais non suffisante. En outre, il doit être valide, c’est-à-dire que ce qu’il mesure avec précision sera ce qu’il est destiné à mesurer et rien d’autre..
Vous pouvez également être intéressé par: Théorie de la réponse par article - Applications et testsFiabilité:
Fiabilité absolue et relative: nous pouvons aborder le problème de la fiabilité d’un test de deux manières différentes, bien qu’à l’arrière-plan elles coïncident.
Fiabilité comme imprécision de ses mesures: lorsqu'un sujet répond à un test, il obtient un score empirique, lequel est affecté d'une erreur. S'il n'y avait pas d'erreur, le sujet obtiendrait son vrai score. Le test est imprécis car le score empirique ne correspond pas au vrai score. Cette différence entre les deux scores est l'erreur d'échantillonnage, l'erreur de mesure. Le erreur typique de mesure sera l'écart type des erreurs de mesure. Le erreur typique de mesure indique la précision absolue du test, puisqu'il permet d'estimer la différence entre la mesure obtenue et celle qui serait obtenue s'il n'y avait pas d'erreur.
La fiabilité comme stabilité des mesures: un test sera d'autant plus fiable que ses résultats seront constants ou stables lorsqu'il sera répété. Plus les résultats sont stables à deux reprises, plus la corrélation entre eux est grande. Cette corrélation s'appelle coefficient de fiabilité. Cela nous exprime, non pas le montant de l'erreur, mais la cohérence du test avec lui-même et la constance des informations qu'il offre. Le coefficient de fiabilité exprime la fiabilité relative du test.
Le coefficient de fiabilité et l'indice de fiabilité: - Le coefficient de fiabilité d'un test est la corrélation du test avec lui-même, obtenue par exemple, sous deux formes parallèles: rxx. - L'indice de précision est la corrélation entre les scores empiriques d’un test et ses scores réels: rxv L’indice de précision sera toujours supérieur au coefficient de fiabilité Pour connaître le coefficient de fiabilité, il convient de mentionner ces trois méthodes classiques:
- Trouvez la corrélation entre le test et sa répétition: La méthode de répétition ou la méthode test-retest: Elle consiste à appliquer le même test au même groupe à deux reprises et à calculer la corrélation entre les deux séries de scores. Cette corrélation est le coefficient de fiabilité. Cette méthode donne généralement un coefficient de fiabilité plus élevé que ceux obtenus par d’autres procédures et peut être contaminée par des facteurs perturbateurs..
- Trouvez la corrélation entre deux formes parallèles du test: Méthode des formes parallèles: Préparez deux formes parallèles du même test, c’est-à-dire deux formes équivalentes qui donnent les mêmes informations et s’appliquent au même groupe de sujets. La corrélation entre les deux formes est le coefficient de fiabilité. Avec cette méthode, en ne répétant pas le même test, on évite les sources perturbantes de fiabilité des tests.
- Trouvez la corrélation entre deux moitiés parallèles du test: Méthode de la méthode des deux moitiés: divisez le test en deux moitiés équivalentes et recherchez la corrélation qui existe entre elles. C'est la méthode préférable, car elle est simple et ignore les limitations des procédures précédentes. Vous pouvez choisir les éléments impairs du test pour constituer une moitié et les éléments pairs pour constituer l’autre..
Le coefficient de fiabilité et la corrélation entre les tests parallèles
Le coefficient de fiabilité d'un test indique la proportion que la variance vraie est de la variance empirique: graphique33 Le coefficient de fiabilité d'un test varie entre 0 et 1. Par exemple: si la corrélation entre deux tests parallèles est rxx´ = 0,80, cela signifie que 80% de la variance du test est due à la mesure réelle et le reste, c'est-à-dire que 20% de la variance du test est due à l'erreur. Le indice de fiabilité d'un test est la corrélation entre ses scores empiriques et ses scores réels indice de fiabilité = L'indice de fiabilité est égal à la racine carrée du coefficient de fiabilité
Une fois que deux formes de test parallèles ont été développées, la procédure d'analyse de variance est appliquée pour vérifier l'homogénéité des variances et la différence entre les mesures. Si les variances sont homogènes, la différence entre les moyennes n'est pas significative et si les deux formes sont construites avec le même nombre d'éléments de même type et de même contenu psychologique, on peut dire qu'elles sont parallèles. Sinon, vous devez les reformer jusqu'à ce qu'ils le soient. Le manque de fiabilité est identifié à la valeur de rxx´= 0 4.- L'erreur typique de mesure: La différence entre le score empirique et le score réel est l'erreur aléatoire, appelée erreur de mesure. L’écart type des erreurs de mesure est appelé erreur de mesure typique. Le erreur typique de mesure permet de faire des estimations sur la fiabilité absolue du test, c'est-à-dire d'estimer combien d'erreur de mesure affecte un score.
Fiabilité et longueur: la longueur du test fait référence au nombre de ses éléments. La fiabilité dépend de cette longueur. Si un test comporte trois éléments, un sujet peut obtenir une fois la note 1 et, dans un autre cas, ou de manière parallèle, une note de
D'une occasion à l'autre, les scores ont varié d'un point; un point au-dessus de trois correspond à une variation de 33%, une variation élevée. Si les sujets obtiennent des variations aléatoires de ce type, la corrélation du test avec lui-même ou avec les deux formes parallèles du test sera fortement réduite et ne pourra pas être élevée. Si le test est beaucoup plus long, si vous avez par exemple 100 éléments, un sujet peut obtenir 70 points en une occasion et 67 points en parallèle. D'un à l'autre, il a changé de 3 points; la variance est relativement faible par rapport au test total, en particulier 3%. Ces petites modifications occasionnelles de cette ampleur, qui se produisent dans les scores des sujets lorsqu’on passe d’une forme à l’autre, sont relativement peu importantes et ne diminueront pas autant qu’avant la corrélation entre les deux..
Le coefficient de fiabilité sera beaucoup plus élevé que dans le cas précédent. L'équation de Spearman-Brown exprime la relation entre fiabilité et longueur. La précision d'un test est égale à zéro lorsque la longueur est égale à 0 et augmente à mesure que la longueur augmente. Bien que l’augmentation soit relativement moins importante que la longueur de quelle partie est plus grande. Cela signifie que la précision augmente beaucoup au début et relativement moins tard. Lorsque la longueur tend vers l'infini, le coefficient de fiabilité tend à
L'augmentation de la longueur d'un test augmente sa précision, car il augmente la variance réelle à un taux supérieur à celui de la variance d'erreur. Cela signifie que la précision du test augmente car la proportion de variance due à l'erreur diminue. La formule de Rulon, ainsi que celle de Flanagan et Guttman, s’appliquent particulièrement lors du calcul du coefficient de fiabilité par la méthode des deux moitiés. Ce sont des formules utilisées pour calculer le coefficient de fiabilité.
Fiabilité et cohérence: le coefficient de fiabilité peut aussi être trouvé d’une autre manière, c’est le soi-disant coefficient alpha o coefficient de généralisabilité ou de représentativité (Cronbach). Ce coefficient alpha indique avec quelle précision certains éléments mesurent un aspect de la personnalité ou du comportement. Il peut être interprété comme suit: Une estimation de la corrélation moyenne de tous les éléments possibles dans un certain aspect. Une mesure de la précision du test en fonction de sa cohérence ou de sa cohérence interne (interrelation entre ses éléments, dans quelle mesure les éléments du test mesurent tous de la même manière) et de sa longueur. Indiquant la représentativité du test, c’est-à-dire la quantité dans laquelle l’échantillon d’éléments qui le compose est représentatif de la population d’éléments possibles du même type et de même contenu psychologique. Le coefficient alpha reflète principalement deux concepts de base dans l'exactitude d'un test: 1. L'interrelation entre ses éléments: la mesure dans laquelle ils mesurent tous la même chose.
La durée du test: en augmentant le nombre de cas dans un échantillon et en éliminant les erreurs systématiques, l'échantillon représente mieux la population dont il est extrait et il est plus improbable qu'il s'agisse d'une erreur accidentelle. Si les items du test sont dichotomiques (oui ou non, 1 ou 0, accord ou désaccord, etc.), l’équation du coefficient alpha est simplifiée, donnant lieu aux équations de Kuder-Richardson (KR20 et KR21). Compte tenu d'un certain nombre d'éléments, un test sera plus fiable lorsqu'il sera plus homogène. Le coefficient alpha nous indique la fiabilité car il représente l'homogénéité et la cohérence ou la cohérence interne des éléments d'un test.
Normes et critères de fiabilité
Selon le modèle de l'espace d'échantillonnage d'éléments, l'objectif du test est d'estimer la mesure qui serait obtenue si tous les éléments de l'espace d'échantillonnage étaient utilisés. Cette mesure serait le véritable score, auquel les mesures réelles se rapprochent plus ou moins. Selon le degré de corrélation d'un échantillon d'éléments avec les scores réels, le test est plus ou moins fiable. Dans ce modèle, la matrice de corrélations entre tous les éléments de l’échantillon est centrale, ce modèle insiste plus directement sur la cohérence interne et, dans la mesure où il l’atteint, garantit indirectement la stabilité..
Le modèle linéaire des tests parallèles insiste davantage sur la stabilité des scores et, dans la mesure où il y parvient, il favorise indirectement la cohérence interne. Si nous appliquons un test pour établir des diagnostics et des prévisions individuels, le coefficient de fiabilité doit être compris entre 0,90 et plus. Dans les prévisions et les classifications collectives, la demande n’est pas tellement importante, même s’il n’est pas commode de s’éloigner de 0,90 à 0,80..
Parfois, dans certains types de tests, tels que les tests de personnalité, il est difficile d’atteindre des coefficients supérieurs à 0,70. Si les formes parallèles, ou moitiés parallèles, sont appliquées après un intervalle plus ou moins grand, les erreurs aléatoires peuvent être plus nombreuses que celles affectant le coefficient alpha. En effet, ce qui abaisse la corrélation, ce sont non seulement les erreurs aléatoires intrinsèques au test et en une seule occasion, celles qui prennent en compte le coefficient alpha, mais également toutes les erreurs pouvant provenir des deux situations , qui peuvent différer de nombreux détails. Par conséquent, le coefficient alpha est généralement supérieur aux autres coefficients.
À l'exception du coefficient trouvé en répétant le même test, il est plus probable que les erreurs aléatoires de la première application se répètent dans la seconde, et au lieu de diminuer la corrélation entre les deux, elles l'augmentent. Il faut veiller à ce que la deuxième application soit complètement indépendante de la première. Si nous y parvenons, ce sera la méthode la plus simple, la moins chère et la plus indiquée pour essayer d’apprécier la stabilité des scores, en particulier pendant de longues périodes et avec des tests complexes. > Suivant: Validité des tests