Evaluer des capacités de raisonnement et/ou évaluer un potentiel ? Colloque CERFOP, Paris , 21 mai 2014 Philippe CHARTIER INETOP/CNAM [email protected] 1 Maître de conférences en psychologie à l’INETOP/CNAM/PARIS Responsable du groupe GEP (Groupe sur l’Evaluation des Personnes) Contact : [email protected] 2 Plan Introduction I. L’approche de l’évaluation dynamique II. L’approche de l’analyse des erreurs 3 Chartier, P., Barbot, H. et Ozenne, R. (2014). L’analyse des erreurs dans les tests de raisonnement logique : principes et illustrations. L'Orientation Scolaire et Professionnelle, 43, 1 (à paraître) Chartier, P. et Barbot, H. (2013). Mesurer un niveau de performance et/ou évaluer un potentiel ? Exemple d’interprétation des résultats aux matrices de Raven, Approche Neurologique des Apprentissages chez l’Enfant, 122, 72-79. Chartier, P. et Lallemand, N. (2013). Comment dépasser le constat d’un niveau de performance à un test de raisonnement ? Exemple d’une épreuve. Pratiques Psychologiques, 19, 55-65. Chartier, P. (2012). Les tests RCC. Paris : Eurotests éditions 4 Chartier, P. & Loarer, E. (2008). Evaluer l’intelligence logique. Paris : DUNOD. Chapitre 7 : l’évaluation dynamique Huteau, M. & Lautrey, J. (1999). Evaluer l'intelligence. Paris : PUF. Chapitre IX « de l’évaluation statique à l’évaluation dynamique ». Guthke, J. (1990). Les tests d’apprentissage comme alternative ou complément aux tests d’intelligence : un bilan de leur évolution. European Journal of Psychology of Education, V, 2, 117-133. + nombreux articles en allemand Hessels & Hessels-Schlatter, (2010) Evaluation et intervention auprès d’élèves en difficulté. Peter Lang 5 Büchel, F-P., Ed (1995). L’éducation cognitive. Le développement de la capacité d’apprentissage et son évaluation. Lausanne : Delachaux et Niestlé. 6 INTRODUCTION Evaluer un état/évaluer un potentiel Evaluer une performance / évaluer une compétence (Chomsky) Evaluer des capacités latentes ? 2 pistes : 1° le courant de l’évaluation dynamique 2° l’analyse des erreurs 7 I. L’approche de l’évaluation dynamique 1° Evaluation statique /Évaluation dynamique 2° Evaluation d’un Potentiel d’Apprentissage (P.A) / = évaluation d’un changement Tests d’apprentissage… 3° La question de la standardisation de la passation… 4° Une autre position pour le psychologue : évaluation et formation… 8 5° mais des limites…théoriques et méthodologiques La notion de test d’apprentissage « Les tests d’apprentissage sont des procédés diagnostiques qui offrent au sujet une situation d’apprentissage standard et qui retiennent comme information diagnostique la réussite que tire le sujet de cette possibilité d’apprentissage » (Flammer & Schmid, Tests d’apprentissage, p.181, In Büchel (1995) 9 « Compte tenu de leur diversité, le commun dénominateur des évaluations dites dynamiques réside dans la production d’un écart entre l’efficience observée dans les conditions standards habituelles et l’efficience obtenue avec l’aide de l’examinateur. … 10 …Cet écart signalerait des capacités dites potentielles dans la mesure où leur expression dépend des conditions d’évaluation. Toute évaluation dynamique se propose donc de réduire la distance entre les performances et les compétences en aidant le sujet à exprimer « au mieux » ses capacités cognitives. » (Paour, J-L., Jaume, J., et de Robillard, O., 11 1995, p.66). «Toutes les approches ont en commun le fait qu’un entraînement ou des aides sont introduits dans le test. Les approches diffèrent cependant quand à la nature et à l’étendue des aides fournies, allant du simple feed-back après une réponse, à un enseignement explicite des règles et stratégies nécessaires pour résoudre les tâches » (Hessels, 2010, p.11) 12 I. L’évaluation d’un potentiel d’apprentissage : les précurseurs 1. VYGOTSKY (1896-1934) : La notion de ZPD : la Zone Proximale de Développement (Z.P.D) ou Zone de Proche Développement Ou Zone de développement potentiel : exprime mieux l’idée d’un possible développement… « La différence entre le niveau de résolution de problèmes sous la direction et avec l’aide d’adultes et celui atteint seul définit la zone proximale du développement.» « Ce que l’enfant est en mesure de faire aujourd’hui à l’aide des adultes, il pourra l’accomplir seul demain » =>pronostic d’une marge de développement possible, de développement potentiel Vygotsky,1985, p. 108 In Schneuwly et Bronckart (1985), Vygotsky aujourd’hui. Delachaux et Niestlé 13 « Deux enfants ont le même âge mental de 7 ans ; cependant l’un des 2 résout avec un minimum d’aide des tâches pour des enfants de 9 ans, alors que l’autre ne réussit que des tâches adaptées à des enfants de 7 ans et demi. Le développement mental de ces 2 enfants est-il le même ? Du point de vue de leur capacité autonome, oui ; mais du point de vue de leur capacité potentielle de développement, ils sont très différents.» Vygotsky,1985, p. 108 14 « La ZPD a une signification plus directe pour la dynamique du développement intellectuel et la réussite de l’apprentissage que le niveau présent de leur développement » (Vygotski, cité par Chartier & Loarer, 2008, p.334). 15 • 2 aspects : 1° Estimation de la ZPD à partir de 2 scores 2° Existence de différences interindividuelles au niveau de la ZPD • 1 remarque : Notion de ZPD développée par Vygotsky à propos d’enfants…notion reprise et appliquée pour les adultes… Quelles conceptions de l’intelligence de l’adulte ? Existe-t-il aussi des capacités de développement chez l’adulte ? Et chez tous les adultes ???... => Lien étroit avec l’approche de l’éducabilité cognitive… 16 Les précurseurs (suite) 2. André REY Les propositions de Rey (1934), D’un procédé pour évaluer l’éducabilité, Archives de Psychologie, 24, 297-337 « On a collectionné, jugé et évalué les réponses fournies aux questions les plus diverses, les solutions données pour les problèmes les plus variés. Grâce à un étalonnage de ces épreuves, on s’est donné la possibilité de comparer les sujets entre eux et d’assigner un rang à leurs aptitudes ou au niveau de leur développement… 17 …En agissant de la sorte, ne met-on pas sur le même plan des individus qui, en réalité, ne sont pas comparables ? En effet, chez les uns, les possibilités d’adaptation se sont actualisées au maximum, chez d’autres, des marges plus ou moins étendues subsistent encore » (Rey, 1934, p.299) 18 REY : Proposition d’épreuve d’apprentissage : « Pratiquement, ces épreuves revêtent des formes d’apprentissage. On retient la manière et la rapidité avec laquelle un individu s’adapte à une tâche déterminée et on compare entre sujets, les caractères de l’éducabilité » (Rey, p.300). 19 (Guthke, 1990, p.118) Intérêt de la démarche pour : 1° passer d’un constat ponctuel d’un savoir-faire à l’évaluation d’un potentiel, à un diagnostique de compétence … 2° proposer des situations d’évaluation qui permettent d’apprendre au moyen de ses erreurs, type d’apprentissage courant dans la vie quotidienne… 3° apprécier plus équitablement les potentialités des personnes dites « défavorisées » ou vivant dans des conditions de carence culturelle extrême.. 20 Comment faire ? « La situation de test d’apprentissage a été réalisée : soit par simple répétition d’un test d’intelligence, soit par création d’une situation expérimentale avec pré-test, intervention et post-test, soit par une phase d’enseignement avant la présentation d’un test, soit enfin par des aides fournies pendant la phase de test » 21 Exemple de démarche A-T sur l’épreuve des cubes Planche A Planche B (aide 1) Modèle à l’échelle 1 Planche C (aide 2) Modèle avec limites des cubes visibles 22 A-T : - principe des aides graduées… - qui reposent sur une analyse théorique des difficultés des items - si possible standardisées…mais des approches différentes (ex LPAD…) 23 Exemple de démarche T-A-R Test/Apprentissage/Retest Phase 1 : passation classique d’un test (type facteur g : le plus souvent les matrices de Raven…) Phase 2 : une phase d’apprentissage, avec des exercices, des supports…travail sur les stratégies de résolution, les pièges, les erreurs…(atelier d’une heure par exemple ; 2 x 45 minutes pour Guthke) Phase 3 : retest classique soit la même 24 épreuve, soit une forme parallèle Quels indicateurs du P.A ? T.A.R et Test/retest: différence pré/post (score de gain, analyse possible de la progression dans les erreurs…) A.T : capacité à tirer profit des aides / nombre d’aide ayant donné lieu à une réussite ? À un échec ?...réussite des tâches de « transfert »… Exemple : calcul d’un rapport Nb d’aides données/nb d’aides efficaces… 25 V. Les limites de l’évaluation dynamique 3 types de limites : 1° des limites pratiques : temps de passation, matériel disponible, références disponibles (ex : étalonnages de retests..) 2° des limites méthodologiques (problème de la fidélité des scores de gain) 3° des limites théoriques : validité de ce qui est évalué ? Interprétation et généralisation des résultats ? 26 Autres limites : - Quelle prise en compte des différences individuelles dans les aides ? (ex : stratégies aux cubes…adapter l’aide aux stratégies des sujets ?) - La « résistance » au changement dans les pratiques évaluatives… 27 Une recherche INETOP 2012/14 3 TER de Bonhoure, Grathwohl et Legendre Emilie (promotion 2012/14 ) Méthodologie : test /retest RCC en classe de 5ème SEGPA Pas de phase d’apprentissage… Participants : • Effectif de départ : 119 élèves • Effectif exploitable : 76 élèves (absence au retest, protocole peu fiable, gain < -1 point…) 52 garçons, 24 filles; Age moyen = 14 ans 3 mois 28 Présentation du test RCC 1 épreuve de raisonnement logique de type facteur g (Chartier, 2012) Trouver la carte (famille et valeur) qui vient compléter une suite proposée. RCC forme b : 40 items, temps limité à 20 minutes. Scores RCC possibles : de 0 à 40 (1pt par B.R) • Plusieurs indicateurs possibles : score total, sous scores, vitesse, précision, indicateurs de la qualité des erreurs… 29 Les items du RCC : exemple d’item Numérique N 30 Méthodologie Test 1 : score RCC1 Test 2 (J +1 ou J+2) : score RCC2 Analyse des gains entre temps 1 et temps 2 = indicateur d’un Potentiel d’apprentissage Quel est le meilleur indicateur des capacités de raisonnement de l’élève : RCC1 ou RCC 2? 31 Hypothèses principales ? Effet test/retest ? Effet test/retest identique chez tous les participants ? Analyse qualitative des gains (quelle transformation des réponses ? Hyp sur les BRP) Lien entre PA et avis des enseignants (questionnaire) ? 32 Les effets test/retest ? moyenne E Type mini maxi RCC1 14 7,3 0 28 RCC2 18 7 1 36 Gain 4,03 4,05 -1 +15 Tableau 1 : valeurs descriptives des variables RCC1, RCC2 et gain 33 Effet test/retest identique chez tous les participants ? Score effectif RCC1 Sores RCC2 Gain moyen Gain Détails des mini/maxi gains individuels 3 à 12 3/4/7/8/8/12/12 10 7 13 à 22 5,4 11 4 12 à 15 2,5 1à4 1/2/3/4 16 6 16 à 25 3,8 0à9 0/1/4/4/5/9 18 4 18 à 25 2,5 0à7 0/0/3/7 20 4 19 à 23 0,7 -1 à +3 -1/-1/2/3 23 6 22 à 29 1 -1 à +6 -1/-1/0/0/2/6 25 4 24 à 29 1,2 -1 à +4 -1/1/1/4 34 effectif Groupe 1 (RCC1<10) Groupe 2 (RC1 >10) 26 50 Gain moyen + 6,1 +3 Tableau 3 : comparaison du gain moyen sur deux groupes contrastés 35 Analyse qualitative des gains (quelle transformation des réponses ? Hyp sur les BRP ?) Pattern possible RCC1 => RCC2 1 => 1 % observé /réponse en RCC1 81 Nature de l’évolution RCC1 => RCC2 Conservation réussite 0 => 0 48 Conservation erreur 0,5 => 0,5 52 Conservation BRP 0 => 1 23 Erreur transformée en BR 0,5 => 1 30 BRP transformée en BR 0 => 0,5 29 Erreur transformée en BRP 0,5 0,5 => 0 18 Régression BRP vers erreur 1 => 0,5 14 Régression BR vers BRP 0,5 1 => 0 4 Régression BR vers erreur 0 Tableau 4 : analyse de l’évolution des pattern de réponse 36 Lien entre PA et avis des enseignants ? 1 questionnaire enseignant sur les capacités de l’élève a progresser => Corrélations ? Significatives mais pas dans le sens attendu ??? 37 Conclusion des études TER 1° Difficulté à faire comprendre la nécessité de passer 2 fois la même épreuve… passations parfois difficiles et certains protocoles peu fiables 2° Des différences inter élèves importantes sur le score de gain 3° Utilité d’avoir 2 scores pour caractériser les capacités de l’élève…mais problème de l’absence de références pour pouvoir situer les gains observés… principe de l’étalonnage 38 4° avis des COPS concernés ? Réflexions Situation P.A particulière => quelle généralisation sur d’autres situations ? Et sur des situations d’apprentissage scolaire & en groupe ? Sur le retour à un milieu « sous stimulant » ? 39 Conclusion sur l’approche dynamique « D’après les auteurs travaillant sur ce thème, l’avantage des tests dynamiques sur les épreuves classiques serait double. Ils fourniraient d’une part un meilleur diagnostic de la capacité d’apprentissage des personnes évaluées et, d’autre part, limiteraient le poids des variables culturelles dans l’évaluation réalisée » (Loarer, 2001, p.69-70). « C’est donc surtout lorsqu’ils sont face à une performance de bas niveau dans les tests conventionnels que les praticiens peuvent avoir avantage à recourir à l’évaluation dynamique pour lever une ambiguïté sur l’origine de cette mauvaise performance et guider la remédiation » (Huteau et Lautrey, 1999, p.272). 40 « Avec le recours à la ZPD, le sens d’une évaluation psychologique change radicalement : il ne s’agit plus de fournir un chiffre nu, un chiffre brut, unique, ou d’opérer un « bilan » (…). Le psychologue se fixe plutôt pour tâche de dessiner de vastes zones à l’intérieur desquelles le sujet peut se mouvoir plus ou moins librement, seul ou accompagné, avec un bonheur variable et des chances inégales de réussite selon les modalités de l’étayage ». Meljac, 2005, p.31, Le journal des psychologues 41 n°230 II. L’approche de l’analyse des erreurs pour estimer un potentiel Des recherches en pédagogie, en didactique…mais pas de recherche en psychométrie… C’est une source d’information habituellement négligée dans les tests de type aptitudes intellectuelles & Q.I. 42 Principe général de l’analyse des erreurs dans les tests Une réponse différente de la BR = 0 Catégorisation 0/1…=> 0 = 0 ??? Mais : 1° finesse possible de la cotation 0/1/2 dans certains subtests du WISC… 2° Il peut exister des différences de « qualité » entre des réponses « fausses » différentes, de proximité avec la BR… => 0 # 0 !!! 43 Démarche ? Etape 1 : Identifier différentes qualités de réponse « fausses » Etape 2 : Possibilité de calculer des indicateurs spécifiques ? => l’exemple du test RCC et des BRP : ½ point… 44 L’analyse des erreurs au test RCC • La bonne réponse = les 2 éléments corrects (famille et valeur) idem autres tests : D70… • 1 seul élément correct = 0 • 0 élément correct = 0 Approche => 0 = 0 ??? = Distinguer différents types d’erreurs, plus ou moins proches de la bonne réponse attendue. 45 Principes de l’analyse des erreurs au RCC Bonne réponse ici ? 7 pique Toute autre réponse = erreur = 0 Mais 0 = 0 ? Certaines réponses erronées sont + proches de la BR… exemples : -7 trèfle (Valeur correcte mais famille fausse) - Une autre carte de Pique ? Ex 6 Pique (Famille correcte, mais valeur fausse ..erreur de calcul ?...) Ces 2 types de réponse valent-elles réellement 0 ? Apportent-elles des informations sur la logique de raisonnement du sujet ?... Pourquoi alors ne pas les prendre en compte ???… 46 • Possibilités d’analyse des erreurs: 1° Approche descriptive : Au niveau des items : les types d’erreurs les + fréquentes… Au niveau des sujets : Identifier les différentes erreurs…repérer un style préférentiel ?... 2° Autre approche = différencier des qualités de réponse…et estimer un potentiel Notion de Bonne Réponse Partielle BRP 47 Etape 2 : Le score R.P Réussite Partielle • Principe général = accorder une partie du point dans le cas d’une BR partielle. ½ point Score RP = somme des ½ points 48 proportion minimum maximum T1 82% 50% 100% T2 : BRP valeur 6% 0 27% T2 : BRP famille 12% 0 40% Tableau 6 Répartition des réponses fausses au RCC 49 Résultats descriptifs des scores moyenne E Type mini maxi RCC 18,6 6,6 1 33 RP 3,6 2,5 1 14,5 RCC Potentiel 22,2 6,3 6,5 36,5 50 Variabilité des scores RP et RCC Potentiel pour les scores RCC les plus fréquents 51 Variabilité des scores RCC pour les scores RCC Potentiel les plus fréquents 52 Que représente ce score Potentiel ? Que représentent des différences de scores Potentiel pour un même score ? • Des hypothèses : • Un potentiel de développement, une marge de progression • Des capacités latentes qui ne sont pas prises en compte par le score classique => une évaluation plus proche de la notion de compétences / score classique qui est une évaluation d’une performance • Lien avec la ZPD de Vygotsky • Lien avec les objectifs de l’évaluation dynamique 53 Test RCC : • 1 étalonnage pour le score RCC • 1 étalonnage pour le score RCC Potentiel => Comparaison possible des gains RP… 54 A suivre…. Merci de votre attention !!! [email protected] 55 L’analyse des erreurs au subtest Matrice du WISC TER DECOP : Destrebecq, A., 2012, Analyse des profils de réponses et des erreurs pour un test de raisonnement : les matrices du WISC IV. Mémoire de DECOP. Paris : INETOP Application au subtest Matrice de l’approche Chartier/Barbot développée pour les matrices de Raven 56 Etape 1 : catégorisation des distracteurs Type ditracteur Description T1. Réponse Le distracteur est identique à un élément de la matrice identique qui n’est pas la bonne réponse. Aucune élaboration de la bonne réponse. T2. Réponse Le distracteur comprend toutes les règles de partielle transformation nécessaires à la résolution de l’item, sauf une (à condition que cette réponse ne figure pas déjà dans la matrice : dans ce cas type 1) => une élaboration partielle de la bonne réponse T3. Réponse Le distracteur est une réponse perceptivement proche perceptivement de la bonne réponse mais avec un élément différent ou proche une (légère) erreur d’orientation => une élaboration partielle de la bonne réponse ? T4. Réponse Plusieurs règles ne sont pas présentes dans ce éloignée distracteur ou réponse perceptivement éloignée. T5. Réponse Le distracteur n’a aucun lien avec la bonne réponse. aberrante Aucune élaboration de la bonne réponse. 57 Type de distracteur Description T1. Réponse identique Le distracteur est identique à un élément de la matrice qui n’est pas la bonne réponse. Aucune élaboration de la bonne réponse . T2. Réponse partielle Le distracteur comprend toutes les règles de transformation nécessaires à la résolution de l’item, sauf une (à condition que cette réponse ne figure pas déjà dans la matrice, dans ce cas type 1). Notion de Bonne Réponse Partielle BRP = une élaboration partielle de la bonne réponse. T3. Réponse Le distracteur est une réponse perceptivement proche de la bonne réponse mais perceptivement proche avec un élément différent ou une (légère) erreur d’orientation => une élaboration partielle de la bonne réponse ? (à rapprocher de la notion de BRP). T4. Réponse éloignée Plusieurs règles ne sont pas présentes dans ce distracteur ou réponse perceptivement éloignée. T5. Réponse aberrante Le distracteur n’a aucun lien avec la bonne réponse. Aucune élaboration de la bonne réponse. 58 Exemple d’erreur de type 2 : item 16 59 Exemple d’erreur de type 2 : item 18 60 Exemple d’erreur de type 3 : item 22 61 Exemple d’erreur de type 3 : item 28 62 Catégorisation de l’ensemble des distracteurs du subtest => élaboration d’une grille 63 ITEM 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 Total Pourcentage Bonne réponse 2 3 4 1 5 2 4 4 1 3 2 5 4 1 1 2 5 4 2 4 3 3 5 4 3 1 2 1 2 2 5 4 3 1 5 T1 T2 T3 T4 1 2 2 1 1 1;2 4 3;4;5 3 5 3 5 1 1;3;4 3;5;2 2;3;4 2;5;4 3 1 3 2; 5 4;5 4 3;4;5 1 5 4 2 5 4 3 1 2 1;5 5 2;3 1 4 2;3 1 4 1 4 1 1;2 4 2 3 1;5 1;3 4;1 3;5 4;5 5 3;4 4;5 2 2;1 2 34 24,3 % 3 2 1;2 2 2;4 2;3;5 1;5 T5 1;3;4;5 1;2;4;5 2;3;5 3;4;5 1;3 3 21 15 % 13 9,3 % 26 18,6 % 3 5 5 1;3;5 2 1;2;3? 5 4;5 4 3 3;4 2 1 3;4;5 1;2;4 46 32,8 % 64 ITEM 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 BR 3 3 5 4 3 1 2 1 2 2 5 4 3 1 5 T1 T2 2;4 T3 1;5 5 T4 4 1 4 1 2;3 1;2 2;3;5 1;5 4 2 3 1;5 1;3 4;1 3;5 4;5 2 3 5 3;4 4;5 2 2;1 T5 2 1;2;3 ? 5 4;5 4 3 3;4 2 1 3;4;5 1;2;4 65 Distribution des types de distracteurs sur subtest Matrices ITEM T1 Total 34 Pourc entag e 24,3 % T2 T3 T4 T5 21 13 26 46 15 % 9,3 % 18,6 % 32,8 % 66 Calcul de scores • Décision : T2 et T3 = BRP = 0,5 points Le score RP le score Matrice Potentiel 67 TER 2013 Angèle Destrebecq • 85 protocoles WISC • Scores bruts Matrices de 19 à 24, m = 21,4, ET = 1,7 • Objectif = pouvoir comparer des élèves de niveau équivalents => sélection de scores proches • Score BRP = nb de BRP • Score RP = Nb BRP x 0,5 68 Erreur T2 type T1 T3 T4 T5 Nombre d’erreur complète T1+T4+T5 Nb de BRP T2+T3 Moyen 1,4 ne E type 1,4 1,6 1,2 0,7 2,3 4,4 2,9 1,1 1,2 0,8 1,8 2,46 1,73 Mini/m 0-6 axi 0-4 0-5 0-3 0-9 0-11 0-9 Tableau 4 : répartition des erreurs sur l’ensemble du groupe 69 Sco N re Moyen ne BRP Effectifs pour chaque score BRP 0 1 2 3 4 5 6 9 19 15 2,7 2 0 3 6 3 1 0 0 22 14 2,5 1 4 5 0 1 1 2 0 24 13 3,5 0 2 2 5 1 1 1 1 Tableau 5 : Distribution du scores BRP pour quelques scores bruts Matrice identiques (effectif les plus fréquent en gras) 70 Scores mini maxi Matrice Moyenn E Type e 21,4 1,7 19 24 RP 1,4 0,86 0 4,5 2 19 28,5 Matrice 22,8 Potentiel Tableau 6 : Scores RP, Matrice et Matrice Potentiel 71 Scor N e Mat 19 20 21 22 23 24 Mat Pot effectifs des gains RP moyenne 0 + 0,5 + 1 +1,5 +2 (mini/max i) 15 20,4 (19/21,5) 17 21,1 (20/22,5) 15 22,8 (21/24) 14 23,1 (22/25) 11 24,6 (23/26) 13 25,7 (24,5/28,5 Total +2,5 +3 +3,5 2 0 3 6 3 1 0 0 2 3 2 7 2 1 0 0 1 1 3 4 3 1 2 0 1 4 5 0 1 1 2 0 1 2 1 2 2 3 0 0 0 2 2 5 1 1 1 1 7 12 16 24 12 8 5 1 72 Que représente ce score Potentiel ? Que représentent des différences de scores Potentiel pour un même score Matrice ? • Des hypothèses : • Un potentiel de développement, une marge de progression • Des capacités latentes qui ne sont pas prises en compte par le score classique => une évaluation plus proche de la notion de compétences / score classique qui est une évaluation d’une performance • Lien avec la ZPD de Vygotsky • Lien avec les objectifs de l’évaluation dynamique 73 Expé 2 matrices (K.Terriot et P.Chartier) en cours • 72 protocoles WISC venant des CIO (suite à la circulaire d’expérimentation de l’OPPIO) • • Scores bruts Matrices de 7 à 32 (m = 19,9) 74 Scores mini maxi Matrice Moyenn E Type e 19,9 1,7 7 32 RP 1,14 0,75 0 3 5,6 7 32 Matrice 21 Potentiel 75 Score Mat N Mat Pot effectifs des gains RP moyenne 0 + 0,5 + 1 +1,5 +2 (mini/maxi) 20 8 (20/22) 1 2 4 0 21 9 (21,5/24) 0 3 3 22 7 (22/24,5) 1 2 23 13 (23/25) 1 3 Total +2,5 +3 1 0 0 1 1 0 1 1 2 0 1 0 1 2 7 2 0 0 8 10 10 4 1 1 76 Tableau 12 : Analyse des scores Matrice Potentiel à score Matrice identique Un autre indicateur possible : le score DIR Dernier Item Réussi Ecart DIR = score DIR – score Matrices moyenne E Type Mini/maxi Matrice 19,9 5,32 7/32 DIR 22,7 5,96 9/33 Ecart DIR 2,93 2,13 0/10 77 Ecart 0 DIR 1 2 3 4 5 6 7 8 10 effect 6 if 14 13 15 11 4 3 1 3 1 4,2 1,4 4,2 1,4 % 8,3 19,4 18,1 20,8 15,3 5,6 % 78 Scores Effe Score DIR Matrices ctif 21 22 23 24 25 26 27 28 29 30 18 3 2 0 0 0 0 0 0 1 0 0 21 9 0 3 1 2 1 1 1 0 0 0 22 7 0 3 2 0 0 1 0 0 1 23 13 1 1 2 3 4 0 1 1 79 Que représente ce score DIR ? • Lien avec la hiérarchisation (théorique) du niveau de difficulté des items • Recherches à poursuivre… 80 Au final, en appliquant les 2 approches (BRP et score DIR), le psychologue dispose de 3 scores pour caractériser la performance de l’élève : Score Matrice Score Matrice Potentiel Score DIR Quels types de liaison peut-on attendre entre ces 3 scores ? • Entre scores Matrices, matrices Pot et DIR ? 81 • Entre variables BRP et écart DIR ? Corrélations entre les scores Mat Pot T2 T3 RP Ecart DIR Matrices .99 .23 .28* .35** .20 Matrices Pot .32** .35** .46** .25* Ecart DIR .512 ** .188 .506** 82 Les perspectives Compte tenu des limites actuelles les tests de type P.A, ainsi que les indicateurs et scores issus de l’analyse des erreurs, ne peuvent pas (pas encore ?) être une alternative aux évaluations classiques mais seulement être complémentaires aux scores et indicateurs traditionnels… mais recherches à poursuivre... et l’élaboration de normes & étalonnage… 83 • « Ils devraient davantage être utilisés pour dévoiler des potentiels d’apprentissage caractéristiques de l’individu, les stratégies utilisées, les sources d’erreurs, etc. afin de pouvoir mieux qu’avec les tests d’intelligence obtenir des directions pour l’enseignement ou le choix de mesures de soutien » (Guthke, 1990, p.125) 84 Pratiques du COP ? • Quelles utilisations possibles de ces approches ? • Sur quel types d’élèves ? • Dans quelle(s) type(s) de situation ? 85 D’où : 1° la nécessité de construire des tests spécifiques (/ aux pratiques actuelles qui adaptent des tests existants), 2° constitués d’items, et de choix de réponse, fondés sur des bases théoriques permettant une analyse des erreurs 3° et reliés alors à des aides spécifiques et individualisés => Vers une évaluation de type diagnostique 4° établir des liens avec des situations 86 d’apprentissage scolaire… Illustrations : quelques pratiques possibles Difficulté de passer des recherches aux pratiques…et à la diffusion (et l’édition) des dispositifs d’évaluation… Plusieurs pistes : 1° Utiliser des épreuves éditées (TEDE 6) 2° Adapter une démarche (épreuve des cubes) 3° Hessels : TAPA et HART 4° évaluer un potentiel par l’analyse des stratégies 5°Autre approche : Partir de l’analyse des erreurs pour estimer un potentiel (RAVEN, RCC) 87 1°Utiliser des épreuves éditées : le TEDE 6 (EAP , ECPA ?) • Objectifs de l’épreuve (manuel, p.11) : « le TEDE 6 a pour objectif principal l’évaluation du potentiel d’apprentissage de l’adulte, du candidat apprenti et de l’apprenti. Ce potentiel est établi dans le cadre d’une évaluation dynamique qui introduit dans la procédure de passation de l’épreuve une phase d’apprentissage. On peut, par ce procédé, se centrer sur la performance, mais aussi sur la compétence d’apprentissage par observation de la réactivité et de la modifiabilité des conduites du sujet face aux aides apportées » Daniel Pasquier : www.avenirentreprise.tk 88 « En quelque sorte, l’évaluation dynamique fonctionne à la manière d’une microformation : on place le sujet en situation d’apprentissage, dans le cadre quasi expérimental d’un micro monde, on observe son mode de fonctionnement dans cette situation, puis on évalue sa performance en situation d’autonomie, c’est à dire son potentiel d’apprentissage ». 89 Le test TEDE6 Figure*. Exemple d’item du test de calcul des longueurs de Faverge (1955) et dont s’inspire le TEDE 90 « la tâche du TEDE6, de nature spatiale et logico-mathématique, est double. D’une part, il s’agit de composer une égalité à partir de segments de droite et, d’autre part, de tracer des flèches figurant les superpositions de segments justifiant cette égalité » In document EAP, présentation du TEDE6. Le TEDE comprend trois niveaux de difficulté des items selon la complexité des opérations à effectuer Extrait de Chartier & Loarer (2008) 91 92 « Le potentiel d’apprentissage (PA) se concrétise dans un niveau de performance post apprentissage. In fine, la variable PA évalue la capacité de transférer un apprentissage médiatisé, c’est à dire la capacité de refaire seul ce qu’on vient d’apprendre à réaliser en situation pédagogique. On se place ainsi dans un cadre analogue au cadre des apprentissages professionnels, qu’ils soient menés en centre de formation, ou en entreprise » (manuel TEDE 6, p.16). • 2 phases : Phase d’apprentissage (60 minutes) : livret apprentissage (18 items), correction avec repérage des erreurs… Phase test : livret test (18 items forme //, en temps limité de 45 min), correction 93 • Résultats : 1 score total = score à la phase test (m=100, écart-type =15) = expression du PA 3 profils : - fonctionnel (en relation avec les spécificités de la tâche) ; - Apprentissage (repérage des erreurs, de la correction… ); - Transfert (analyse des transferts entre items d’apprentissage et items de test); 94 Conclusion sur le TEDE 6 1° Contenu spécifique (facteur S, géométrie…) qui limite sans doute la généralisation des observables 2° Absence de score pré test 3° Possibilités d’analyse fine des performances des sujets 4° le seul test édité ! 95 2° Adapter une démarche (épreuve des cubes 1) • Procédure « Ionescu » (Chartier & Loarer, 2008) Aides standardisées au cours du test Principes des aides graduées : 3 niveaux d’aide progressive 96 Principes de la passation 97 Planche A Planche B (aide 1) Planche C (aide 2) 98 Les indicateurs Chartier et Loarer (1994) introduisent une variante en proposant 2 nouveaux scores par rapport à Ionescu et al. (1987) pour limiter le problème concernant la liaison négative observée habituellement entre le score de réussite spontanée et le nombre d'aides ou de transferts réussis. Il s’agit de deux rapports : - le rapport (appelé RA, « rapport d’aide ») donné par l'opération : nombre de réussites consécutives à une aide/ nombre d’aides fournies, qui désigne la capacité du sujet à tirer parti des aides qui lui sont fournies, - le rapport (appelé RT « rapport de transfert ») donné par l'opération : nombre de transferts réussis / nombre d’occasions de transférer, qui désigne la capacité du sujet à généraliser le principe de réussite appris au cours de l’aide. 99 2° Adapter une démarche (épreuve des cubes 2) Le test des carrés (Mary et Mariel, 1985 ?, EAP, n’est plus édité). (modèle en 2D : cubes => …des carrés) Adapté aux enfants de 4 à 6 ans. Procédure Test- aide –retest « On ne se contente plus d’évaluer un niveau obtenu par l’enfant, on essaie en outre d’agir sur ce dernier, de le modifier » 21 items (type Kohs) 1 carnet test, 1 carnet apprentissage (mêmes figures mais couleurs différentes) 100 Phase test (passation classique) : arrêt après 3 échecs consécutifs + limites de temps (score 1) Phase aide/retest : reprendre les items échoués avec le carnet apprentissage. Aide verbale, puis démonstrations si nécessaires. Puis reprise de l’item échoué avec le carnet test (transfert). (Score 2) INDICATEURS : 2 scores => 1 étalonnage test (score 1) / 1 étalonnage retest (score 1 + 2) 101 « Le test des carrés est essentiellement un test d’éducabilité. Aussi, au retest, après explication, l’important n’est-il pas tellement le score obtenu, mais plutôt l’observation de l’enfant dans sa démarche, ses tentatives pour surmonter la difficulté. Parfois une intervention de l’examinateur permet une sorte de déclic qui ouvre brusquement la porte à la réussite » 102 « Comme dans les techniques de PIAGET, le sujet peut parfois être poussé à l’absurde pour voir comment il va réagir. Une grande liberté est donc laissée à l’examinateur ». => Remarque : problème alors de la standardisation ? 103 Conclusion sur les épreuves cubes 1° Absence d’épreuve éditée... mais des démarches bien décrites dans la littérature 2° Fabrication assez facile du matériel…mais nécessité d’avoir des références (étalonnages…) pour estimer les scores de gain… 3° Elaborer des aides adaptées aux stratégies de sujets ? (cf : logiciel SAMUEL) aux styles d’apprentissage ? 4° Projets possibles : test /retest (idem Test des carrés) avec les modèles du subtest cubes du WISC et de la WAIS… 104 3° Le TAPA : utilisation d’une procédure dynamique sur une population spécifique Hessels & Hessels-Schlatter, (2010) Evaluation et intervention auprès d’élèves en difficulté. Peter Lang Chapitre 3 : Une évaluation plus fiable de la capacité d’apprentissage des personnes présentant une déficience intellectuelle modérée à sévère (DIMS). (p. 35-50) 105 DIMS : QI < 50-55 => quelles capacités d’apprentissage ? « Les possibilités d’apprentissage des personnes avec DIMS sont beaucoup plus importantes qu’on ne le pense généralement »(p.37) « De plus, tout comme les autres, elles ne forment pas un groupe homogène, mais se différencient selon leur capacité d’apprentissage » => Nécessité de disposer d’une évaluation fiable et fidèle, adaptée à cette population et à cet objectif = élaboration du TAPA (Test d’Apprentissage de la Pensée Analogique) 106 Le TAPA (Test d’Apprentissage de la Pensée Analogique) Objectif ? « distinguer les personnes présentant une bonne capacité d’apprentissage et qui sont susceptibles de profiter d’une intervention cognitive ou d’un enseignement académique poussé, de celles dont la capacité d’apprentissage est limitée » (p.40) 107 Dispositif TAPA ? Le test est composé de matrices analogiques 2 X 2 3 étapes : 1) Phase de préapprentissage = s’assurer de la compréhension de la tâche, apprendre les bases de résolution… 2) Phase d’apprentissage durant laquelle l’examiné reçoit des aides standardisées et hiérarchiques 3) Phase de test : résolution des items de manière indépendante (passation classique d’une épreuve). 108 Indicateurs du TAPA ? = le score obtenu en phase 3 (pas de mesure post test…idem démarche TEDE 6) Les auteurs présentent les résultats de différentes recherches qui montrent que : 1° le TAPA permet de différencier plus précisément les capacités des personnes dont le QI est, sur un test classique, <60. 2° il permet de déceler les personnes dont le potentiel est sous estimé, qui peuvent ensuite, au moins une partie, développer leurs capacités à l’aide de programmes adaptés (les méthodes de remédiation cognitive…) 109 3° la validité prédictive du TAPA ne se limite pas à la capacité d’apprentissage dans le domaine du raisonnement inductif, mais s’étend à d’autres compétences… 4°…cependant si les conditions d’enseignement ne changent pas il y a peu de chances pour que le potentiel se réalise vraiment… 110 HART : utilisation d’une procédure dynamique sur une population non spécifique Hessels & Hessels-Schlatter, (2010) Evaluation et intervention auprès d’élèves en difficulté. Peter Lang Chapitre 4 : test HART Utilisable de l’âge de 5 ans à l’âge adulte. Dispositif d’analogies figuratives (// Raven…) 111 Une phase d’entraînement (durée de 20 à 30 minutes) dans laquelle les personnes apprennent à décrire et à verbaliser les attributs qui changent entre les figures (extraction des règles…) et à analyser les alternatives de réponse (les distracteurs). Discussion en groupe… Une phase de test. « Le HART permet de mieux différencier la capacité d’apprentissage des élèves dont le score à un test d’intelligence traditionnel est faible » (P.63) 112 Exemple 4 : évaluer un P.A par l’analyse des stratégies • voir document SAMUEL 2011 113 114 115 116 117 118 L’analyse des erreurs au subtest matrices du WISC DESTREBECQ Angèle (2012). Mémoire DECOP => Principes Résultats Etude en cours (2013) avec K.Terriot et CIO dans le cadre de l’OPPIO 119 Les items du RCC : exemple d’item Spatial S 120 Les items du RCC : exemple d’item Numérique N 121 Etape 1 : vérifier s’il existe-t-il des différences inter individuelles sur le taux de BRP selon les sujets ? comparer à niveau de performance comparable (même scores) Etape 2 : Calculer un score de Réussite Partielle qui vient compléter le score RCC et qui exprime un « potentiel » de progression…(distance plus faible entre une BRP et la BR) 122 Une recherche en cours • Mémoire DECOP 2012/13 de Bonhoure, Legendre, Grathwohl • Élèves de 5ème, en difficulté scolaire • Méthodologie de type test/retest (sans apprentissage organisé) avec le test RCC 123 • 2 indicateurs du PA : - le score de gain entre test 1 et test 2 (démarche de l’évaluation dynamique) - le score RCC Potentiel au test 1 (l’approche de l’analyse des erreurs) => Ces deux indicateurs expriment-ils une même réalité ??? Analyse des corrélations… 124 A suivre…. Merci de votre attention !!! [email protected] 125
© Copyright 2025 ExpyDoc