Accueil – Visiteurs Forums Évaluation adulte et gériatrie Validité de performances Stratégies pour aborder des résultats non crédibles

  • Véronique Labelle

    Membre
    4 novembre 2015 à 16 h 58 min

    Bonjour!

     

    Pour ceux qui ont eu a rédiger des rapports avec profil non valide dans un cadre clinique, avez vous tendance à indiquer certains résultats aux épreuves d’effort/de validité en les comparant à des groupes qui réussissent généralement bien?

     

    e.g. M. X a obtenu un score extrêmement faible à une épreuve de reconnaissance en choix forcé (65%) ce qui apparait hautement anormal considérant que des personnes présentant une démence obtiennent généralement de bons résultats (90%).

     

    Le faire m’apparait aidant dans ce sens où ça souligne davantage l’écart de performance, mais je me questionne toutefois à savoir si ça dévoile trop d’information sur le test en soi (coaching?) ?

     

    Merci :)

    Amélie Beausoleil

    Membre
    5 novembre 2015 à 13 h 44 min

    Personnellement, j’utilise la même formulation que toi car cela donne un bon indice sur le profil général du patient. Les bénéfices rencontrés ici m’apparaissent supérieurs aux désavantages possibles d’une “fuite” de dévoilement du sens du test.  ;)

    Julie Brosseau

    Membre
    5 novembre 2015 à 14 h 01 min

    Je m’exprime plutôt en termes de résultats ou de performances «atypiques» plutôt que de scores hautement anormaux et je garde toujours en tête qu’il y a peut-être une grande souffrance psychologique à la base. Je ne dévoile pas les scores. 

  • Véronique Labelle

    Membre
    6 novembre 2015 à 16 h 23 min

    Merci les filles pour vos commentaires !

  • Vincent Moreau

    Membre
    10 mai 2016 à 12 h 19 min

    Un article vient de paraître décrivant un modèle pour le feedback dans les cas de résultats non-crédibles (voir ici).

  • Julie Brosseau

    Membre
    9 décembre 2016 à 13 h 51 min

    Dans vos rapports, est-ce que vous incluez les tests de simulation quand vous listez les épreuves qui ont été faites ?

     

    Je suis récemment tombée sur un rapport d’évaluation neuropsy où il était dit que des tests de validation avaient été administrés mais qu’on ne les nommait pas afin d’en protéger l’intégrité (ou quelque chose du genre). 

     

    Ceci m’amène à me demander si nous ne devrions pas faire cela pour l’ensemble des tests que nous administrons. Ceci serait-il acceptable aux yeux de l’OPQ ? 

  • Simon Charbonneau

    Membre
    12 décembre 2016 à 5 h 13 min

    Ma compréhension c’est que l’OPQ nous oblige à inclure la liste des outils (tests/questionnaires) utilisés.

     

    Voir la puce no.8 de la p.11 de https://www.ordrepsy.qc.ca/documents/26707/63191/Guide+explicatif+concernant+la+tenue+de+dossier/a4c0c26b-eb4c-41e8-a139-65e2657ed2bb

     

    Par contre depuis longtemps je n’écris pas le nom spécifique des tests de validité et j’écris plutôt dans la liste de tests p.ex. “15 mots de Rey (v.2), Repérage des cloches, 2 tests de validité (…)”. 

     

    Je fais ça pour protéger la validité des tests de validité (!), préserver leurs valeurs métrologiques et méthodologiques…

    Première partie de l’article 50 de notre code:

     

    50. Le psychologue prend les moyens nécessaires afin de ne pas compromettre la valeur méthodologique et métrologique d’un test et, à cet effet, il ne remet pas le protocole au client ou à un tiers qui n’est pas psychologue.

     

    Je donne ainsi l’information (1) que j’ai fait de tels tests et (2) le nombre de tests de ce type qui ont été administrés. 

     

    Si un autre psychologue me demande les données brutes par écrit avec autorisation écrite du client, il y aura accès, mais là aussi le code protège ces tests qui sont des plus sensibles.

     

    Ma logique c’est que d’inclure le nom de ces tests fait plus de mal que de bien au final pcq en moyenne, le type de client à qui on choisit d’administrer ces tests a plus de chance que la moyenne que lui (ou son avocat-e) aille faire un tour sur Google et tape le nom des tests spécifiques administrés. Il pourrait ainsi potentiellement s’auto-coacher ou se faire coacher pour la prochaine évaluation en présumant qu’il est possible qu’on lui administre le(s) même(s)s test(s) de validité, ou des tests très similaires… ce qui diminue la sensibilité de notre évaluation de la validité via ces outils spécifiques.

     

    C’est donc suite à cette analyse coût-bénéfice que je pratique ainsi, mais si vous avez des informations indiquant que je devrais changer ma pratique, ça m’intéresserait de les avoir  :)

    Julie Brosseau

    Membre
    12 décembre 2016 à 12 h 31 min

    Merci Simon.