Étiquetté : , ,

  • Reliable change index

    Posted by Mathieu Garon on 21 septembre 2020 à 19 h 20 min

    Bonjour aux neuropsychologues bon en math,

    Pour évaluer l’évolution du fonctionnement cognitif (détérioration ou amélioration) et plus précisément pour comparer deux administrations d’une même épreuve, quelle est votre stratégie?

    J’essaie au moins de calculer un “indice de changement fiable” quand j’ai l’information nécessaire, en me disant que c’est toujours mieux que d’y aller au pif. J’utilise la méthode de Jacobson et Truax, mais honêtement c’est surtout parce qu’elle est assez simple. Je sais que Pearson inclue dans le logiciel accompagnateur pour l’ACS un calcul de score de changement basé sur des régressions pour la WAIS-IV et la WMS-IV. Pour ceux qui ont déjà eu ce genre de réflexion, j’aimerais avoir votre opinion.
     

    Mathieu Garon répondu Il y a 2 années, 11 mois 6 Membres · 7 Réponses
  • 7 Réponses
  • Caroline Larocque

    Membre
    21 septembre 2020 à 19 h 59 min

    Personnellement, j’y vais de façon beaucoup plus qualitative. Je considère qu’une personne devrait demeurer dans le même écart à la moyenne, c’est-à-dire que si sa performance était dans la basse moyenne aux praxies visuo-constructives, je m’attends trois ans plus tard, s’il n’y a pas d’évolution, qu’elle se situe au même endroit. Ensuite, sur un tableau résumé de toutes les performances, j’indique si chacune des performances est à la hausse, à la baisse ou égale. Je vais considérer parfois plus d’un indicateur pour un même test, par exemple aux cloches, je vais regarder les omissions, mais aussi le temps et l’approche. Finalement, je comptabilise combien d’indicateur à la hausse, à la baisse, etc. et je regarde la tendance. Si j’ai une majorité d’indicateur qui sont égales aux performances antérieures, avec autant d’indicateurs à la hausse qu’à la baisse, je vais considérer cela comme stable. Par contre, si j’ai autant d’indicateurs à la baisse que stables, je vais considérer cela comme une détérioration. Évidemment, je fais un résumé simple de ma méthode, mais vous comprenez que ma décision est plus globale que cela. Je vais tenir compte de l’ensemble du portrait, je vais regarder à quel niveau se situe la baisse, est-ce cohérent avec ce qui est rapporté, pourrait-il y avoir d’autres facteurs expliquant la baisse actuelle, etc.

  • Claudine Boulet

    Membre
    22 septembre 2020 à 14 h 27 min

    Je crois que j’ai une méthode très similaire à celle de Caroline.

  • Sophie Tessier

    Membre
    23 septembre 2020 à 13 h 17 min

    Généralement j’y vais effectivement de manière plus globale comme Caroline et Claudine. Ça m’est quand même arrivé de faire 2 évaluations rapprochées pour vérifier l’effet d’une médication psychostimulante, alors je devais contrôler pour l’effet d’apprentissage.

    Je m’étais basé sur cet article, et j’avais fait les calculs à la mitaine! Ça demande quand même un peu de recherche pour m’assurer que j’avais les quotients de fidélité et les moyennes+écart-types au temps 1 et 2 pour la plupart des tests.

    Duff, K. (2012) Evidence-Based Indicators of Neuropsychological Change in the Individual Patient: Relevant Concepts and Methods. Archives of Clinical Neuropsychology (27), 248-261.

    Donc en gros, c’est un exercice intéressant à fait et je l’ai fait pour répondre à une demande spécifique,  mais je ne l’incorporerais pas d’emblée dans mes évaluations. Si on m’arrive avec quelques tests qui datent d’un an, j’opterais définitivement pour le tableau de Caroline!

  • Stephan Kennepohl

    Membre
    25 septembre 2020 à 14 h 30 min

    Bonne question Mathieu,

    Je suis d’accord qu’en général, pour la plupart des clients, une approche plus qualitative semble tout à fait convenable.  Mais, dans certains cas, notamment si les évaluations sont très rapprochées, ou s’il s’agit d’un enjeu important (comme la médication, ou une intervention, ou une expertise), il peut être important de pouvoir défendre pourquoi on choisirait (ou non) de dire qu’il y a eu une “vraie” amélioration … 

    La méthode de Jacobson et Truax est utile, mais présume en fait qu’il n’y aura pas d’effet de pratique (c’est basé seulement sur l’indice de fidélité).  Les suggestions de Chelune et de Duff (déjà mentionné), sont également excellentes pour se faire une idée des concepts derrière l’évaluation du changement (en fait, c’est très complexe). 

    Mais, à mon humble avis, une meilleure façon serait d’éviter la théorie et se baser sur des effets de pratique connus et empiriques pour différents tests.  Avec cela, on peut se créer une “régression” pour tenter prédire ce que “devrait” être le deuxième score.  Calamia et collègues (voir plus bas) ont effectué une méta-analyse de plusieurs études neuropsychologiques qui documentent les effets de pratique de tests neuropsy les plus utilisés, en intégrant des données comme l’âge, le type de problématique et la période de temps entre les évaluations.    Ceci permet de se faire une idée générale du score “prédit” sur la base de ces facteurs (et le score initial), mais également des intervalles de confiance (à 90 % ou 95%) pour se faire une idée s’il s’agit “réellement” d’un changement. 

    Pour ceux que cela intéresse, j’ai créé un logiciel dans Excel (vraiment pas user-friendly, mais je pourrais vous le montrer) qui permet de calculer différentes régressions pour les tests dans l’étude de Calamia et al .  Je trouve l’outil intéressant (surtout en expertise).  Mais, je me rends compte que, bien que cela est utile pour se faire une idée, cela ne remplace aucunement le jugement clinique décrite dans la méthode plus “qualitative”, car il demeure toujours beaucoup de variabilité (normale et autre) qui doit être intégrée dans les interprétations. Bref, même un score qui est nettement plus haut ne veut pas toujours dire une amélioration cognitive (par ex., est-ce que le score était “artificiellement” bas la première fois?).  Et, comme toute mesure basée sur des données normatives, le plus on s’éloigne de la normale, le plus difficile est l’interprétation (score bcp moins stables).  Bon, je pourrais en parler longtemps, mais je vais m’arrêter.

    Calamia, M., Markon, K, et Tranel, D. (2012).  Scoring higher the second time around : meta-analyses of practice effects in neuropsychological assessment . The Clinical Neuropsychologist, 2012;26(4):543-70.

    Stephan

     

     

     

     

  • Mathieu Garon

    Membre
    28 septembre 2020 à 18 h 07 min

    Merci beaucoup pour toutes vos réponses, ça me rassure!

    J’ai aussi une approche beaucoup plus “qualitative” en temps normal, très similaire à cette décrite par Caroline. C’est en effet lors des situations où il y a des répercussions légales et médicales où j’aimerais étayer mes conclusions de façon plus quantitative. En passant, j’ai plus souvent des cas où on suspecte un processus dégénératif, je me disais donc que la méthode de Jacobson était un moyen plus conservateur de simplifier la démarche, mais j’avoue que plus souvent qu’autrement c’est un probable effet de pratique qu’on doit considérer.

    Je vais jeter un coup d’oeil à l’étude de Calamia et al. Ça semble beaucoup plus complexe, mais très intéressant pour se faire une tête.

    Mathieu

  • Vincent Moreau

    Membre
    30 septembre 2020 à 14 h 59 min

    Je suis en retard, mais il y avait une présentation Kevin Duff hier (29 septembre) dans le cadre des présentations KnowNeuropsychology Didactic Series (voir: https://knowneuropsych.org/neuropsychology-didactic-series/). Mais elles sont enregistrées et éventuellement disponibles en tout temps. 

  • Mathieu Garon

    Membre
    6 octobre 2020 à 19 h 10 min

    Merci pour l’information Vincent, ce site apparaît être une excellente ressource. Merci de me la faire découvrir!