Étiquetté : ,

  • Les limites des tests de validité

    Posted by Simon Charbonneau on 20 octobre 2013 à 15 h 07 min

    Je viens de tomber sur cet abstract de 2007 qui souligne les limites des tests de validité chez les patients qui présentent réellement des déficits cognitifs significatifs.

    http://www.ncbi.nlm.nih.gov/pubmed/17454351

    Je tenais à le partager car c’est un domaine très complexe dans lequel les risques de préjudice sont très élevés, et pour lequel je n’ai eu aucune formation à l’université. De plus, en lisant certains articles, livres et même certains manuels de tests de validité, on pourrait en arriver à croire que tout le monde a une performance optimale ou quasi-optimale à ces tests, peu importe s’ils ont des déficits cognitifs réels ou pas. 

    Comme d’habitude, ce n’est malheureusement pas si simple. Il semble que des déficits mnésiques, exécutifs ou attentionnels importants peuvent influencer les résultats. Certains patrons de résultats demeurent plus faciles à interpréter (ex: 30% au TOMM ou aux 48 images…), mais il faut faire une démarche sérieuse d’analyse intra- et inter-test de validité, intra- et inter-tests neuropsychologiques, comparer le tout avec les données de l’anamnèse, les antécédents médicaux, l’entrevue, le comportement en testing, etc. On ne peut pas simplement se fier à un seuil (“cut-off”) unique et universel.

    Autre limite: les corrélations entre les différents tests de validité utilisés ici sont décrites comme “relatively low”…

    Dans cet autre abstract (http://www.ncbi.nlm.nih.gov/pubmed/18838010), on analyse l’effet de différents niveaux de “coaching” sur la capacité des tests de validité à détecter la simulation. 

    Maintenant, ça m’amène à vous poser 3  questions:

    1) Quels tests de validité utilisez-vous et pourquoi ?

    2) Avez-vous déjà eu l’impression qu’un de vos clients avait été “coaché” ? 

    3) Dans ma pratique clinique, je n’administre des tests de validité que lorsque j’ai un doute sur la validité, alors qu’en expertise, j’en administre au moins 2 à tous mes clients. Est-ce aussi votre pratique ?

    Stephan Kennepohl répondu Il y a 10 années 5 Membres · 6 Réponses
  • 6 Réponses
  • Vincent Moreau

    Membre
    23 octobre 2013 à 14 h 05 min

    1) J’utilise essentiellement le TOMM, car il m’apparaît bien validé, mais surtout parce que j’y ai été davantage exposé, ainsi que les choix forcés du CVLT-2, car c’est rapide. Je vais aussi regarder le Reliable Digit Span (http://acn.oxfordjournals.org/content/early/2012/01/23/arclin.acr117.abstract). Il y a également les échelles cliniques (FBS du MMPI-2 et échelles de validité du PAI).

    2) Je ne pratique pas encore d’expertise, alors je n’ai jamais été confronté à cette situation. J’ai quand même l’impression que ça doit être plus rare au Québec, étant donné qu’il y a moins de poursuites en dommage personnels en raison du système de No fault vs les endroits où la Tort law est en vigueur (petite anecdote: quand j’étais en internat en réadaptation en Ontario, l’équipe traitante s’assurait que chaque usager, à sa sortie du programme, bénéficie des services d’un coordinateur clinique et … d’un avocat).

    3) Pareil; je vais administrer le TOMM lorsque j’ai un doute. Ça dépend vraiment des contextes. Quoiqu’en internat, le TOMM était systématiquement administré à tous les usagers évalués en externe.

  • Anonyme

    Invité
    23 octobre 2013 à 15 h 41 min

    Merci pour les références Simon et Vincent! Effectivement ça nous démontre qu’encore une fois, c’est beaucoup plus complexe qu’on peut le croire à prime abord. Alors que l’apellation ‘test de validité’ nous laisse croire qu’on va pouvoir décider si les symptômes sont valides ou non, je préfère le terme ‘mesures d’efforts’, qui laisse place à la possibilité qu’on soit devant quelqu’un qui a de réels symptômes, mais qui, pour de multiples raisons, a amplifié certaines difficultés ou n’a pas donné son maximum d’efforts en cours d’évaluation. Encore là, comment départager quelqu’un qui a amplifié ses symptômes dans une certaine mesure mais qui mérite quand même une certaine compensation, de quelqu’un qui n’a aucune séquelle réelle. Dans les quelques jugements que je me suis amusé à lire (quel passe-temps palpitant!), les décisions sont plus souvent tranchées que subtiles disons.

    1) Moi aussi le TOMM, parce que je peux mettre la main dessus au boulot et aussi parce qu’il est bien documenté. Je n’ai pas l’habitude de pencher pour des tests plus récents quand je sais que je vais avoir beaucoup plus de documentation pour un test un peu plus ancien. Moi aussi j’avais lu sur le reliable digit span, mais c’était pour le WAIS-III http://www.ncbi.nlm.nih.gov/pubmed/12216787. Je suis content de voir que je vais pouvoir utiliser une version avec le WAIS-IV.

    2) Je n’ai pas encore l’expérience des expertises, mais pour contourner ce problème-là j’aurais tendance à utiliser différentes mesures d’efforts qui sont de nature très différente, question d’être capable de cerner les plus ratoureux.

    3) Moi aussi, en clinique, j’y vais seulement quand j’ai un doûte au moment de l’entrevue d’anamnèse. Peut-être qu’on devrait être plus systématique?

    J’en profite pour partager un site web avec ceux et celles qui veulent se documenter sur les mesures d’efforts ou de validitié:

    http://www.kspope.com/assess/malinger.php
    http://kspope.com/assess/malinger-2.php
    http://kspope.com/assess/malinger-3.php 

    Autre commentaire: je m’étais posé la question dernièrement si une mesure d’effort dans un domaine cognitif particulier (ex. mémoire) se généralisait dans les autres domaines. Je me disais que vraisemblablement, quelqu’un pourrait décider qu’il ou elle a de très gros problèmes de mémoire, mais afficher un niveau de concentration satisfaisant. Dans cette étude http://www.ncbi.nlm.nih.gov/pubmed/15708729, une faible performance au TOMM chez les TCC légers prédisait une performance plus faible au WAIS-R et à la batterie de Halstead-Reitan.

  • Stephan Kennepohl

    Membre
    4 novembre 2013 à 18 h 01 min

    Bonjour,

     

    Ce sujet est tellement vaste, et il est parfois difficile de savoir par où commencer… 

     

    mais quelques pensées rapides

    1) De plus en plus, les neuropsy anglophones parlent de “performance validity tests”, à savoir que ce sont les performances et non les symptômes qui sont en cause. il s’agit donc d’identifier des pistes que “l’hierarchie” typique et nécessaire pour l’interprétation soit respectée.  Si quelqu’un échoue un test très facile, mais échoue une tâche plus complexe, cela devient moins cohérent (c’est comme si qq réussit à courir, mais se plaignait de ne pas pouvoir marcher…).  Et cela peut également se traduire dans plus qu’un domaine cognitif…

     

    2) D’autre part, la notion de quels tests me semble importante que du pourquoi on le utilise.  D’autre part, plusieurs auteurs (je crois Kyle Boone, entre autres, mais je n’ai pas la référence devant moi), recommandent l’utilisation de plusieurs méthodes/tests pour identifier les profils non valides.  Il n’est pas si rare que ça qu’un test (par ex. TOMM) soit échoué, mais quand on parle de 2 -3 épreuves, les probabilités diminuent considérablement …. de là l’importance, selon moi, de regarder aux tests spécifiquement conçus (et plus qu’un, du moins en expertise) ET les “embeded” (reliable digit span, CVLT-II, mais également des indices de cohérence comme reconnaissance << rappel libre).

     

    3) J’utilise très rarement le terme simulation, car il demeure impossible de lire les intentions de nos clients.  et ce n’est jamais un score sur un test qui va nous le dire. Seule exception si le score est nettement moins de 50%  à un test de choix forcé.  Dans ce cas-là. ce n’est même un test d’effort, la personne fait un effort, mais dans les sens contraire.  Sinon, en se limitant aux tests, ce sont les scores qui ne sont pas fiables, pas nécessairement le client.  Dans un 2e temps, si nécessaire, et SI cela fait partie du mandat, on peut émettre des hypothèses quant aux raisons pour lesquelles un profil est plus ou moins valide, incluant l’exaggération/simulation …

     

     

    Bonne journée

     

    Stephan

  • Claude Paquette

    Membre
    7 novembre 2013 à 4 h 17 min

    Loin d’être rare au Québec! Ici, comme aux USA et en Europe, le taux d’exagération / simulation en contexte d’indemnisation (SAAQ, CSST, assurance invalidité) est de 40%, et plus encore s’il y a litige. C’est un problème majeur. Il faut utiliser plusieurs tests de validation (il en existe maintenant plus d’une douzaine très bien faits), le meilleur étant le WMT car très spécifique à la simulation de troubles cognitifs. Le TOMM manque de sensibilité. Il y a aussi un modèle analytique qui permet d’établir le niveau de probabilité qu’une personne simule: les critères de Slick et al. Ces dernières années ont vu apparaître d’excellents livres sur le sujet (ex: Dominic Carone sur TCC léger et simulation(2012); Kyle Boone sur l’expertise en neuropsy (2013), et autres) et même un symposium international aux deux ans sur le thème Symptom Validity Assesment.

    Je donne un atelier sur les problèmes de simulation et leur évaluation dans le cadre du programme de médecine d’assurances et d’expertise. Je serais ravie de faire une présentation dans le cadre d’un 5 à 7.

  • Simon Lemay

    Membre
    7 novembre 2013 à 14 h 06 min

    @/index.php?/profile/277-claudepaquette/” data-ipsHover-target=”https://aqnp.ca/forum/index.php?/profile/277-claudepaquette/&do=hovercard” data-mentionid=”277″ rel=””>@claude.paquette Je vais vérifier avec le comité formation continue pour voir si le comité avait déjà qq1 en tête, mais voudrais-tu présenter au prochain 5 à 7 prévu pour le 9 janvier? Sinon il y en aura probablement un autre qq part au printemps 2014. Pour communiquer directement avec eux: formation@aqnp.ca

  • Stephan Kennepohl

    Membre
    13 novembre 2013 à 16 h 11 min

    Bonjour Claude,

     

    Bonne intervention – mais, je suis curieux, d’où viennent les données concernant le 40% de données non-valides au Québec…  Ceci ne correspond pas tout à fait à ma réalité – il est vrai que je fais relativement peu d’évaluations pour la cour.  Et oui, j’utilise plusieurs différents tests pour évaluer la validité des résultats

     

    Stephan