• Anonyme

    Invité
    29 mai 2014 à 14 h 58 min

    Je viens de lire les informations fournies dans la section Research and Resources. Voici mes commentaires:

    Validité test-retest
    On nous indique que la corrélation test-retest est de .67. Habituellement, un minimum de .7 est suggéré (et .8 étant encore mieux), parce que si on transforme (r =.67) en R2 (r x r) = .4489! En d’autres termes, la performance que vous aurez au temps 1 ne pourra expliquer que 45 % de la variance au temps 2. Plus de 50% de la variation de la performance au temps 2 ne pourra être expliquée par la performance au temps 1! Est-ce qu’on a affaire à un test stable dans le temps? Est-ce qu’on veut utiliser un test aussi instable pour orienter ou pour participer à une conclusion qui va avoir une répercussion à long-terme? De mon côté, je m’abstiendrais.

    Validité discriminante
    L’auteur du test nous indique que dans la plupart des mesures, on obtient une différence entre les groupes TDAH et normaux. Pour un outil qui vise à être utilisé sur une base individuelle, en bureau, les différences de groupe ne nous indiquent aucunement comment est-ce que le test peut être discriminant lorsqu’on l’administre à un seul individu. Et c’est la partie qui importe le plus aux cliniciens. On se contente de nous mentionner que les tailles d’effet (d de Cohen) vont de 0.10 à 0.49). Pour illustrer sur deux courbes normales superposées, je vous invite à aller sur cette superbe page:

    http://rpsychologist.com/d3/cohend/ et à jouer avec le curseur de 0.10 à 0.50. Une image vaut effectivement mille mots.

    Ce n’est donc pas par hasard qu’on s’abstient ici de nous annoncer la validité discriminante du CPT3 en termes de sensibilité et de spécificité; c’est parce que ces valeurs doivent être extrêmement faibles. En fin stratège, on décide de se rabattre sur la validité incrémentielle.

    Validité incrémentielle (plus-value à une procédure existante)

    Je vais m’attarder ici seulement sur le taux de classification pour rendre plus simple. Chez les enfants, le fait d’ajouter le CPT3 à un questionnaire améliore la classification de 83.9% à 88.4%. Chez les adultes, une procédure similaire nous fait passer de 89.1% à 92.7%. Ce sont des gains très marginaux, parce que ça nous dit qu’en bout de ligne ce sont les questionnaires qui ont fait la plus grande partie du travail de classification. Une autre information qui n’est pas indiquée, c’est que le modèle de la régression logistique ne donne sûrement pas le même poids aux deux outils, puisque le CPT3 n’améliore que très peu la classification du questionnaire lorsque pris seul. Donc, dans votre pratique clinique, si vous accordez le même poid au CPT3 et au questionnaire dans votre processus de jugement clinique, vous courez la chance d’être moins efficace que si vous aviez uniquement considéré le questionnaire! Et je ne connais aucun clinicien qui soit capable, cérébralement, d’appliquer un modèle de régression dans la considération des données cliniques (à part certains qui se font des fichiers excel…). De plus, jamais on ne va lire un commentaire du genre provenant des auteurs: “dans votre processus de décision, il serait important d’accorder un poids beaucoup moins grand au CPT (5-15%) qu’au questionnaire, considérant les analyses de validation que nous avons effectuées”. Et on ne parle même pas de ce qu’on doit faire avec les différentes mesures.

    Au final, en raison des données qui sont fournies directement par l’auteur du test, je vais contenir mon enthousiasme et attendre la publication de nouvelles études. Pour une démarche dont le but est de caractériser les processus attentionnels, ça peut être intéressant, mais pour une démarche diagnostique, je m’en tiendrais loin. J’aurais aimé avoir une autre opinion, mais les données viennent de l’auteur lui-même!