Statistiques appliquées aux études de cas unique : méthodes usuelles et alternatives
Type de matériel :
51
RésuméLe traitement statistique des données issues d’études neuropsychologiques de cas unique est un aspect fondamental dans le processus de validation de modèles de la cognition humaine. Pour déterminer si un individu présente des performances anormales au regard de celles présentées par un groupe témoin, ou pour détecter la présence de dissociations dans ses performances, toujours au regard de celles présentées par un groupe témoin, on utilise très largement des scores standardisés en considérant les statistiques d’échantillon comme des paramètres populationnels. Lorsque la taille de l’effectif du groupe témoin est faible (n < 15) cela conduit à augmenter la probabilité de commettre une erreur de type I. Augmentation qui sera d’autant plus importante si un faible n est associé à d’autres caractéristiques, comme par exemple une distribution asymétrique des performances du groupe témoin. Nous présentons dans cet article une recension non exhaustive de différentes solutions, relativement récentes, permettant de minimiser la probabilité de commettre une erreur de type I tout en préservant une puissance statistique acceptable.
Statistics applied to single case studies: classical and alternative methodsThe statistical treatment of the data stemming from single-case studies in neuropsychology is a fundamental aspect in the validation process of human cognition models. Generally speaking the aim of single-case studies is twofold: addressing the question of whether or not a patient exhibit a (statistically significant) deficit on one hand and comparing the difference between a patient’s performances on two or more tasks — i.e. establishing dissociations of cognitive functions — on the other hand. One of the three basic approaches to answer these two questions is to compare the patient with a matched control sample. The statistical analysis widely used consists in converting the patient’s performance to a z score based on the mean and the standard deviation of the control sample. Then this z is referred to a table of areas under the normal curve. The crucial problem with this approach is that it considers the control sample as though it was a population and then treats their statistics as parameters. When the size of the control sample is reasonably large (n > 50) the parameters of the population and the estimates of these parameters converge. But when the sample size is modest (n < 15) using z score lead to an inflation of the Type one error rate and then an overestimation of the abnormality of a patient’s score. The increase of the Type one error rate is all the more large that a modest n is associated with other characteristics like a departure from normality of the scores of the control sample. The aim of this article is to set out a review of the main relatively recent different statistical methods developed to minimize the Type one error rate. We will see that a set of method proposed by Crawford and colleagues allow a good control of Type one error rate while keeping a satisfactory statistical power.
Réseaux sociaux