Archive

Archive for the ‘Pierre PERRUCHET.’ Category

Pierre PERRUCHET. « Les automatismes cognitifs. »

« Les propriétés des automatismes et leurs modes d’opérationnalisation ».

« Il existe, au moins en apparence, un large accord pour attribuer au traitement automatique deux propriétés principales : l’absence de coût ou de charge mentale, et l’absence de contrôle intentionnel. Une troisième propriété, plus contestée, est celle d’inconscience. D’autres propriétés, toujours perçues comme secondaires, sont évoquées épisodiquement.

  1. A.    L’absence de charge mentale.

Que l’homme dispose, à un instant donné, d’une réserve limitée d’énergie ou de capacité mentale, correspond à une intuition quotidienne. La  première propriété attribuée au traitement automatique de l’information est de laisser cette réserve intacte, en opérant « en parallèle » par rapport aux autres opérations cognitives. La littérature anglo-saxonne est riche de termes difficilement traduisibles tels que « effortless » ou « capacity- free » pour qualifier cette propriété. Opérationnellement, elle correspond à une absence d’interférence mutuelle entre un traitement automatisé et d’autres traitements, automatiques ou attentionnels : le premier ne perturbe pas le déroulement des seconds et réciproquement.

Le parallélisme des opérations automatiques peut être analysé soit au sein d’une tâche unique dans laquelle varie le nombre d’opérations à effectuer simultanément, soit en juxtaposant deux tâches. Compte tenu du caractère artificiel de la notion de tâche, on peut considérer que la distinction a peu d’importance théorique ; elle détermine toutefois deux traditions différentes.

Les travaux s’inscrivant dans la première tradition se fondent d’une part sur les situations permettant d’observer des effets de préactivation sémantique ; initialement mises à profit pour l’étude des automatismes par Posner et Snyder (1975), et d’autre part sur les tâches dites « de recherche » qui renvoient aux travaux séminaux de Schneider et Shiffrin (1977). (…)

Dans les situations de préactivation sémantique (semantic priming), le sujet doit, par exemple, décider le plus rapidement possible si une chaîne de caractères qui lui est présentée constitue un mot ou un « non mot ». S’agissant d’un mot, cette décision est habituellement facilitée – en fait : exécute plus rapidement – par la présentation antérieure d’un autre mot sémantiquement relié. Cette facilitation peut être due, soit à l’attente explicite d’un mot appartenant à la même catégorie sémantique que le mot initial, soit à un processus de préactivation automatique. Les résultats recueillis dans le cas où les deux mots – le mot préactivateur (prime) et le mot « cible » (target) – ne sont pas sémantiquement reliés, permettent d’éclairer ce point. On observe alors un temps de réponse anormalement long, interprété en terme d’inhibition, lorsqu’un processus contrôlé a pu se développer, compte tenu des paramètres, notamment temporels, de la situation : l’attente explicite a un empan limité et ne peut concerner qu’une catégorie d’items à la fois. L’inhibition disparaît, par contre, lorsque l’intervalle entre les deux mots est suffisamment court (inférieur à 200 ou 300 msec.) pour proscrire le développement d’une orientation attentionnelle : la préactivation s’opère alors en parallèle, sans effectuer les autres opérations cognitives.

Dans les tâches « de recherche », le sujet doit détecter si, parmi un ensemble d’éléments (lettres, chiffres ou formes géométriques) présentés visuellement, figure l’un des éléments d’un ensemble présenté quelques temps avant. La réalisation de cette tâche suppose une double opération de recherche, en mémoire, et visuelle, pour tenter d’apparier chacun des éléments de la liste mémorisée des items-cibles à chacun des éléments de la liste présentée. On sait que dans les conditions habituelles le temps requis pour mener à bien ce genre de tâche augmente en fonction du nombre d’items maintenus en mémoire d’une part, et du nombre d’items présentés visuellement d’autre part, comme si le sujet examinait successivement chaque couplage possible. Si l’on porte en abscisse le nombre d’items de l’un des deux ensembles et en ordonnée le temps de réponse, les performances s’inscrivent grossièrement le long d’une droite de pente positive. Au terme d’un entraînement prolongé toutefois, et sous réserve que les ensembles d’items gardent un degré suffisant de cohérence, les performances deviennent indépendantes du nombre d’éléments composant chacune des listes. Les droites de régression prennent alors une valeur de pente nulle,  comme si le sujet était devenu capable de traiter en parallèle l’ensemble des informations pertinentes.

Les situations de double tâche constituent le point d’ancrage d’une seconde tradition de recherche, aujourd’hui très développée. Le sujet doit effectuer simultanément deux tâches différentes. Ces conditions d’exercice induisent habituellement une baisse de performance par rapport à une condition contrôle où chacune de tâches est exécutée isolément. L’absence de détérioration est le signe que l’une et/ou l’autres des tâches est automatisée. La technique a été mise à profit pour remplir différents objectifs, notamment pour mesurer la charge mentale dans les situations de travail. Elle s’est spécifiée en plusieurs variantes. Nous n’envisagerons ici que la principale d’entre elles.

Dans cette variante, le sujet a pour instruction de donner la priorité d’exécution à l’une des deux tâches, appelée la tâche primaire ; c’est celle dont il s’agit d’évaluer le degré d’automaticité. L’autre tâche, secondaire, doit être exécutée avec les capacités de traitement restantes. Le choix de cette seconde tâche repose sur son aptitude à solliciter des ressources en continu, sans être affectée par la répétition. Le sujet doit, par exemple, répondre le plus rapidement possible à des signaux (éventuellement de faible intensité), comparer à rebours de 3 en 3, retenir en mémoire à court terme des mots ou des chiffres, exécuter une tâche de poursuite, ou encore produire un rythme régulier ou une série de nombres au hasard. Le degré d’automatisation de la tâche primaire est évalué par la performance atteinte dans la tâche secondaire. Dans le dernier exemple cité, un détournement d’attention induit la production de séquences systématiques, et des irrégularités dans la fréquence d’occurrence des nombres ; le degré d’automatisation de la tâche primaire sera inversement proportionnel à la distance séparant la production d’un sujet d’une production réellement aléatoire.

L’application de cette stratégie d’investigation, parfois appelée « technique de la tâche subsidiaire », pose des problèmes difficiles (voir sur ce point la discussion de Fisk et al., 1986). Un problème préliminaire, commun à toute manipulation expérimentale, consiste à éviter les effets de plancher ou de plafond ; le risque est ici d’inférer trop vite l’existence d’un automatisme alors que l’absence d’interférence observée est du au fait que l’addition des deux tâches ne suffit pas à saturer les capacités limitées de traitement. Mais il existe des difficultés beaucoup plus fondamentales qui ne sont actuellement qu’en partie résolues. La logique de la procédure suppose que la tâche primaire interfère avec la tâche secondaire en prélevant dans une même réserve une quantité fixe de ressources. Or il apparaît d’une part que l’interférence peut être due à d’autres facteurs que la sollicitation conjointe d’une réserve commune, et d’autre part que la quantité de ressources utilisée par la tâche primaire ne reste pas stable.

Le premier problème peut être illustré par le fait qu’il est difficile d’écrire et de conduire en même temps, quel que soit le degré d’automatisation de chacune de ces activités. Ce genre d’interférence lié à la sollicitation de chacune des mêmes structures sensorielles ou motrices, est appelée « interférence structurale ». De simples considérations triviales permettent d’éviter les cas les plus fragrants, d’interférence structurale. Le problème consiste à savoir jusqu’où étendre cette notion. On observe en effet, comme une règle générale, qu’une tâche primaire donnée n’exerce pas le même effet sur différentes tâches secondaires. Ceci suggère que l’interférence structurale joue, à un certain degré, quelle que soit la combinaison des tâches. Une méthode, hélas coûteuse, pour atténuer les biais d’estimation, consiste à utiliser plusieurs tâches secondaires, choisies comme étant les plus variées possibles, et à calculer une estimation moyenne de l’interférence. Cette proposition, initialement formulée par Kahneman (Kahneman, 1973), ne semble pas avoir reçu beaucoup d’écho. Il est par contre fréquent de recourir à une autre méthode, consistant à introduire des variations dans le niveau de difficulté d’une tâche secondaire donnée. On suppose que l’interférence structurale reste stable, la tâche secondaire impliquant les mêmes structures sensorielles et motrices, quel que soit son degré de complexité. Le degré d’automatisation de la tâche primaire est alors évalué par la façon dont la performance à la tâche primaire réagit, non pas à la simple superposition de la tâche secondaire, mais aux variations de difficultés de celle-ci.

Une seconde difficulté inhérente à la technique de la tâche subsidiaire est relative au fait que les performances à la tâche primaire sont, en règle générale, négativement affectées par la simple présence d’une tâche secondaire. Tout se passe comme si le sujet accordait, en dépit des instructions qui lui sont données, une certaine part de ressources à la tâche secondaire au détriment de la tâche primaire. Cette observation soulève la question de savoir comment obtenir une estimation de l’interférence à partir des performances observées dans la tâche secondaire, sachant qu’une part de l’interférence, évidemment variable selon les tâches et le sujets, s’exerce au niveau de la tâche primaire.

Le problème étant de séparer ce qui relève de l’interférence effective entre les tâches, de ce qui relève du critère adopté par le sujet quant au degré de priorité accorder à l’une ou l’autre d’entre elles, certains auteurs (cf. Norma et Bobrow, 1975) ont proposé de lui appliquer les méthodes développées dans le cadre de la théorie de la détection du signal, qui visent à obtenir une mesure de la discriminalité du stimulus indépendante du critère de réponse adopté par le sujet dans une situation de détection (cf. pour une présentation : Bonnet, 1986, ch. 2). Au lieu de contraindre les sujets à accorder une priorité absolue à la tâche primaire, la consigne stipule alors d’accorder une part d’attention, variable selon les blocs d’essais, à l’une ou l’autre tâche. Les performances peuvent être reportées sur un diagramme où les axes représentent les performances atteintes dans l’une et l’autre tâche. La courbe ainsi obtenue est analogue aux courbes ROC (receiving operating characteristic) de la théorie de la détection du signal, et prend dans ce contexte le nom de courbe POC (performance operating characteristic). Si les observations entre les deux tâches est maximale : toute amélioration des performances dans l’une des tâches se traduit par une décroissance comparable dans l’autre tâche. La distance de la courbe à la diagonale, symbolisée d’, est inversement proportionnelle au degré d’interférence. Cette méthodologie, fréquemment utilisée aujourd’hui, a elle-même des limites. En particulier, elle exige un nombre de mesures important, ce qui, outre le coût de la tâche secondaire, ou d’intégration des deux tâches en une nouvelle unité (Neisser, 1976 ; voir la discussion de Baddeley et al., 1984).

En résumé, le parallélisme du traitement automatique est mis en évidence, soit au sein de tâches particulières dans lesquelles peut être estimé le nombre d’opérations simultanément effectuées (d’après la sélectivité de la préparation dans les paradigmes de préactivation sémantique, ou le nombre d’items simultanément pris en compte dans les tâches de recherche), soit par la juxtaposition de tâches différentes. Cette dernière technique constitue, de par l’étendue de son domaine d’application, un outil d’analyse particulièrement puissant ; il reste qu’estimer la quantité de ressources allouée à une tâche primaire par les performances observées sur une tâche secondaire conduite en parallèle est une opération délicate, qui requiert la mise en œuvre de méthodes particulières.

  1. B.    L’absence de contrôle intentionnel.

On utilise de façon équivalente pour désigner ce second critère, les termes d’obligatoire, non optionnel, non délibéré, ou autonome. Les termes d’irrépressible, non inhibable, ou ballistique, parfois utilisés comme synonymes, sont sans doute malheureux dans la mesure où ils suggèrent qu’une activité ayant pour objet d’arrêter avant son terme un traitement se déroulant à l’insu du sujet est vouée à l’échec. Ceci n’est généralement pas le cas, et nous reviendrons sur ce point en section 3 ; mais la nécessité de déployer une activité inhibitrice pour mettre un terme au déroulement d’un processus témoigne du caractère non délibéré de la mise en action.

Opérationnellement, l’absence de contrôle intentionnel est toujours évaluée dans des situations particulières où une rupture dans les régularités de l’environnement fait que l’occurrence d’un automatisme habituellement adapté intervient comme une perturbation. Il s’agit là d’une nécessité méthodologique évidente, un comportement adapté pouvant toujours être attribué à une stratégie délibérée du sujet. L’absence de contrôle du traitement automatique a été étudiée dans les conditions naturelles au travers de ce que l’on appelle les ratés, les lapsus de l’action, ces données étant généralement collectées par questionnaire (Norman, 1981 ; Reason, 1984). Elle a été également étudiée expérimentalement en introduisant un changement, généralement une inversion, au sein d’une tâche longuement pratiquée. Après surapprentissage d’une discrimination, par exemple, les stimuli renforcés et non renforcés peuvent être inversés. Ou encore, des items ayant toujours servi d’items-cibles dans une tâche de recherche sont introduits comme items-leurres. L’absence de contrôle se manifeste dans ces tâches pour la persistance du comportement antérieurement adapté. Mais l’outil d’investigation privilégié de ce second critère est indiscutablement ce qu’il est convenu d’appeler « l’effet Stroop ».

Chacun connaît l’effet décrit par Stroop en 1935, qui se rapporte à la difficulté de dénommer la couleur d’un mot imprimé dans une couleur différente de celle que le mot désigne (lorsque, par exemple, le mot « bleu » est écrit en rouge). L’effet est habituellement mesuré comme une différence entre les performances observées dans cette situation conflictuelle, et les performances observées quand le stimulus est une simple surface colorée. Le nombre d’erreurs restant très réduit, la variable dépendante est le temps de dénomination, ou le nombre d’items dont la couleur a été dénommée durant un temps donné.

Cette forme prototypique de l’épreuve, où l’interférence s’exerce entre la lecture et la dénomination d’une couleur, est toujours utilisée ; elle a également donné naissance à de multiples variantes, elles aussi désignées comme tâches de Stroop (ou « de type Stoop »). Certaines tâches induisent une interférence entre la lecture et la dénomination de dessins ; la situation peut consister par exemple à dénommer un pied dessiné dans lequel figure le mot « main ». D’autres formes sont plus spécifiques. Ainsi, le sujet peut avoir à situer la position d’un mot par rapport à un point de fixation, ce mot étant incompatible avec la réponse correcte (par exemple, le mot « au-dessus » apparaît sous le point de fixation). Dans ces exemples, et dans ceux qui seront évoqués plus loin, la lecture constitue le traitement automatique interférent. Quelques rares formes de Stroop recourent à d’autres types de traitement. C’est le cas du « test du fruit ». (Cammock et Cairns, 1979), applicable aux jeunes enfants : la tâche consiste à dénommer la couleur de dessins représentant des fruits, la couleur du dessin étant évidemment non conforme à la couleur réelle du fruit qu’il représente (par exemple, une banane est colorée en bleu).

Une littérature considérable s’est développée autour de l’effet Stroop, visant notamment à rechercher si l’interférence s’exerce principalement au niveau de la prise d’information ou au niveau de la réponse. Il n’est pas question d’évoquer ici ces travaux, sur lesquels il n’existe malheureusement aucune revue d’ensemble récente (la dernière revue sur l’effet Stroop est celle de Dyer, 1973). Nous nous limiterons à noter qu rien dans les résultats récents ne permet de remettre en cause une interprétation générale, formulée le plus explicitement par Posner et Snyder (1975), selon laquelle l’interférence signe le caractère obligatoire du traitement de la composante du stimulus qui devrait être ignorée du sujet. Il convient en particulier de souligner que l’interférence ne peut être attribuée à la simple différence de vitesse entre les processus sollicités. On pourrait penser en effet que, dans la forme prototypique du phénomène, l’interférence naîtrait du fait que la lecture d’un nom est plus rapide que la dénomination d’une couleur. Cette différence est certes réelle dans les conditions habituelles (Fraisse, 1969). On observe toutefois que l’effet Stroop demeure virtuellement inaltéré si l’on inverse ce rapport de vitesse par diverses manipulations expérimentales, telles que l’introduction d’une asynchronie dans la présentation des diverses composantes du stimulus (Glaser et Dungelhof, 1984), ou l’allongement artificiel de la durée de la composante automatique du traitement (Dunbar et Mac Leod, 1984). Ces résultats conduisent à penser que l’interférence est directement imputable au développement d’un automatisme, les différences de temps de traitement n’en constituant qu’une conséquence habituelle sans effet causal.

  1. C.    L’inconscience.

Plusieurs auteurs classent l’inconscience à l’égal des deux précédents critères d’automatisme (par exemple : Posner et Snyder, 1975 ; Neumann, 1984). L’inconscience est opérationnalisée par l’incapacité des sujets à verbaliser, ou plus généralement à témoigner intentionnellement par une réponse symbolique, de la nature d’un processus ou d’un événement. Il est des champs entiers de recherches qui recourent presque exclusivement à ce critère (cf. la problématique traitée au ch. IV, intra). Son usage n’est toutefois par universellement accepté. Les réserves exprimées se distribuent en deux catégories : soit elles mettent en doute la possibilité de traiter expérimentalement de l’inconscience, soit elles reconnaissent l’inconscience comme un objet d’étude valide mais rejettent son identité avec la notion d’automatisme. Ces deux aspects seront examinés successivement.

Rares sont aujourd’hui les auteurs qui,  l’exemple de Neisser et al. (1981), rejettent encore a priori toute mesure consciente d’inconscience parce qu’elles reposent sur les rapports introspectifs des sujets. Mais donner crédit à cette source d’information ne résout pas toutes les difficultés.

Considérons à titre d’exemple une situation dans laquelle l’inconscience porte sur la perception d’un stimulus exposé à un niveau infraliminaire. Comment s’assurer que le stimulus présenté n’a fait l’objet d’aucun traitement conscient ? Au moins trois façons d’opérer sont utilisées, isolément ou en combinaison.

On peut d’abord mesurer en début d’expérience un seuil sensoriel individuel, qui servira de référence pour ajuster la durée et l’intensité des stimulus durant la phase expérimentale. Le niveau d’exigence requis est plus élevé aujourd’hui qu’il l’était il y a quelques dizaines d’années ; ainsi la valeur finale sera-t-elle choisie inférieure à la plus faible valeur détectée, et non simplement à la valeur seuil conventionnelle définie. De plus, il s’agit de seuil de détection, et non d’identification : s’agissant de mots par exemple, la durée et l’intensité de leur exposition seront choisies de telle façon que le sujet soit incapable, non seulement d’identifier les mots présentés, mais plus encore de détecter la présence d’un stimulus quelconque. Il reste que ce genre de procédure n’échappe toujours pas complètement à la critique formulée depuis l’origine à l’encontre des phénomènes de perception subliminale, relative à la considérable marge de variation intra-individuelle de la sensibilité sensorielle. Cette critique est renforcée par le fait que la mesure de seuil s’effectue dans des conditions nécessairement différentes des conditions expérimentales proprement dites, ne serait-ce qu’en raison de la succession temporelle des mesures (voir à ce sujet les remarques d’Holender, 1986, pp. 19 sv.).

Une seconde façon d’opérer consiste à fixer les conditions de présentation, et à interroger les sujets en fin d’expérience pour vérifier l’absence de conscience des informations pertinentes, en éliminant éventuellement de l’analyse finale les sujets ne répondant pas à des critères d’inconscience préétablis. La sensibilité des différentes formes d’interrogatoires a fait l’objet de nombreux développements. Aussi fine soit-elle cependant, elle ne concerne que ce dont le sujet se souvient en fin d’expérience. Qu’il ait pu être momentanément conscient de certaines sources d’informations sans en garder le souvenir demeure possible.

La troisième démarche, dans laquelle l’inconscience est vérifiée au moment de la présentation de chaque stimulus, apparaît à bien des égards la plus valide. Mais elle  souffre d’un inconvénient majeur : celui d’être fortement intrusive. L’obligation pour le sujet de traduire en continu son niveau de conscience n’est pas toujours compatible avec les impératifs de la tâche, et risque dans tous les cas d’interférer avec le déroulement normal des événements. Il n’existe pas actuellement semble-t-il de solution totalement satisfaisante. On peut concevoir que là comme dans bien d’autres domaines, le niveau de fiabilité des conclusions dépend du degré de convergence entre des résultats obtenus par des méthodes variées souffrant chacune de limitations différentes.

Une seconde catégorie de réserves visant l’inclusion de l’inconscience parmi les critères d’automatisme, porte sur le fait d’identifier la distinction entre conscience et inconscience à la distinction entre contrôlé et automatique. Schneider et Shiffrin sont sans doute les plus explicités sur ce point. La position de ces auteurs d’explique par les caractéristiques de leur situation expérimentale de prédilection. Rappelons qu’il s’agit de tâches de recherche, et que la transition du contrôle à l’automatisme est supposée correspondre au passage d’un mode sériel à un mode parallèle de traitement. La difficulté n’est pas tant de reconnaître l’inconscience du traitement parallèle que la conscience du traitement sériel. Les sujets sont en effet normalement incapables de prendre conscience des opérations de balayage des listes d’éléments dont leurs performances semblent témoigner. Schneider et Shiffrin ont introduit la notion de processus « voilé à la conscience » pour rendre compte de ce mode de traitement contrôlé, mais la notion n’apparaît pas pleinement satisfaisante (Ryan, 1983). »

(In : Pierre PERRUCHET. « Les automatismes cognitifs ». Editions Pierre Mardaga, Bruxelles, pages : 28 – 35).

Catégories :Pierre PERRUCHET.