PMC

Méthode

Pour manipuler le processus de compression dans notre tâche d’empan, nous avons limité l’information relationnelle dans un ensemble de stimuli visuels de base (tels que des formes colorées), en utilisant des couleurs et des formes simples. Plus précisément, nous avons utilisé des listes de stimuli visuels tridimensionnels artificiels, catégorisables, avec des caractéristiques discrètes booléennes ou à deux valeurs pour les formes, les tailles et les couleurs présentées dans la figure 1.1. Pour un ensemble tridimensionnel donné, nous avons sélectionné des ensembles avec des stimuli ayant l’information relationnelle la plus faible, une manipulation qui était supposée empêcher le chunking. Illustrons avec l’ensemble tridimensionnel d’objets : . Un sous-ensemble compressible de quatre objets serait : , car la dimension couleur est suffisamment diagnostique pour discriminer les objets noirs des objets blancs. Une liste de stimuli basée sur ce sous-ensemble offre la possibilité de ré-encoder la séquence en utilisant la règle simple ‘noir’. La séquence , dans laquelle l’ordre est important, peut être décrite par une règle simple utilisant la caractéristique ‘noir’ (pour recoder l’ensemble du sous-ensemble, indépendamment de l’ordre) et l’ordre ‘carré-triangle’ qui peut être combiné avec une description ‘grande d’abord’ dans chaque forme. En revanche, un sous-ensemble d’objets moins compressible serait : . L’hétérogénéité de ces quatre objets qui rend la structure catégorielle complexe peut être mesurée par la difficulté à comprimer l’information, ce qui rend compte de la difficulté à recoder les stimuli dans une représentation plus compacte (Feldman, 2000). En d’autres termes, il n’existe pas de règle simple et hiérarchique qui explique la séquence des formes/couleurs de ce sous-ensemble. Les ensembles de catégories plus homogènes produisent une charge d’information plus faible et, en tant que tels, ils sont plus compressibles et peuvent être facilement réencodés (ou  » chunked « ) pour faciliter le rappel (Chekaf et al., 2016). Pour résumer, la figure Figure11 (en bas) montre deux différences entre les listes chunkables et non chunkables. (1) Les listes chunkables peuvent être décrites avec moins de nombre total de caractéristiques, ET (2) les listes chunkables sont disposées dans un ordre sériel qui permet de découvrir facilement la compressibilité (Mathy & Feldman, 2009).

(Haut) Un échantillon de stimuli basés sur huit formes, huit couleurs et deux types de tailles. (En bas) Tableau montrant un échantillon d’essais. Les essais sont indexés en utilisant ‘nc’ et ‘c’ pour se référer facilement à la condition respective non chunkable et chunkable dans le texte. La première moitié du tableau montre les séquences de la condition non-chunkable. La deuxième moitié du tableau montre les séquences de la condition chunkable. Pour chaque longueur de séquence, nous avons choisi de ne représenter que deux essais. Les valeurs des dimensions ont été choisies aléatoirement pour chaque essai. Par exemple, la structure de catégorie donnée (i.e., carré, petit premier, blanc-noir dans les tailles) pourrait être convertie soit en (i.e., blanc, petit premier, triangle-carré dans les tailles), soit en (i.e., grand, noir premier, carré-triangle dans les couleurs), etc. L’exemple précédent n’implique que les valeurs de dimension carré, triangle blanc et noir, mais encore une fois, les valeurs de dimension ont en fait été choisies aléatoirement parmi les 8 formes et les 8 couleurs présentées dans le panneau supérieur, et en utilisant deux tailles aléatoirement.

Par la suite, nous appelons les séquences homogènes compressibles simples « chunkables » et les séquences complexes « non-chunkables » (ou « moins-chunkables » quand c’est plus pratique). La raison pour laquelle nous procédons ainsi est que nous supposons que (1) la capacité est approximativement de 3 ou 4 chunks et que (2) les augmentations de performance pour des listes plus compressibles ne résultent pas d’un changement dans la capacité des chunks (voir Cowan, Rouder, Blume, & Saults, 2012) mais d’une augmentation effective de la taille des chunks. Même si la performance résulte parfois d’associations graduelles entre les éléments plutôt que de chunks discrets, le vocabulaire des chunks exprime commodément le montant de l’augmentation de la performance avec des listes plus compressibles. En conséquence, quatre conditions ont été construites : une tâche d’empan simple utilisant du matériel chunkable, une tâche d’empan complexe utilisant du matériel chunkable, une tâche d’empan simple utilisant du matériel non chunkable, et une tâche d’empan complexe utilisant du matériel non chunkable.

Nous avons prédit que la tâche d’empan simple ne pouvait avoir un effet bénéfique sur le rappel que lorsqu’une partie de l’information pouvait être ré-encodée, alors qu’un tel bénéfice ne pouvait se produire lorsqu’aucune information (ou peu d’information) ne pouvait être ré-encodée. À l’inverse, une tâche d’empan complexe n’offre pas la possibilité de recoder les motifs réguliers dans la condition  » chunkable « , car l’attention est détournée pendant la tâche de traitement entrelacée. Par conséquent, nous avons prédit une interaction entre la tâche et la compressibilité, en soutenant uniquement un empan plus élevé pour la tâche d’empan simple dans la condition de fragmentation. Pour tester l’importance de l’interaction, nous avons prévu d’effectuer une analyse bayésienne afin de comparer la quantité de matériel fragmenté dans les quatre conditions, en utilisant notamment un score de fragmentation reflétant la quantité de matériel fragmenté dans la tâche d’empan simple et la tâche d’empan complexe. Une forte interaction devrait être soutenue par un score de chunking plus petit pour la tâche complexe.

Participants. Quatre-vingt-quatorze étudiants (M = 23 ans, sd = 5,3) inscrits à l’Université Côte d’Azur se sont portés volontaires pour participer à l’expérience. L’estimation de la taille de l’échantillon a été calculée sur la base de la différence observée dans notre étude précédente pour la proportion correcte entre la condition la plus chunkable et la condition la moins chunkable. Nous avons obtenu 75 < N < 105, en fonction de η variant entre .40 et .55, .55 étant la valeur obtenue dans notre étude précédente, pour une puissance de .80.

Stimuli. Nos stimuli variaient selon trois dimensions booléennes à deux valeurs (forme, taille et couleur, les trois dimensions généralement utilisées par les chercheurs en apprentissage par catégorie pour construire des ensembles de stimuli canoniques ; Love & Markman, 2003). Nous avons utilisé seulement deux valeurs par dimension dans chaque essai (Figure (Figure1,1, bas). Pour chaque essai, une combinaison aléatoire de deux formes (parmi huit différentes), deux couleurs (parmi huit différentes) et deux tailles constituait un ensemble de huit objets possibles. Nous avons limité la dimension de la taille à deux valeurs différentes (grande et petite, c’est-à-dire 280 × 280 pixels et 140 × 140 pixels) pour toutes les listes, car les participants avaient du mal à identifier les valeurs intermédiaires lors de nos pré-tests. L’utilisation de huit formes, huit couleurs et deux tailles était suffisante pour générer 1568 ensembles possibles de huit objets, ce qui a limité l’interférence proactive entre les essais (une combinaison échantillonnée de caractéristiques est donnée dans la Figure Figure1,1, en haut).

Le participant ne savait pas à l’avance laquelle des dimensions serait la plus pertinente pour le processus de catégorisation. Les valeurs des dimensions ont été choisies de manière aléatoire pour chacune des listes présentées, de façon à varier les combinaisons possibles de dimensions (formes, tailles et couleurs) d’une liste à l’autre, tout en préservant la même structure de catégorie (indiquée dans la Figure Figure1).1). La probabilité qu’un participant rencontre deux ensembles de caractéristiques identiques entre deux listes pendant l’expérience a été supposée très faible.

Procédure. L’expérience était un plan intra-sujet 2 × 2. Chaque participant a essayé les quatre blocs (tâche d’empan simple chunkable, tâche d’empan simple non chunkable, tâche d’empan complexe chunkable, tâche d’empan complexe non chunkable), dont l’ordre était contrebalancé entre les participants (soit 24 ordres possibles ; 96 participants étaient nécessaires pour équilibrer parfaitement le plan). Chaque bloc comprenait plusieurs listes de stimuli et le rappel avait lieu après chaque liste. Les participants étaient informés qu’ils devaient mémoriser, dans l’ordre correct, chaque liste de stimuli. Une liste de stimuli (par exemple, un petit carré bleu et un grand carré bleu) était choisie à partir d’une combinaison aléatoire de deux formes (par exemple, tous les stimuli résultant de la combinaison des objets petit vs grand, bleu vs rouge, et carré vs cercle). Les stimuli d’une séquence donnée étaient affichés en série au centre de l’écran pendant une seconde chacun (par exemple, pour une liste de deux stimuli, un petit carré bleu suivi d’un grand carré bleu). La difficulté de chaque séquence a été estimée selon la métrique de compressibilité décrite par Chekaf et al. (2016) et basée sur Feldman (2000). Cette métrique fait simplement appel à des formules normales disjonctives (une liste disjonctive de conjonction de caractéristiques) pour calculer le nombre minimal de caractéristiques qui réduisent les listes d’objets non compressées (qui énumèrent textuellement toutes les caractéristiques des objets constitutifs au sein des listes).

Après la présentation de la liste d’objets, l’écran de réponse montrait l’ensemble des huit objets à partir desquels le sous-ensemble avait été sélectionné. L’écran de réponse montrait dans des positions déterminées aléatoirement huit choix de réponse : les k stimuli à rappeler et les 8 – k objets distracteurs restants. Les participants devaient se souvenir de la liste des objets et reconstituer leur ordre. Le participant effectuait des sélections en cliquant sur les objets pour rappeler les éléments dans l’ordre correct. Cette procédure de rappel est similaire à celle de la tâche de rapport en série en mémoire visuelle à court terme (Avons & Mason, 1999 ; Smyth, Hay, Hitch, & Horton, 2005). Les stimuli étaient soulignés par une barre blanche lorsque l’utilisateur cliquait dessus. Il n’y avait pas de contrainte de temps pour le rappel. Le participant pouvait passer à la séquence suivante en appuyant sur la barre d’espace.

Les 8 – k objets distracteurs restants dans l’écran de test nous ont permis de calculer correctement la compressibilité. Par exemple, pour l’essai #14nc montré dans la Figure Figure1,1, l’écran de rappel comprenait un grand triangle vert, un petit triangle violet, un petit cercle vert et un grand cercle violet comme nouveaux éléments, en plus des quatre stimuli (grand triangle violet, petit triangle vert, un petit cercle violet et un grand cercle vert). L’essai n° 14c illustré à la figure 11 comprenait les quatre objets rouges en plus des quatre stimuli bleus. La compressibilité des mémoires était donc intentionnellement corrélée aux exigences de récupération des essais. En suivant l’exemple précédent, les nouveaux éléments de l’essai #14nc sont logiquement plus interférents avec les mémoires parce que les caractéristiques des leurres chevauchent celles des stimuli à rappeler. Inversement, les leurres rouges pourraient être moins confondus avec les objets bleus du stimulus #14c. Puisque « bleu » est une description simple des mémoires, la catégorie opposée est nécessairement aussi simple (c’est-à-dire « rouge »). Le fait que chaque description et son complément aient la même complexité est généralement appelé parité.

Les listes étaient affichées en utilisant une présentation ascendante de la longueur (la longueur variait progressivement de 1 à 8 éléments), comme dans les étendues de chiffres utilisées dans les tests neuropsychologiques. La longueur d’essai 1 n’a été utilisée qu’à titre d’échauffement. Par exemple, notre expérience a utilisé le même nombre de répétitions par longueur que l’échelle de chiffres du WISC ou du WAIS. Un bloc s’arrêtait automatiquement après quatre erreurs dans une longueur de liste donnée (une erreur était simplement l’incapacité du participant à se rappeler la séquence entièrement dans un ordre parfait). Les participants ont eu droit à quatre essais par longueur L. Ils ont également été informés que les trois premiers essais de chaque bloc seraient traités comme des essais d’entraînement et seraient ensuite écartés de l’analyse. Après cet échauffement, il y avait quatre essais par longueur de liste dans chaque condition.

Lorsque la tâche était une tâche d’empan simple, il y avait un intervalle inter-item de 500ms. Lorsque la tâche était une tâche d’empan complexe, nous avons utilisé la procédure de la tâche d’empan d’opération (OS). Dans cette tâche, les participants doivent effectuer des opérations mathématiques entre les éléments de mémoire (voir Conway et al., 2005 ; Kane et al., 2004). Une équation était affichée à l’écran (par exemple, « 7 + 2 = 10 ») avant la présentation de chaque élément à mémoriser (les équations étaient lues à voix basse). Le participant avait trois secondes pour juger de l’équation en cliquant sur un bouton (vrai ou faux), avant que l’élément suivant ne soit affiché. L’équation disparaissait après que le participant ait donné une réponse, juste avant que l’élément suivant ne soit affiché. On pensait que cette tâche de traitement intercalé empêchait les participants de chunker librement.

Pour l’empan simple non chunkerisable, pour une longueur de liste donnée, les listes les plus incompressibles alternaient avec des listes moins incompressibles ; sinon, les chunks auraient présenté trop de similarité à travers l’expérience. Par exemple, dans la figure 1,1, l’essai 10nc montre l’ensemble de trois objets le plus incompressible, avec une première différence de 2 caractéristiques (taille et couleur, entre le petit carré blanc et le grand carré noir) suivie d’une deuxième différence de 2 caractéristiques (taille et forme, entre le grand carré noir et le petit triangle noir), tandis que l’essai 9nc montre un ensemble de 3 objets moins incompressible, ordonné en utilisant une différence de 3 caractéristiques suivie d’une différence de 2 caractéristiques pour rendre le processus de découpage plus difficile. La distance inter-éléments (le nombre additionné de différences entre les caractéristiques des objets) est pratique pour décrire les relations entre les caractéristiques, mais Feldman (2000, 2003) décrit plus précisément comment les caractéristiques peuvent être redécrites pour comprimer la somme des informations dans chaque ensemble d’objets (le processus de compression n’est pas toujours lié à la distance inter-éléments). Par exemple, « petit carré blanc, petit carré noir » peut être réduit à deux caractéristiques (« petit carré »), alors que « petit carré blanc, grand triangle noir » ne peut être réduit à moins de six caractéristiques. Ici, par exemple, la description globale des trois objets dans l’essai #9nc nécessite une expression logique minimale de 5 caractéristiques, au lieu de 8 caractéristiques pour #10nc ; voir (Feldman, 2003). Cette mesure de compressibilité ne sert ici qu’à prédire la fragmentabilité d’un ensemble de catégories (l’ordre exact tel que ‘premier blanc’ nécessite toujours un élément d’information supplémentaire dans le contexte expérimental). Globalement, toutes les structures de catégories d’une longueur donnée ont été choisies pour être moins compressibles dans la condition non chunkable que dans la condition chunkable.

Scoring. Pour calculer une estimation de l’empan dans chaque condition, une valeur de 0,25 a été notée pour chaque rapport sériel parfaitement correct de tous les éléments de mémoire dans un essai.2 Par exemple, un participant se rappelant seulement 3 des 4 séquences d’un objet se verrait accorder un empan de 0,75, s’il échouait totalement pour les séquences plus longues. Lorsqu’un sujet a obtenu 4, 4 et 3 essais corrects aux longueurs 1, 2 et 3 respectivement, l’étendue est égale à (4 + 4 + 3)/4 = 2,75. Lorsqu’un sujet a obtenu 4, 3 et 2 essais corrects aux longueurs 1, 2 et 3 respectivement, alors l’intervalle est égal à (4 + 3 + 2)/4 = 2,25.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.