PMC

Metoda

Aby manipulować procesem kompresji w naszym zadaniu rozpiętości, ograniczyliśmy informację relacyjną w zestawie podstawowych bodźców wizualnych (takich jak kolorowe kształty), używając prostych kolorów i prostych kształtów. Dokładniej, użyliśmy list wizualnych, kategoryzowalnych, sztucznych bodźców trójwymiarowych, z dwuwartościowymi/Booleańskimi dyskretnymi cechami dla kształtów, rozmiarów i kolorów pokazanych na Rysunku 1.1. Dla danego zestawu trójwymiarowego wybieraliśmy zestawy z bodźcami o najniższej informacji relacyjnej, co w założeniu miało zapobiegać chunkingowi. Zilustrujmy to na przykładzie trójwymiarowego zbioru obiektów: . Ściśliwy podzbiór czterech obiektów to: , ponieważ wymiar koloru jest wystarczająco diagnostyczny, aby odróżnić czarne obiekty od białych. Lista bodźców oparta na tym podzbiorze daje możliwość ponownego zakodowania sekwencji za pomocą prostej reguły „czarny”. Sekwencja , w której kolejność ma znaczenie, może być opisana przez prostą regułę wykorzystującą cechę 'czarny’ (do przekodowania całego podzbioru, niezależnie od kolejności) oraz kolejność 'kwadrat-trójkąt’, która może być połączona z opisem 'duży-pierwszy’ w obrębie każdego kształtu. Dla kontrastu, mniej ściśliwy podzbiór obiektów byłby: . Niejednorodność tych czterech obiektów, która sprawia, że struktura kategorii jest złożona, może być mierzona trudnością kompresji informacji, co odpowiada trudności w przekodowaniu bodźców do bardziej zwartej reprezentacji (Feldman, 2000). Innymi słowy, nie istnieje prosta, hierarchiczna reguła, która wyjaśniałaby sekwencję kształtów/kolorów w tym podzbiorze. Bardziej jednorodne zestawy kategorii generują mniejszy ładunek informacji i jako takie są bardziej ściśliwe i mogą być łatwo przekodowane (lub „podzielone”) w celu ułatwienia przypomnienia (Chekaf i in., 2016). Podsumowując, rysunek 11 (na dole) pokazuje dwie różnice między chunkable i non-chunkable. (1) listy chunkable mogą być opisane przy użyciu mniejszej całkowitej liczby cech, ORAZ (2) listy chunkable są ułożone w porządku szeregowym, który pozwala na łatwe odkrycie ściśliwości (Mathy & Feldman, 2009).

(Góra) Próbka bodźców opartych na ośmiu kształtach, ośmiu kolorach i dwóch rodzajach rozmiarów. (Dół) Tabela przedstawiająca próbkę prób. Próby są indeksowane za pomocą 'nc’ i 'c’, aby w tekście łatwiej było odnieść się do odpowiedniego warunku nie-chunkable i chunkable. Pierwsza połowa tabeli pokazuje sekwencje dla warunku nonchunkable. Druga połowa tabeli pokazuje sekwencje warunku chunkable. Dla każdej długości sekwencji wybraliśmy do reprezentacji tylko dwie próby. Wartości wymiarów zostały wybrane losowo dla każdej z prób. Na przykład, dana struktura kategorii (tj. kwadrat, najpierw mały, biało-czarny w obrębie rozmiarów) może być zamieniona na (tj. biały, najpierw mały, trójkąt-kwadrat w obrębie rozmiarów), lub (tj. duży, najpierw czarny, kwadrat-trójkąt w obrębie kolorów), itd. W poprzednim przykładzie tylko wartości wymiarów kwadrat, trójkąt biały i czarny, ale znowu, wartości wymiarów zostały faktycznie losowo wybrane wśród 8 kształtów i 8 kolorów pokazanych w górnym panelu, i przy użyciu dwóch rozmiarów losowo.

Poniżej nazywamy proste ściśliwe jednorodne sekwencje „chunkable” i złożone sekwencje „non-chunkable” (lub „less-chunkable”, gdy jest to wygodniejsze). Powodem, dla którego to robimy, jest to, że zakładamy, że (1) pojemność jest w przybliżeniu 3 lub 4 chunks i (2) wzrost wydajności dla bardziej ściśliwych list nie wynika ze zmiany pojemności chunk (patrz Cowan, Rouder, Blume, & Saults, 2012), ale z efektywnego zwiększenia rozmiaru chunks. Nawet jeśli wydajność czasami wynika ze stopniowanych skojarzeń między elementami, a nie z dyskretnych kawałków, słownictwo kawałków wygodnie wyraża wielkość wzrostu wydajności z bardziej ściśniętymi listami. W związku z tym skonstruowano cztery warunki: proste zadanie przęsłowe z użyciem materiału podzielonego na części, złożone zadanie przęsłowe z użyciem materiału podzielonego na części, proste zadanie przęsłowe z użyciem materiału nie podzielonego na części oraz złożone zadanie przęsłowe z użyciem materiału nie podzielonego na części.

Przewidywaliśmy, że proste zadanie przęsłowe może mieć korzystny wpływ na zapamiętywanie tylko wtedy, gdy część informacji może być ponownie zakodowana, podczas gdy taka korzyść nie może wystąpić, gdy żadna informacja (lub niewielka ilość informacji) nie może być ponownie zakodowana. I odwrotnie, złożone zadanie przęsłowe nie daje możliwości ponownego zakodowania regularnych wzorców w warunku chunkable, ponieważ uwaga jest skierowana na zewnątrz podczas zadania przetwarzania z przeplotem. Dlatego też przewidywaliśmy interakcję między zadaniem a ściśliwością, wspierającą jedynie wyższą rozpiętość dla zadania prostej rozpiętości w warunku podzielnym. Aby sprawdzić wielkość interakcji, zaplanowaliśmy przeprowadzenie analizy bayesowskiej w celu porównania ilości materiału pociętego na kawałki w czterech warunkach, a w szczególności przy użyciu wskaźnika chunking score odzwierciedlającego ilość materiału pociętego na kawałki w zadaniu z zakresu prostego i złożonego. Silna interakcja powinna być wspierana przez mniejszy wynik chunking score dla zadania złożonego.

Uczestnicy. Dziewięćdziesięciu czterech studentów (M = 23 lata, sd = 5,3) zapisanych na Université Côte d’Azur zgłosiło się do udziału w eksperymencie. Szacunkowa wielkość próby została obliczona na podstawie różnicy zaobserwowanej w naszym poprzednim badaniu dla proporcji poprawności między warunkami najbardziej i najmniej podatnymi na rozdrabnianie. Uzyskaliśmy 75 < N < 105, w zależności od η wahającej się między .40 a .55, przy czym .55 to wartość uzyskana w naszym poprzednim badaniu, dla mocy .80.

Bodźce. Nasze bodźce różniły się w zależności od trzech dwuwartościowych wymiarów (kształt, rozmiar i kolor, trzy wymiary zwykle używane przez badaczy uczenia się kategorii do budowania kanonicznych zestawów bodźców; Love & Markman, 2003). Używaliśmy tylko dwóch wartości na wymiar w każdej próbie (Rysunek (Rysunek 1,1, na dole). Dla każdej próby, losowa kombinacja dwóch kształtów (spośród ośmiu różnych), dwóch kolorów (spośród ośmiu różnych) i dwóch rozmiarów tworzyła zestaw ośmiu możliwych obiektów. Ograniczyliśmy wymiar wielkości do dwóch różnych wartości (duży vs mały, tj. 280 × 280 pikseli vs 140 × 140 pikseli) na listach, ponieważ uczestnicy mieli problemy z identyfikacją wartości pośrednich podczas naszych testów wstępnych. Zastosowanie ośmiu kształtów, ośmiu kolorów i dwóch rozmiarów wystarczyło do wygenerowania 1568 możliwych zestawów ośmiu obiektów, co ograniczyło proaktywną interferencję między próbami (przykładowa kombinacja cech podana jest na Rysunku 1,1, u góry).

Uczestnik nie wiedział z góry, który z wymiarów będzie najbardziej istotny w procesie kategoryzacji. Wartości wymiarów były wybierane losowo dla każdej z prezentowanych list, tak aby zróżnicować możliwe kombinacje wymiarów (kształtów, rozmiarów i kolorów) na poszczególnych listach, przy jednoczesnym zachowaniu tej samej struktury kategorii (przedstawionej na rysunku Figure1).1). Prawdopodobieństwo, że uczestnik natknie się na dwa identyczne zestawy cech pomiędzy dwoma listami podczas eksperymentu, zostało założone jako bardzo niskie.

Procedura. Eksperyment miał konstrukcję 2 × 2 within-subject. Każdy uczestnik próbował wykonać wszystkie cztery bloki (chunkable simple span task, non-chunkable simple span task, chunkable complex span task, non-chunkable complex span tasks), których kolejność była równoważona pomiędzy uczestnikami (tj. 24 możliwe kolejności; 96 uczestników było potrzebnych do idealnego zrównoważenia projektu). Każdy blok składał się z kilku list bodźców, a przypominanie następowało po każdej liście. Uczestnicy byli informowani, że muszą zapamiętać w prawidłowej kolejności każdą listę bodźców. Lista bodźców (np. mały niebieski kwadrat i duży niebieski kwadrat) była wybierana z losowej kombinacji dwóch kształtów (np. wszystkie bodźce wynikające z kombinacji mały vs. duży, niebieski vs. czerwony, kwadrat vs. koło). Bodźce w danej sekwencji wyświetlane były seryjnie na środku ekranu przez jedną sekundę każdy (np. dla listy dwóch bodźców – mały niebieski kwadrat, a po nim duży niebieski kwadrat). Trudność każdej sekwencji była szacowana zgodnie z metryką ściśliwości opisaną przez Chekaf et al. (2016) i opartą na Feldmanie (2000). Metryka ta po prostu wykorzystuje disjunctive normal formula (disjunctive list of conjunction of features) do obliczenia minimalnej liczby cech, które redukują nieskompresowane listy obiektów (które wymieniają verbatim wszystkie cechy obiektów składowych w ramach list).

Po zaprezentowaniu listy obiektów, ekran odpowiedzi pokazywał cały zestaw ośmiu obiektów, z których wybrano podzbiór. Ekran odpowiedzi pokazywał w losowo ustalonych pozycjach osiem wyborów odpowiedzi: k bodźców, które miały być przywołane i 8 – k pozostałych obiektów dystraktorów. Od uczestników wymagano przypomnienia sobie listy przedmiotów i odtworzenia ich kolejności. Uczestnik dokonywał wyboru poprzez klikanie na obiekty, aby przywołać je w odpowiedniej kolejności. Ta procedura przypominania jest podobna do procedury stosowanej w zadaniu seryjnego raportowania wzrokowej pamięci krótkotrwałej (Avons & Mason, 1999; Smyth, Hay, Hitch, & Horton, 2005). Bodźce były podkreślane za pomocą białego paska, gdy użytkownik na nie kliknął. Nie było ograniczeń czasowych dla przypomnienia. Uczestnik mógł przejść do następnej sekwencji poprzez naciśnięcie spacji.

8 – k pozostałych obiektów dystrakcyjnych na ekranie testowym pozwoliło nam na prawidłowe obliczenie ściśliwości. Na przykład, w próbie #14nc pokazanej na Rysunku 1,1, ekran przywołania zawierał duży zielony trójkąt, mały fioletowy trójkąt, małe zielone koło i duże fioletowe koło jako nowe elementy, oprócz czterech bodźców (duży fioletowy trójkąt, mały zielony trójkąt, małe fioletowe koło i duże zielone koło). Próba #14c pokazana na Rysunku11 zawierała cztery czerwone obiekty oprócz czterech niebieskich bodźców. Kompresyjność pamięci była więc celowo skorelowana z wymaganiami rekurencyjnymi prób. Zgodnie z poprzednim przykładem, nowe przedmioty w próbie #14nc są logicznie bardziej interferencyjne dla pamięci, ponieważ cechy przynęt pokrywają się z cechami bodźców, które mają być przywołane. I odwrotnie, czerwone przynęty mogą być mniej skojarzone z niebieskimi obiektami bodźców w próbie #14c. Ponieważ 'niebieski’ jest prostym opisem pamięci, kategoria przeciwna jest z konieczności również prosta (tj. 'czerwony’). Fakt, że każdy opis i jego uzupełnienie mają tę samą złożoność, jest ogólnie określany jako parzystość.

Listy były wyświetlane przy użyciu rosnącej prezentacji długości (długość zmieniała się stopniowo od 1 do 8 pozycji), podobnie jak w przypadku rozpiętości cyfr używanych w testach neuropsychologicznych. Próba długości 1 była używana tylko jako rozgrzewka. Dla przykładu, w naszym eksperymencie zastosowano taką samą liczbę powtórzeń dla każdej długości, jak w przypadku rozpiętości cyfr w testach WISC lub WAIS. Blok zatrzymywał się automatycznie po czterech błędach w obrębie danej długości listy (błąd polegał na tym, że uczestnik nie był w stanie przypomnieć sobie całej sekwencji w idealnym porządku). Uczestnicy otrzymywali cztery próby na każdą długość L. Zostali również poinformowani, że pierwsze trzy próby w każdym bloku będą traktowane jako próby ćwiczeniowe, a następnie odrzucane z analizy. Po tej rozgrzewce, w każdym warunku wykonywano po cztery próby dla każdej długości listy.

Gdy zadanie było zadaniem z zakresu prostego, przerwa między elementami wynosiła 500ms. Gdy zadanie było zadaniem o złożonej rozpiętości, stosowaliśmy procedurę zadania Operation span (OS). W OS od uczestników wymaga się wykonywania operacji matematycznych między elementami pamięci (zob. Conway i in., 2005; Kane i in., 2004). Przed prezentacją każdego elementu do zapamiętania na ekranie pojawiało się równanie (np. „7 + 2 = 10”) (równania były czytane po cichu). Uczestnik miał trzy sekundy na ocenę równania poprzez kliknięcie przycisku (prawda lub fałsz), po czym wyświetlany był kolejny element. Równanie znikało po udzieleniu odpowiedzi przez uczestnika, tuż przed wyświetleniem kolejnego elementu. To zadanie przetwarzania z przeplotem miało uniemożliwić uczestnikom swobodne dzielenie na części (chunking).

W przypadku niełączonych prostych zakresów, dla danej długości listy, najbardziej nieściśliwe listy występowały naprzemiennie z mniej nieściśliwymi listami; w przeciwnym razie, chunki wykazywałyby zbyt duże podobieństwo w całym eksperymencie. Na przykład, na Rysunku 1.1, Próba #10nc pokazuje najbardziej nieściśliwy zestaw trzech obiektów, z pierwszą różnicą 2 cech (rozmiar i kolor, między małym białym kwadratem a dużym czarnym kwadratem), po której następuje druga różnica 2 cech (rozmiar i kształt, między dużym czarnym kwadratem a małym czarnym trójkątem), podczas gdy Próba #9nc pokazuje mniej nieściśliwy zestaw trzech obiektów, uporządkowany za pomocą różnicy 3 cech, po której następuje różnica 2 cech, aby utrudnić proces dzielenia na części. Odległość między obiektami (zsumowana liczba różnic cech między obiektami) jest wygodna do opisania relacji między cechami, ale Feldman (2000, 2003) opisuje dokładniej, w jaki sposób cechy mogą być ponownie opisane, aby skompresować sumę informacji w każdym zestawie obiektów (proces kompresji nie zawsze jest związany z odległością między obiektami). Na przykład, „mały biały kwadrat, mały czarny kwadrat” może być zredukowany do dwóch cech („mały kwadrat”), podczas gdy „mały biały kwadrat, duży czarny trójkąt” nie może być zredukowany do mniej niż sześciu cech. Tutaj, na przykład, ogólny opis trzech obiektów w Próbie #9nc wymaga minimalnego wyrażenia logicznego składającego się z 5 cech, zamiast 8 cech dla #10nc; patrz (Feldman, 2003). Ta miara ściśliwości służy tu jedynie do przewidywania fragmentaryczności zbioru kategorii (dokładna kolejność, taka jak „pierwszy biały”, wymaga jeszcze jednej informacji w kontekście eksperymentalnym). Ogólnie rzecz biorąc, wszystkie struktury kategorii o danej długości zostały wybrane tak, by były mniej ściśliwe w warunku nonchunkable niż w warunku chunkable.

Punktacja. Aby obliczyć szacunkową rozpiętość w każdym warunku, przyznawano wartość .25 za każdy idealnie poprawny raport seryjny wszystkich elementów pamięci w próbie.2 Na przykład, uczestnik przypominający sobie tylko 3 z 4 sekwencji jednego obiektu otrzymywał rozpiętość .75, jeśli całkowicie nie radził sobie z dłuższymi sekwencjami. Gdy badany uzyskał 4, 4 i 3 poprawne próby o długościach odpowiednio 1, 2 i 3, wówczas rozpiętość była równa (4 + 4 + 3)/4 = 2,75. Gdy osoba uzyskała 4, 3 i 2 poprawne próby na długościach odpowiednio 1, 2 i 3, wtedy rozpiętość była równa (4 + 3 + 2)/4 = 2.25.

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.