Książka dofinansowana przez Uniwersytet Jagielloński ze środków Wydziału Filozofi cznego Recenzent Prof. dr hab. Jan Kaiser Projekt okładki Agnieszka Winciorek © Copyright by Eligiusz Wronka & Wydawnictwo Uniwersytetu Jagiellońskiego Wydanie I, Kraków 2012 All rights reserved Niniejszy utwór ani żaden jego fragment nie może być reprodukowany, przetwarzany i rozpowszechnianyw jakikolwiek sposób za pomocą urządzeń elektronicznych, mechanicznych, kopiujących, nagrywających i innych oraz nie może być przechowywany w żadnym systemie informatycznym bez uprzedniej pisemnej zgody Wydawcy. ISBN 978-83-233-3357-9 www.wuj.pl Wydawnictwo Uniwersytetu Jagiellońskiego Redakcja: ul. Michałowskiego 9/2, 31-126 Kraków tel. 12-631-18-81, tel./fax 12-631-18-83 Dystrybucja: tel. 12-631-01-97, tel./fax 12-631-01-98 tel. kom. 506-006-674, e-mail: sprzedaz@wuj.pl Konto: PEKAO SA, nr 80 1240 4722 1111 0000 4856 3325 Spis treści Wprowadzenie .................................................................................................................... 9 Rozdział 1. Twarz jako obiekt specjalny ........................................................................ 13 1.1. W jakim stopniu twarz jest obiektem specjalnym? ......................................... 14 1.1.1. Skutki uszkodzeń mózgu ......................................................................... 15 1.1.2. Obserwacje zachowań noworodków i niemowląt ................................ 18 1.1.3. Dane behawioralne i psychofizjologiczne zebrane u dorosłych......... 21 Rozdział 2. Teoretyczne modele procesów przetwarzania twarzy ............................ 23 2.1. Model Bruce i Younga ......................................................................................... 24 2.2. Model Haxby’ego i jego współpracowników.................................................... 28 2.2.1. Mózgowa lokalizacja elementów systemu przetwarzania twarzy ...... 30 2.2.1.1. Podstawowy system przetwarzania twarzy............................. 30 2.2.1.2. Rozszerzony system przetwarzania twarzy ............................ 34 Ukierunkowanie wzroku i mechanizmu uwagi ..................... 35 Ekspresja emocjonalna ............................................................. 37 Czytanie z ruchu ust .................................................................. 40 2.2.1.3. Jeszcze bardziej rozszerzony system przetwarzania twarzy . 41 2.3. Koncepcja przetwarzania konfi guracyjnego .................................................... 43 2.4. Podsumowanie ..................................................................................................... 47 Rozdział 3. Kontrowersje dotyczące modelu Haxby’ego ............................................ 49 3.1. Jaką rolę pełni zakręt wrzecionowaty? Isabel Gauthier vs Nancy Kanwisher ............................................................................................ 50 3.2. Separacja anatomiczna i funkcjonalna czy jeden system? Andrew Calder i Andrew Young vs James Haxby ........................................... 54 3.3. Podsumowanie ..................................................................................................... 58 Rozdział 4. Elektrofizjologiczne korelaty przetwarzania twarzy .............................. 61 4.1. Charakterystyka komponentu N170 ................................................................. 64 Mózgowe źródło komponentu N170 ................................................................ 64 Efekt inwersji twarzy a komponent N170 ........................................................ 65 Komponent N170 u pacjentów z prozopagnozją ............................................ 67 Znaczenie funkcjonalne komponentu N170 ................................................... 68 4.2. Charakterystyka komponentu P1 ...................................................................... 73 4.3. Charakterystyka komponentów AP oraz EPN ................................................ 75 Rozdział 5. Jak system nerwowy przetwarza ekspresję emocjonalną? ..................... 77 5.1. Elementy systemu analizującego mimikę emocjonalną ................................. 79 Części kory mózgowej zaangażowane w analizę ekspresji emocjonalnej .... 79 Części układu limbicznego zaangażowane w analizę ekspresji emocjonalnej ............................................................................................. 81 5.2. Jak szybko pojawia się efekt ekspresji emocjonalnej? ..................................... 85 Obszary kory potylicznej – komponent P1 ...................................................... 86 Obszary kory skroniowej – komponent N170 ................................................. 87 Obszary kory czołowej – komponent AP ......................................................... 88 Ciało migdałowate............................................................................................... 89 5.3. Czy mimika emocjonalna może zostać zarejestrowana poza świadomością? ..................................................................................................... 90 Paradygmat poprzedzania z maskowaniem wstecznym ................................ 91 Badania grupy Morrisa ....................................................................................... 92 Aktywacja ciała migdałowatego w warunkach przetwarzania nieświadomego ......................................................................................... 95 Badania z wykorzystaniem rejestracji ERP ...................................................... 99 5.4. Jak uwaga wpływa na przetwarzanie ekspresji emocjonalnej? ...................... 101 5.4.1. Wpływ uwagi na przetwarzanie ekspresji emocjonalnej – badania wykorzystujące techniki neuroobrazowania ...................... 102 Eksperyment Patrika Vuilleumiera i jego współpracowników (2001) 103 Eksperyment Luiza Pessoa i jego współpracowników (2002) .............. 104 Eksperyment Adama Andersona i jego współpracowników (2003) ... 105 Eksperyment Laetitii Silvert i jej współpracowników (2007) ............... 107 Eksperyment Thomasa Straube i jego współpracowników (2004) ...... 108 Podsumowanie .............................................................................................. 109 5.4.2. Wpływ uwagi na przetwarzanie ekspresji emocjonalnej – badania wykorzystujące rejestrację ERP ............................................ 110 Eksperymenty Martina Eimera i jego współpracowników................. 110 Uwaga dowolna czy mimowolna? .......................................................... 112 5.5. Podsumowanie ..................................................................................................... 115 Rozdział 6. Wpływ uwagi na przetwarzanie ekspresji emocjonalnej – eksperymenty 1–3 .................................................................................................... 119 6.1. Opis metody wykorzystanej w badaniach ........................................................ 121 Ogólna charakterystyka uczestników eksperymentów .................................. 121 Materiał bodźcowy i procedury eksperymentalne .......................................... 122 Rejestracja elektroencefalograficzna i analiza danych.................................... 122 6.2. Eksperyment 1 ..................................................................................................... 125 6.2.1. Opis metody.............................................................................................. 125 Osoby badane i procedura eksperymentalna ....................................... 125 6.2.2. Opis wyników ........................................................................................... 126 Wyniki behawioralne ............................................................................... 126 Wyniki elektrofi zjologiczne .................................................................... 127 6.2.3. Dyskusja wyników uzyskanych w eksperymencie 1 ............................ 129 Komponent N170 ..................................................................................... 132 Komponent AP ......................................................................................... 133 Komponent EPN ...................................................................................... 135 Podsumowanie uzyskanych wyników ................................................... 136 6.3. Analiza lokalizacyjna efektów obserwowanych w eksperymencie 1 ............ 138 6.3.1. Opis metody.............................................................................................. 140 sLORETA – Standardized Low Resolution Electromagnetic Tomography ...................................................................................... 140 6.3.2. Opis wyników ........................................................................................... 141 Wyniki elektrofi zjologiczne .................................................................... 141 Wyniki analizy lokalizacyjnej – sLORETA ........................................... 142 6.3.3. Dyskusja wyników uzyskanych w analizie lokalizacyjnej ................... 146 6.4. Eksperyment 2 ..................................................................................................... 152 6.4.1. Opis metody.............................................................................................. 152 Uczestnicy badania i procedura eksperymentalna .............................. 152 6.4.2. Opis wyników ........................................................................................... 154 Wyniki behawioralne ............................................................................... 154 Wyniki elektrofi zjologiczne .................................................................... 156 6.4.3. Dyskusja wyników uzyskanych w eksperymencie 2 ............................ 156 Komponent N170 ..................................................................................... 160 Komponent AP ......................................................................................... 162 Komponent EPN ...................................................................................... 163 Podsumowanie uzyskanych wyników ................................................... 164 6.5. Eksperyment 3 ..................................................................................................... 165 6.5.1. Opis metody.............................................................................................. 165 Uczestnicy badania i procedura eksperymentalna .............................. 165 6.5.2. Opis wyników ........................................................................................... 166 Wyniki behawioralne ............................................................................... 166 Wyniki elektrofi zjologiczne .................................................................... 168 6.5.3. Dyskusja wyników uzyskanych w eksperymencie 3 ............................ 169 Komponent N170 ..................................................................................... 173 Komponent AP ......................................................................................... 174 Komponent EPN ...................................................................................... 175 Rozdział 7. Mimowolne przetwarzanie ekspresji emocjonalnej – eksperymenty 4–8 .................................................................................................... 177 7.1. Eksperyment 4 ..................................................................................................... 179 7.1.1. Opis metody.............................................................................................. 179 Uczestnicy badania i procedura eksperymentalna .............................. 179 7.1.2. Opis wyników ........................................................................................... 181 Wyniki elektrofi zjologiczne .................................................................... 181 7.1.3. Dyskusja wyników uzyskanych w eksperymencie 4 ............................ 182 Komponent EPN ...................................................................................... 187 Nieświadome przetwarzanie ekspresji emocjonalnej i rola ciała migdałowatego w tym procesie ...................................................... 188 7.2. Eksperyment 5 ..................................................................................................... 190 7.2.1. Opis metody.............................................................................................. 191 Uczestnicy badania i procedura eksperymentalna .............................. 191 7.2.2. Opis wyników ........................................................................................... 193 Wyniki behawioralne ............................................................................... 193 Wyniki elektrofi zjologiczne .................................................................... 193 7.2.3. Dyskusja wyników uzyskanych w eksperymencie 5 ............................ 194 7.3. Eksperyment 6 ..................................................................................................... 199 7.3.1. Opis metody.............................................................................................. 201 Uczestnicy badania i procedura eksperymentalna .............................. 201 7.3.2. Opis wyników ........................................................................................... 202 Wyniki behawioralne ............................................................................... 202 Wyniki elektrofi zjologiczne .................................................................... 204 7.3.3. Dyskusja wyników uzyskanych w eksperymencie 6 ............................ 204 Komponent P1 .......................................................................................... 205 Komponent N170 ..................................................................................... 209 Komponent AP ......................................................................................... 209 Komponent EPN ...................................................................................... 210 7.4. Eksperyment 7 ..................................................................................................... 210 7.4.1. Opis metody.............................................................................................. 211 Uczestnicy badania i procedura eksperymentalna .............................. 211 7.4.2. Opis wyników ........................................................................................... 212 Wyniki behawioralne ............................................................................... 212 Wyniki elektrofi zjologiczne .................................................................... 213 7.4.3. Dyskusja wyników uzyskanych w eksperymencie 7 ............................ 217 Komponent P1 .......................................................................................... 217 Komponent N170 ..................................................................................... 217 Komponent AP ......................................................................................... 218 Komponent EPN ...................................................................................... 219 7.5. Eksperyment 8 ..................................................................................................... 220 7.5.1. Opis metody.............................................................................................. 221 Uczestnicy badania i procedura eksperymentalna .............................. 221 7.5.2. Opis wyników ........................................................................................... 221 Wyniki behawioralne ............................................................................... 221 Wyniki elektrofi zjologiczne .................................................................... 221 7.5.3. Dyskusja wyników uzyskanych w eksperymencie 8 ............................ 225 Rozdział 8. Podsumowanie .............................................................................................. 227 8.1. Elektrofizjologiczne korelaty rozpoznawania ekspresji emocjonalnej i ich znaczenie funkcjonalne .............................................................................. 228 Komponent P1 ..................................................................................................... 228 Komponent N170 ................................................................................................ 229 Komponent AP .................................................................................................... 231 Komponent EPN ................................................................................................. 232 Relacje między poszczególnymi korelatami rozpoznawania ekspresji emocjonalnej ............................................................................................. 233 Jak system nerwowy analizuje sygnały mimiczne? ......................................... 236 Literatura cytowana .......................................................................................................... 243 Wprowadzenie Dla większości ludzi spostrzeganie świata zewnętrznego wydaje się procesem niezwykle prostym. Szczególnie jednak wyraźnie doświadczamy tego w przypadku modalności wzrokowej. Bez żadnego niemal wysiłku dostrzegamy przecież większość obiektów nas otaczających. Z łatwością określamy ich kolory, wielkość i położenie względem nas samych. Możliwość ta wydaje się nam tak naturalna, iż często nawet naukowcy zapominają w życiu codziennym, że w rzeczywistości obraz świata zewnętrznego powstający w naszych umysłach jest wyłącznie jego rekonstrukcją opartą na interpretacji zmian aktywności komórek receptorycznych znajdujących się w naszych narządach zmysłów. Proces widzenia nie ma przecież charakteru automatycznego i nie jest wiernym odzwierciedleniem zdarzeń w świecie nas otaczającym. To, jaki obiekt ostatecznie „zobaczymy”, nie jest determinowane wyłącznie charakterystyką samego obiektu, lecz jest zależne także od sposobu, w jaki informacja jest analizowana na każdym z kolejnych etapów ich przetwarzania, począwszy od receptorów, a skończywszy na złożonych systemach w korze mózgu. Nic dziwnego zatem, iż we współczesnej nauce istnieje zgoda co do tego, że procesy percepcji są niezwykle skomplikowane. Raczej nie porównuje się już oka do kamery przechwytującej obraz, który jest następnie wyświetlany na ekranie w naszym umyśle. Nie oznacza to jednak, iż wszyscy naukowcy w równym stopniu doceniają poziom złożoności procesów odbioru informacji zmysłowych. Wciąż, nawet w poważnych opracowaniach naukowych, można się spotkać z upraszczaniem zjawisk percepcyjnych. Pojawiają się w nich przykładowo sugestie, iż niektóre wzorce pobudzeń receptorów przetwarzane są w systemach percepcyjnych odmiennie niż w przypadku innych. Taką tezę stawia się szczególnie często w odniesieniu do procesów odbioru informacji mających znaczenie afektywne. Istnieje przekonanie, iż rozpoznanie znaczenia bodźców o takiej charakterystyce niekoniecznie wymaga zaangażowania mechanizmu analitycznego umiejscowionego w korze mózgowej. Sugeruje się wręcz, że możliwe jest określenie wartości emocjonalnej stymulacji poprzez wykorzystanie podkorowych połączeń nerwowych. Na tej podstawie dokonuje się również specyfi cznej klasyfi kacji procesów przetwarzania informacji afektywnej. Gdy ma ono miejsce z wykorzystaniem wyłącznie struktur podkorowych, mówi się o bardzo szybkich procesach automatycznych, nieświadomych, przeduwagowych lub mimowolnych. Jeśli jednak analiza danych sensorycznych zachodzi na poziomie kory, wówczas sugeruje się, iż procesy te są dużo wolniejsze i mają charakter kontrolowany, złożony i często świadomy. Podobne rozróżnienie jest stosowane także do opisu działania mechanizmu percepcji twarzy, w szczególności jej ekspresji emocjonalnej. Powstaje jednak pytanie, czy takie twierdzenie jest oparte na wystarczająco przekonującym materiale empirycznym? Czy posiadamy argumenty, które pozwalają na stosowanie rozróżnienia na automatyczne i kontrolowane procesy przetwarzania emocjonalnych sygnałów mimicznych? Jaką charakterystykę mają te dwa rodzaje procesów? W jakiej relacji pozostają względem siebie? Czy możemy je utożsamiać z działaniem dwóch niezależnych kanałów przesyłania impulsów nerwowych w obrębie mózgu? Odpowiedzi na tak postawione pytania poszukuje się, stosując najróżniejsze metody badawcze, takie jak: obserwacja skutków ogniskowych uszkodzeń mózgu lub zachowania niemowląt i małych dzieci, rejestracja aktywności grup neuronów przy wykorzystaniu śródczaszkowego pomiaru u zwierząt lub pacjentów, rejestracja aktywności całego mózgu z użyciem technik neuroobrazowania lub pomiaru potencjałów mózgowych. Dzięki temu możliwy jest dokładniejszy opis całości procesów uwikłanych w przetwarzanie twarzy i percepcję mimiki emocjonalnej. Pomimo to wyniki badań prowadzonych przez różnych badaczy z wykorzystaniem wspomnianych metod są, niestety, w zbyt wielu przypadkach sprzeczne. W rezultacie zbyt wiele pytań pozostaje bez odpowiedzi, podczas gdy pojawiają się już nowe, które tej odpowiedzi wymagają. Jestem przekonany, że podobnie jest w przypadku niniejszej publikacji. Nie na wszystkie pytania uda się czytelnikowi znaleźć w niej odpowiedź. A w wielu przypadkach poruszone w tej monografi i problemy będą zaczynem dla nowych pytań. Reguły rządzące procesem rozpoznawania ekspresji emocjonalnej twarzy wydają się na tyle złożone, że niemożliwe jest obecnie opisanie ich w sposób jednoznaczny i wyczerpujący. Nie oznacza to jednak, iż nie należy podejmować prób opisu tych reguł, przynajmniej w przypadku niewielkiej ich części. Głównym celem niniejszej pracy jest próba opisu przebiegu wczesnych faz procesów odbioru emocjonalnych sygnałów mimicznych. Należałoby podkreślić, iż w takim razie praca dotyczy bezpośrednio procesów percepcji. Podobny cel przyświecał mi także wówczas, gdy planowałem opisane w pracy eksperymenty. W założeniu miały one przynieść wyniki, które pozwoliłyby określić, do jakiego stopnia ekspresja emocjonalna twarzy może być odbierana w sposób mimowolny. Taką możliwość sugerowały wyniki uzyskiwane przez innych badaczy, wskazujące, że sygnały mimiczne mogą wywoływać specyficzne zmiany w funkcjonowaniu ludzi oraz charakterystyczne wzorce pobudzenia w systemie nerwowym, pomimo że ich przetwarzanie zachodziło poza świadomością. Ponadto istotnym problemem podjętym w tych badaniach była wzajemna relacja między procesami o charakterze dowolnym i mimowolnym. Wychodząc bowiem z założenia, iż ten drugi rodzaj procesów nie podlega wpływom ze strony bardziej złożonych procesów, można oczekiwać, że mogą one być obserwowane w niemal każdych warunkach. Natomiast uzasadniona wydaje się sugestia, iż dowolne różnicowanie sygnałów mimicznych nie może mieć miejsca bez zaangażowania mechanizmów uwagi. Stąd określenie wzajemnych relacji między tymi dwiema kategoriami procesów umożliwia dokładniejszy opis przebiegu interesującego nas zjawiska. Nie oznacza to bynajmniej, że cały proces percepcji sygnałów mimicznych utożsamiam z mechanizmami, które zostały opisane w pracy. Jestem bowiem świadom, iż przedstawiony w pracy materiał empiryczny, pochodzący zarówno z eksperymentów własnych, jak i innych badaczy, odnosi się wyłącznie do pewnej grupy procesów stanowiących wstępną fazę rozpoznawania mimiki emocjonalnej. Sama praca składa się z ośmiu rozdziałów. W rozdziale 1 przedstawiono pokrótce wiele argumentów na rzecz tezy, iż spostrzeganie ludzkiej twarzy przebiega odmiennie w porównaniu z procesami odbioru innych bodźców wzrokowych. W rozdziale 2 zaprezentowano teoretyczne modele opisujące mechanizm przetwarzania twarzy. Ich dobór był w dużej mierze związany z problematyką poruszaną w badaniach własnych. W rozdziale 3 natomiast omówiono kontrowersje dotyczące koncepcji stworzonej przez Jamesa Haxby’ego i jego współpracowników. Problemy poruszane w tych częściach pracy nie ograniczają się wyłącznie do rozpoznawania mimiki emocjonalnej, lecz dotyczą wielu różnych analizowanych przez system wzrokowy aspektów twarzy, takich jak tożsamość czy dynamiczne zmiany w obrazie części twarzy pojawiające się podczas nadawania mowy. Wynika to z faktu, iż przetwarzanie ekspresji emocjonalnej nie jest procesem niezależnym od wyżej wymienionych. Na poziomie mózgu analiza tego aspektu twarzy angażuje cały skomplikowany układ, który równolegle dokonuje obróbki innych cech tego bodźca. Stąd prezentacja tylko tych informacji, które bezpośrednio odnoszą się do mechanizmu oceny sygnałów mimicznych tworzyłaby nader uproszczony obraz tego, co rzeczywiście musi się stać w naszym systemie nerwowym, zanim określimy znaczenie emocjonalne spostrzeganej ekspresji. Propozycje teoretyczne ujęte w tej części pracy stanowią zarazem podstawę do dalszych rozważań dotyczących rozpoznawania ekspresji emocjonalnej. W rozdziale 4 przedstawiono wybrane elektrofizjologiczne korelaty procesu przetwarzania twarzy. I podobnie jak we wcześniejszych rozdziałach nie ograniczono się tu wyłącznie do opisu tych korelatów przez pryzmat procesu różnicowania emocjonalnych sygna-łów mimicznych, lecz wskazano także na specyfi czność efektów obserwowanych w przypadku części z tych korelatów, jak przykładowo N170, interpretując je jako wskaźniki określonych etapów analizy różnych aspektów twarzy. Rozdział 5 natomiast został w całości poświęcony problematyce mózgowego podłoża procesu rozpoznawania ekspresji emocjonalnej. Ta część pracy posiada układ odnoszący się bezpośrednio do głównych pytań nurtujących badaczy tego zjawiska: jak szybko pojawia się efekt ekspresji emocjonalnej, czy mimika emocjonalna może zostać zarejestrowana poza świadomością oraz jak procesy poznawcze, takie jak uwaga, wpływają na przetwarzanie ekspresji emocjonalnej. W kolejnych rozdziałach – 6 oraz 7 – przedstawiono materiał empiryczny zebrany w badaniach własnych. Każdy z ośmiu zaprezentowanych eksperymentów miał pomóc w wy-jaśnieniu problemów związanych z postawionymi pytaniami. Eksperymenty, których rezultaty zostały przedstawione w niniejszej pracy, przeprowadzono w latach 2007–2011. Część z nich była finansowana przez Ministerstwo Nauki i Szkolnictwa Wyższego w ramach dwóch programów badawczych (N N106 1958 33 oraz N N106 0983 38), kierowanych przez autora pracy. W ostatnim rozdziale, podsumowującym wyniki tych badań, przedstawiono także zarys modelu opisującego przebieg procesu różnicowania ekspresji emocjonalnej. Praca ta nie powstałaby bez wsparcia ze strony innych osób, mającego z oczywistych względów bardzo różny charakter. Serdeczne podziękowania pragnę złożyć w tym miejscu profesorowi Janowi Kaiserowi za wiele lat wspólnych dyskusji naukowych oraz wskazanie drogi do osiągania coraz wyższych standardów badań eksperymentalnych. Jemu zawdzięczam chęć poświęcenia się pracy badawczej oraz przeświadczenie, iż jest to dyscyplina długodystansowa, w której istotną rolę odgrywają cierpliwość i wytrwałość. Moim koleżankom i kolegom z Zakładu Psychofizjologii Instytutu Psychologii dziękuję za wiele lat owocnej współpracy. W tej grupie szczególne podziękowania należą się Michałowi Kunieckiemu za współpracę przy poznawaniu tajników elektrofizjologii oraz zapał w wyposażaniu naszego laboratorium. Drugą osobą, która szczególnie zasłużyła na podziękowania z mojej strony, jest Wioleta Walentowska – za współpracę przy realizacji opisywanych eksperymentów oraz pomoc przy przygotowywaniu części materiałów do niniejszej pracy. Zupełnie inny rodzaj miało wsparcie ze strony mojej żony Anny oraz moich kochanych dzieciaków, którym dziękuję za niewyczerpaną cierpliwość i ogromną wiarę w sens mojej pracy. Eligiusz Wronka Rozdział 1 Twarz jako obiekt specjalny Twarze innych ludzi należą do obiektów o wyjątkowej charakterystyce. Wyjątkowość ta jest szczególnie związana z niespotykaną precyzją i efektywnością działania mechanizmu ich przetwarzania, której nie da się porównać z żadnym innym obiektem. Jednocześnie mamy do czynienia z niebywałym bogactwem informacji, które uzyskujemy poprzez analizę twarzy. Co więcej, informacje te są niesłychanie istotne dla naszego funkcjonowania w grupie społecznej. W tym kontekście szczególnie ważna wydaje się informacja o stanie emocjonalnym osób, z którymi wchodzimy w interakcje społeczne. Rozpoznanie bowiem intencji innej osoby może mieć istotne znaczenie dla przebiegu kontaktu z nią, możliwo-ści jego nawiązania, charakterystyki jego intensywności lub ewentualnych jego konsekwencji (Keltner i Ekman, 2005). Stąd też zdolność do prawidłowej oceny ekspresji mimicznej powinna posiadać specyficzny status wśród innych zdolno-ści percepcyjnych. Nie jest to jednak umiejętność oderwana od całości procesu przetwarzania twarzy, lecz raczej tylko jeden z aspektów tego wysoce złożonego mechanizmu. Procesy percepcyjne związane z analizą oraz oceną ludzkiej twarzy charakteryzuje wysoki stopień komplikacji. Jest to związane głównie z różnorodnością informacji, jakie są uzyskiwane w wyniku takiej analizy. Patrząc na twarz, jesteśmy w stanie niemal natychmiast określić, czy należy ona do osoby nam znajomej, a jeśli tak, to możemy stwierdzić stopień tej znajomości. Niezależnie od tego możemy prawie bezbłędnie ocenić wiek widzianej osoby, jej płeć oraz przynależność rasową. Na podstawie nawet krótkiego kontaktu potrafimy ocenić atrakcyjność osoby, którą widzimy. W tym samym czasie możemy też dokonywać atrybucji cech osobowościowych spostrzeganej osoby, przypisując jej określony poziom inteligencji czy oceniając, do jakiego stopnia jesteśmy w stanie jej zaufać. Co ciekawe, wspomniane powyżej dane uzyskiwane w wyniku procesu analizy twarzy odnoszą się do relatywnie stałych charakterystyk danej osoby. Jednak oprócz nich istnieje wiele informacji związanych z dynamicznie zmieniającymi się charakterystykami, często zresztą zmiany te trwają ułamki sekund. Do takich charakterystyk należą ekspresja mimiczna czy też ruchy ust pojawiające się w związku z werbalizacją. Nie powinien dziwić więc fakt, iż twarze są przetwarzane w wyjątkowy sposób przez system poznawczy człowieka oraz że analiza ta angażuje obszerne części systemu nerwowego. Dotyczy to oczywiście głównie systemu wzrokowego, lecz – jak zostanie to przedstawione w dalszej części pracy – nie jest to jedyny fragment ludzkiego mózgu wykorzystywany w trakcie spostrzegania twarzy. Jednak pomimo iż zadanie, jakie stoi przed systemem nerwowym w momencie, gdy widzimy twarz, jest niesłychanie złożone, jest on w stanie wykonać je z zaskakującą precyzją oraz szybkością. Co ważne, taki przebieg procesów analizy twarzy charakteryzuje niemal wszystkich ludzi, niezależnie od ich doświadczeń indywidualnych. Z tak powszechnie spotykaną wyjątkową efektywnością przetwarzania nie mamy do czynienia w przypadku jakiegokolwiek innego obiektu. Może to oznaczać, iż mechanizm przetwarzania twarzy jest istotnie różny od wykorzystywanego w odniesieniu do pozostałych obiektów wzrokowych. Teza ta zakłada więc, że w przypadku twarzy oraz obiektów, które twarzami nie są, wykorzystujemy jakościowo różne mechanizmy przetwarzania, a także, jak wielu badaczy sądzi, mamy do czynienia z anatomicznie rozdzielonymi częściami systemu wzrokowego wyspecjalizowanymi w analizie percepcyjnej tych dwóch klas obiektów. Argumentami świadczącymi o prawdziwości tej tezy są obserwacje skutków specyficznych uszkodzeń mózgu, odmienne wzorce rozwoju funkcji percepcyjnych rejestrowane w odniesieniu do obu kategorii obiektów oraz liczne różnorodne wyniki badań eksperymentalnych, obejmujące zarówno prace wykorzystujące wskaźniki behawioralne, jak i techniki pomiaru aktywności systemu nerwowego u ludzi i innych naczelnych. Wszystkie te dane sugerują, że przetwarzanie twarzy rzeczywiście angażuje odmienny mechanizm poznawczy, posiada specyficzne podłoże mózgowe oraz w dużej części jest zdolnością obserwowaną od urodzenia. 1.1. W jakim stopniu twarz jest obiektem specjalnym? Jeśli przedstawiona powyżej teza o wyjątkowości mechanizmu przetwarzania twarzy jest prawdziwa, powinniśmy oczekiwać, iż sposób, w jaki jest ona przetwarzana, różni się istotnie od procesów analizy danych wzrokowych uzyskiwanych w przypadku innych obiektów. Ponadto teza ta zakładała odmienne podłoże mózgowe dla procesów analizy obu kategorii obiektów. W tym kontekście często wskazuje się na zróżnicowanie w skutkach uszkodzeń systemu nerwowego. 1.1.1. Skutki uszkodzeń mózgu Niezależnie od przyczyny uszkodzenia mózgu, miejsca lokalizacji tego uszkodzenia oraz jego wielkości możemy oczekiwać, iż funkcjonowanie pacjenta, u którego doszło do powstania zaburzenia, będą charakteryzowały specyfi czne zmiany w porównaniu z osobami zdrowymi (Walsh, 2001; Herzyk, 2005; Darby i Walsh, 2008). Nie zawsze zmiany te są widoczne w sposób wyraźny w codziennym funkcjonowaniu1, lecz zazwyczaj istnieje możliwość dokładnego opisu skutków uszkodzenia poprzez zastosowanie precyzyjnych metod badawczych. W przypadku jednak uszkodzeń zlokalizowanych w obrębie systemu wzrokowego defi cyt nie może nie zostać zarejestrowany w życiu codziennym. Rola, jaką system ten pełni u naczelnych, jest tak duża, że w zasadzie każde uszkodzenie tego układu prowadzi do obserwowalnych deficytów. Charakterystyka tych deficytów jest jednak za-leżna od miejsca uszkodzenia (Walsh, 2001; Herzyk, 2005; Darby i Walsh, 2008). W kontekście problemu rozważanego w tej części pracy istotne jest rozróżnienie dwóch grup takich zaburzeń. Jednym z nich jest deficyt polegający na niezdol-ności do rozpoznawania tożsamości twarzy pojawiający się w wyniku uszkodzeń zlokalizowanych w brzusznej części kory potyliczno-skroniowej. Zaburzenie to, określane nazwą prozopagnozja, zostało pierwszy raz opisane w połowie XIX wieku (Wigan, 1844 za: Mayer i Rossion, 2007). Jednak pomimo iż podobnych opisów przypadków pojawiało się całkiem sporo w następnych dziesięcioleciach (Grüsser i Landis, 1991), dopiero Hoff i Pötzl (1937, za: Mayer i Rossion, 2007) zaczęli odróżniać defi cyty związane z rozpoznawaniem twarzy od innych form agnozji wzrokowej. Dziesięć lat później Bodamer (1947, za: Mayer i Rossion, 2007) wprowadził określenie „prozopagnozja” do terminologii neuropsychologicznej. W przypadku tego zaburzenia niezdolność do identyfikacji twarzy pojawia się pomimo braku poważniejszych deficytów w analizie sensorycznej danych wzrokowych. Pacjenci są także w stanie stosunkowo poprawnie różnicować szczegóły obiektów, nie mając znaczących problemów z czytaniem (zob. jednak Barton i in., 2004). Jednocześnie nie wykazują oni również większych problemów z rozpoznawaniem bodźców innych niż twarze. Ponadto zaburzenie to nie wynika z defi cy-tów pamięciowych, gdyż osoby dotknięte tym zaburzeniem są w stanie podawać szczegółowe dane biograficzne dotyczące znanych im osób. Dysfunkcje obserwowane u takich pacjentów nie mają także charakteru zaburzeń psychicznych. Co więcej, pacjenci potrafią rozpoznawać inne osoby, posługując się wskazówkami w postaci charakterystycznego brzmienia głosu, cech ubioru lub sylwetki, a czasami nawet na podstawie specyficznych cech twarzy, takich jak blizny, wąsy czy znamiona (Hecaen i Angelergues, 1962; zob. także Walsh, 2001; Jaśkowski, 2009). 1 Przykładem braku zmian w codziennym funkcjonowaniu mogą być pacjenci po komisurotomii (przecięciu spoidła wielkiego). Zmiany w przebiegu licznych procesów psychicznych w porównaniu z osobami zdrowymi zostały w przypadku tej grupy osób opisane dopiero po dokładnym ich przebadaniu w warunkach laboratoryjnych. Oczywiście współwystępowanie innych deficytów jest zależne od wielkości lezji. Opisano przypadki pacjentów, u których oprócz problemów z rozpoznawaniem twarzy zanotowano także deficyty w orientacji przestrzennej i trudności w rozpoznawaniu znajomych miejsc (Habib i Sirigu, 1987), aleksję, czyli defi cyty czytania (Farah, 1990) lub problemy z rozpoznawaniem niektórych obiektów (Clarke i in., 1997; Gauthier, Behrmann i Tarr, 1999). W formie czystej prozopagnozja jest więc niezwykle rzadkim zaburzeniem, lecz opisywane są również takie przypadki (de Gelder i Rouw, 2000; Farah, Levinson i Klein, 1995; Henke i in., 1998; Whiteley i Warrington, 1977; Rossion i in., 2003; Schiltz i in., 2006). Obraz prozopagnozji ponadto komplikuje fakt, że w literaturze przedmiotu (de Renzi i in., 1991) wyróżnia się przynajmniej dwa podtypy tego zaburzenia określane jako prozopagnozja apercepcyjna (apperceptive) oraz asocjacyjna (associative). W drugim przypadku zaburzenie dotyczy głównie procesu identyfi -kacji tożsamości twarzy, podczas gdy prozopagnozja apercepcyjna ma charakter cięższego zaburzenia, w którym pacjent jest niezdolny nawet do określenia, czy dwie spostrzegane twarze są różne, czy też nie. Niezależnie jednak od zmienności obserwowanej wśród pacjentów oraz kontrowersji wokół dokładnej charakterystyki samego zaburzenia wskazuje się, iż osiowym objawem w tym przypadku jest niezdolność do określania tożsamości widzianych twarzy. Przeciwstawiane jest to innym formom agnozji wzrokowych, w przypadku których niezdolność do prawidłowego rozpoznawania najróżniejszych obiektów za pomocą wzroku współwystępuje z zachowaną zdolnością do identyfikowania twarzy (Moscovitch, Winocur i Behrmann, 1997; Farah, 1996; Farah, Wilson, Drain i Tanaka, 1995; Feinberg i in., 1994). Samo występowanie takiej podwójnej dysocjacji pozwala sądzić, iż przynajmniej w części procesy związane z analizą twarzy oraz innych niż twarze obiektów są odmienne. Ze względu na fakt, iż jednoznaczne określenie różnic w lokalizacji uszkodzeń mózgu wśród pacjentów z prozopagnozją i zachowaną zdolnością do różnicowania innych bodźców oraz pacjentów z agnozją wzrokową, ale zachowaną umiejętnością identyfikacji tożsamości twarzy, nie jest niestety możliwe, trudno stwierdzić na tej podstawie, w jakim stopniu mamy do czynienia z odrębnymi anatomicznie systemami neuronalnymi. Do podobnych wniosków prowadzą też obserwacje skutków uszkodzeń systemu nerwowego pojawiające się na wczesnych etapach życia. Zazwyczaj wskazuje się, iż układ nerwowy charakteryzuje wysoki stopień plastyczności obserwowany przynajmniej przez kilka pierwszych lat życia (Gazzaniga, 1997; Kossut, 2011). Z tego względu obserwuje się często wysoki stopień przywrócenia funkcji utraconych w wyniku lezji mózgu powstałej w dzieciństwie (Szeląg, 2011). Dotyczy to również percepcji wzrokowej (Payne, Lomber, MacNeil i Cornwell, 1996). Wyjątkiem od tej reguły wydaje się przetwarzanie twarzy. Martha Farah i jej współpracownicy (2000) opisali przypadek chłopca, u którego uszkodzenie mózgu powstało w pierwszym dniu życia w wyniku zakażenia bakteryjnego i obejmowało rozległe obszary kory potylicznej oraz skroniowo-potylicznej po obu stronach mózgu. W testach w wieku 16 lat chłopiec wykazywał głębokie deficyty w zakresie rozpoznawania twarzy, lecz jednocześnie bez większych problemów identyfikował inne obiekty. Według autorów badania wskazuje to na wysoki stopień plastyczności kory wzrokowej, która poprzez wieloletnią stymulację jest w stanie zreorganizować się w stopniu umożliwiającym niemal normalną percepcję większości bodźców wzrokowych. Jednak uzyskane rezultaty sugerują, iż mechanizm przetwarzania twarzy wymaga aktywności określonej części kory wzrokowej, co przy lezji tego obszaru prowadzi do głębokich dysfunkcji w zakresie percepcji twarzy. Dodatkowo autorzy wysunęli przypuszczenie, iż lokalizacja ośrodka wyspecjalizowanego w przetwarzaniu twarzy ma charakter wrodzony. Tym samym nie jest możliwa taka reorganizacja struktur systemu wzrokowego, by inną część kory wzrokowej wykorzystywać w procesach przetwarzania twarzy. Do podobnych wniosków prowadzą też wyniki obserwacji skutków uszkodzenia mózgu u dziewczynki cierpiącej na prozopagnozję, powstałego u dziecka w wieku 14 miesięcy (Young i Ellis, 1989), oraz badania grupy dzieci z uszkodzeniami lewej i prawej półkuli powstałymi przy ich urodzeniu (Mancini i in., 1994). Jednak nawet przy braku uszkodzeń kory mózgowej możliwe jest powstanie głębokich deficytów w zakresie percepcji twarzy. Wydaje się bowiem, iż normalne funkcjonowanie mózgowego systemu przetwarzania twarzy wymaga również jego normalnej stymulacji we wczesnych fazach życia. Do takich wniosków prowadzą wyniki badań osób, u których doszło w okresie niemowlęcym do kilkumiesięcznej deprywacji systemu wzrokowego spowodowanej ciężkimi przypadkami katarakty (Geldart i in., 2002; Le Grand i in., 2001). Wymienione powyżej rezultaty badań sugerują, podobnie jak obserwacje pacjentów z prozopagnozją, istnienie wyspecjalizowanej części systemu wzrokowego, którego rolą jest przetwarzanie twarzy. Ponadto wskazuje się na fakt, iż system ten może być aktywny od urodzenia lub jego ścisła mózgowa lokalizacja jest genetycznie uwarunkowana. Stymulacja tego systemu we wczesnych fazach życia jest niezbędna do jego normalnego funkcjonowania. Teza zgodna jest również z wynikami badań prowadzonych na pacjentach z prozopagnozją rozwojową. Ta forma prozopagnozji nazywana jest w odmienny sposób przez różnych badaczy. Używane są takie terminy, jak prozopagnozja rozwojowa (developmental) lub wrodzona (congenital). Niezależnie jednak od różnic w nazewnictwie mowa jest o zaburzeniu rozpoznawania tożsamości twarzy, w którym, w przeciwieństwie do nabytej formy prozopagnozji, źródłem dysfunkcji nie jest ogniskowe uszkodzenie mózgu. Deficyt ten nie jest również wynikiem wczesnej deprywacji systemu nerwowego (Geldart i in., 2002). Pacjenci, u których stwierdza się prozopagnozję rozwojową, wykazują trudności w rozpoznawaniu tożsamości twarzy o podobnej charakterystyce jak te będące wynikiem lezji kory wzrokowej. Przypadki osób dotkniętych prozopagnozją rozwojową są jednak bardzo często blisko z sobą spokrewnione (Behrmann i Avidan, 2005). Wskazywać to może, iż pierwotną przyczyną zaburzenia jest genetycznie uwarunkowana dysfunkcja kory wzrokowej. Cechą charakterystyczną przynajmniej dla niektórych pacjentów z prozopagnozją rozwojową są obserwowane u nich trudności w przetwarzaniu bodźców na poziomie globalnym. Może to oznaczać, że trudności w rozpoznawaniu twarzy są wtórne do deficytów w odniesieniu do przetwarzania relacji przestrzennych (Behrmann i Avidan, 2005). Jednakże nie wszyscy pacjenci wykazują takie problemy, stąd niejasności co do obrazu samego zaburzenia oraz jego bezpośredniej przyczyny (Duchaine, 2000; Duchaine i in., 2003). 1.1.2. Obserwacje zachowań noworodków i niemowląt Do zbliżonych wniosków prowadzą także obserwacje zachowań noworodków i niemowląt, które od momentu urodzenia wykazują dużo większe zainteresowanie twarzami w porównaniu z innymi obiektami. W tym przypadku zazwyczaj badania wykorzystują, ze zrozumiałych względów, wskaźniki behawioralne, takie jak długość fiksacji wzroku na obiekcie lub wielkość zmiany pozycji głowy albo oczu. Wyniki tych badań sugerują, że już noworodki w większym stopniu podążają wzrokiem (lub dokonują zmiany położenia głowy) w przypadku ekspozycji schematycznych twarzy w porównaniu z obrazami nieprzypominającymi twarzy (Goren, Sarty i Wu, 1975; Johnson, Dziurawiec, Ellis i Morton, 1992; Morton i Johnson, 1991; Valenza, Simion, Macchi Cassia i Umiltà, 1996). Wykazano też dłuższe czasy fiksacji wzroku noworodków na twarzach z normalnym układem elementów w porównaniu z twarzami, których układ części był nieprawidłowy (Macchi Cassia, Turati i Simion, 2004). Badania Teresy Farroni sugerują ponadto, iż pięciodniowe noworodki są w stanie różnicować kierunek spojrzenia na fotografii twarzy. Obserwowano bowiem większą liczbę fiksacji oraz dłuższy ich czas w przypadku twarzy ze wzrokiem skierowanym na wprost w porównaniu z twarzami „patrzącymi” w bok (Farroni i in., 2002). Wyniki te były interpretowane jako dowód wcześnie pojawiającej się w trakcie życia zdolności do analizowania twarzy. Wykazano jednak, iż warunkiem wystarczającym do wywołania dużego zainteresowania noworodków jest ulokowanie większej liczby elementów o dużym kontraście w górnej części wzorca przypominającego twarz (Macchi Cassia, Tu-rati i Simion, 2004). Co ważne, tak spreparowana „twarz” wywołuje porównywalne reakcje maluchów do twarzy normalnie zbudowanej, a jednocześnie istotnie nasilone w porównaniu z twarzą, w której większa liczba identycznych elementów została umieszczona w dolnej części. Podobne rezultaty uzyskiwano, stosując bodźce zupełnie nieprzypominające twarzy, lecz spełniające kryterium większej liczby elementów w górnej części obiektu (Valenza i in., 1996; Turati i in., 2002). W badaniach Farroni i jej grupy (2005) uzyskiwano podobne wyniki, manipulu-jąc oświetleniem twarzy. Wykazano, iż twarz oświetlona wydatniej w górnej części, co powoduje pojawienie się różnicy w sile kontrastu między elementami twarzy na korzyść górnej części, wywołuje silniejsze zainteresowanie noworodków w porównaniu z twarzą mocniej oświetloną w części dolnej. Nie jest więc jasne, co wywołuje specyficzne reakcje noworodków. Istnieje możliwość, że w tak wczesnej fazie rozwoju system nerwowy klasyfi kuje obiekty według bardzo niedoskonałych kryteriów. Z tego powodu również obiekty, które kryteria te spełniają, pomimo iż w rzeczywistości twarzami nie są, mogą wywoływać podobnie silne reakcje. Sugerowałoby to jednak, iż system ten, stosując terminologię z teorii detekcji sygnału, ma raczej tendencję do wywoływania fałszywych alarmów niż ominięć. Wskazywałoby to również, jak bardzo istotne jest spostrzeżenie twarzy dla noworodków. Przyczyną mogłaby być wrodzona tendencja do nawiązywania kontaktu z innymi osobami, która stanowiłaby specyficzne przystosowanie niezdolnych do samodzielnego funkcjonowania ludzkich noworodków. W momencie nawiązania kontaktu wzrokowego możliwe byłoby wówczas oddziaływanie na osobę dorosłą dzięki specyficznej budowie twarzy noworodków. Jak sugerowali w swoich pracach etologowie, dziecięca twarz jest zbudowana odmiennie od twarzy dorosłych, co może stanowić specyfi czny sygnał dla opiekunów dziecka skłaniający ich do zaopiekowania się dzieckiem (Eibl-Eibesfeldt, 1987; Lorenz, 2003). Innym ważnym problemem jest źródło rezultatów obserwowanych u noworodków i niemowląt. W literaturze przedmiotu można się natknąć na trzy odmienne stanowiska. We wszystkich przypadkach autorzy zgadzają się co do tego, iż twarze, w porównaniu z innymi obiektami, są od momentu urodzenia bodźcami wywołującymi silniejsze reakcje. W koncepcji Mortona i Johnsona (1991) sugerowano, iż podłożem szybko przejawianej u noworodków zdolności do specyficznego reagowania na twarze jest aktywność struktur podkorowych, które wyróżniając twarze spośród innych obiektów, kierują na nie uwagę noworodków. Układu tego nazwanego przez autorów CONSPEC nie należy traktować jako systemu zdolnego do złożonego przetwarzania twarzy. System ten, jak twierdzą Morton i Johnson, kieruje się relatywnie niedoskonałymi kryteriami klasyfikacji twarzy. Dopiero dojrzewający około drugiego miesiąca życia system korowy (nazwany CONLEARN) jest zdolny do subtelnego różnicowania twarzy oraz tworzenia ich reprezentacji umożliwiających proces uczenia się. Istnienie dwóch odmiennie działających układów sugerowano w związku z obserwowanymi u dzieci zmianami we wrażliwości na prezentację twarzy. Jak podają Morton i Johnson, w pierwszym miesiącu życia można rejestrować zauważalne zróżnicowane reakcje noworodków w odpowiedzi na ekspozycję twarzy oraz obiektów ich nieprzypominających. Jednak pomiędzy ukończeniem pierwszego i drugiego miesiąca dochodzi do wyraźnego osłabienia tej tendencji, by ponownie ją obserwować około trzeciego miesiąca życia. Stąd sugestia, iż system CONSPEC jest odpowiedzialny za wczesny efekt uzyskiwany po urodzeniu, natomiast CONLEARN za ponowne pojawienie się różnicy w reakcjach na twarze i inne bodźce notowane trzy miesiące później. Odmienne stanowisko zajmuje Martha Farah (Farah i in., 2000). Odrzuca ona propozycję, iż ważną rolę w procesach przetwarzania twarzy pełni w pierwszych dwóch miesiącach życia grupa struktur podkorowych. Jej ujęcie zakłada, iż w całości procesy związane z percepcją twarzy od momentu urodzenia mają podłoże korowe. Co więcej, sugeruje ona, iż mózgowa lokalizacja obszaru specjalizującego się w przetwarzaniu twarzy jest zapisana w genotypie. Podstawą takiego ujęcia są, między innymi, wyniki obserwacji skutków uszkodzeń kory wzrokowej powsta-łych na wczesnych etapach życia. Autorka sugeruje także, iż wyspecjalizowana w procesach percepcji część systemu wzrokowego jest, podobnie jak reszta tego systemu, niedojrzała w momencie urodzenia. W rezultacie można obserwować niezbyt wysoki poziom precyzji w procesie detekcji twarzy. Po kilku miesiącach, gdy całość kory wzrokowej stanie się lepiej rozwinięta, rejestruje się wzrost skuteczności systemu rozpoznającego twarze. Jeszcze inne stanowisko zajmuje Nelson (2001), który uważa, że w pierwszej fazie życia system rozpoznawania twarzy nie jest wyspecjalizowany. Co więcej, autor sugeruje, iż trudno jednoznacznie stwierdzić ścisłą lokalizację mózgową tego systemu oraz precyzyjnie opisać sposób jego funkcjonowania w momencie urodzenia. Wydaje się także, że wiele różnych rodzajów bodźców, w tym również twarze, może wywoływać wyraźne reakcje noworodków, jak wskazują liczne badania (Macchi Cassia i in., 2004; Farroni i in., 2005; Valenza i in., 1996; Turati i in., 2002). Stąd wniosek, iż cały system wzrokowy, który jest wysoce niedojrza-ły, ma raczej potencjalną możliwość specjalizacji. Szczególnie widoczne może to być w odniesieniu do systemu w dorosłym życiu wykorzystywanego do przetwarzania twarzy. Wykazując więc potencjalną zdolność do specjalizacji, system ten jest kształtowany poprzez doświadczenie. W pierwszych miesiącach życia system wzrokowy ma według Nelsona zdolność do rozpoznawania szerokiego spektrum różnych twarzy. Stopniowo zdolność ta jest zawężana do zbioru twarzy, z którymi dziecko ma częstszy kontakt. Sugestie te są zgodne z wynikami badań eksperymentalnych. Wiele bowiem wskazuje na to, iż pierwotna nadwrażliwość systemu nerwowego ludzkich noworodków i niemowląt na bodźce przypominające twarze ulega ściśle określonym zmianom rozwojowym. Począwszy od momentu urodzenia, gdy niedojrzały system nerwowy noworodka nie jest w stanie precyzyjnie odwzorować złożoności ludzkiej twarzy, rozpoczyna się proces gwałtownego rozwoju układu wzrokowego. Szybko narastająca liczba połączeń pozwala w krótkim czasie uzyskać wysoką efektywność działania kory wzrokowej oraz znajdujących się w jej obrębie struktur wyspecjalizowanych w przetwarzaniu twarzy. W rezultacie około piątego–szóstego miesiąca życia niemowlęta przejawiają dość zaskakujące zdolności w zakresie rozpoznawania twarzy. Jak bowiem wynika z badań Pascalisa i jego współpracowników (Pascalis, de Haan i Nelson, 2002; Pascalis i in., 2005), dzieci w tym wieku różnicują twarze zarówno ludzkie, jak i należące do innych gatunków naczelnych. Uzyskiwane w badaniach rezultaty sugerują, że zdolność ta zanika pomiędzy szóstym a dziewiątym miesiącem życia. Zjawisko to znane pod nazwą efektu innego gatunku (other species eff ect) może być także obserwowane w przypadku młodych innych naczelnych (Dufour, Pascalis i Petit, 2006). Podobny rezultat można obserwować w późniejszej fazie rozwoju w odniesieniu do przedstawicieli innej rasy (other race eff ect). Polega on na wyższej efektywności rozpoznawania osób nale-żących do tej samej rasy, co osoba badana, w porównaniu z przedstawicielami ras pozostałych (Golby i in., 2001; Michel i in., 2006; Michel, Caldara i Rossion, 2006; Walker i Tanaka, 2003; Turk, Handy i Gazzaniga; 2005). Podsumowując, wszystkie trzy stanowiska zakładają, że noworodki przejawiają specyficzną tendencję do silniejszego reagowania w odpowiedzi na twarze w porównaniu z każdą inną kategorią bodźców wzrokowych. We wszystkich przypadkach podkreśla się również istotną rolę kontaktu z twarzami, co stymuluje rozwój systemu rozpoznawania twarzy. Różnice pomiędzy propozycjami teoretycznymi Mortona i Johnsona (1991), Farah (Farah i in., 2000) oraz Nelsona (2001) dotyczą problemu umiejscowienia oraz charakterystyki mózgowego podłoża rezultatów obserwowanych eksperymentalnie. 1.1.3. Dane behawioralne i psychofizjologiczne zebrane u dorosłych Wyjątkowość procesów przetwarzania twarzy potwierdzona jest również obserwacjami skutków specyficznych manipulacji eksperymentalnych, takich jak inwersja twarzy. Efekt ten polega na istotnym spadku skuteczności rozpoznawania twarzy w przypadku, gdy jest ona eksponowana w pozycji inwertowanej, czyli odwrócona „do góry nogami”, w porównaniu z jej normalną prezentacją. Od czasu klasycznej pracy Yina (1969) nazywany jest on efektem inwersji twarzy (face in-version eff ect). W przypadku jednak obiektów innych niż twarze nie obserwuje się podobnej zmiany we wskaźnikach behawioralnych. Na tej podstawie sądzi się, iż procesy przetwarzania twarzy różnią się od analizy innych obiektów. Aby mechanizm percepcyjny wyspecjalizowany w analizie twarzy mógł działać efektywnie, konieczne wydaje się spostrzeganie twarzy w jej normalnej pozycji. Warto w tym miejscu wspomnieć, iż efekt inwersji twarzy ma odmienny charakter w przypadku pacjentów z uszkodzeniami ośrodków wzrokowych. Osoby, u których stwierdzono agnozje wzrokowe przy zachowanej zdolności do rozpoznawania twarzy, prezentują normalny efekt inwersji twarzy (Moscovitch, Wino-cur i Behrmann, 1997). W przeciwieństwie do nich pacjenci ze zdiagnozowaną prozopagnozją rozpoznają twarze inwertowane podobnie jak twarze eksponowane w normalnej pozycji, uzyskując czasem nawet lepsze rezultaty w pierwszym przypadku (Farah, Wilson, Drain i Tanaka, 1995; de Gelder i Rouw, 2000). Zjawisko to zostanie przedstawione również w kolejnych rozdziałach. Na różnice w procesie przetwarzania twarzy oraz obiektów, które twarzami nie są, wskazują również badania wykorzystujące różnorodne techniki pomiaru aktywności mózgu. Zarówno bowiem rezultaty eksperymentów z zastosowaniem podkorowej rejestracji aktywności neuronów w mózgu makaków lub pacjentów przygotowywanych do operacji neurochirurgicznych, jak i wykorzystujących nieinwazyjne metody neuroobrazowania: funkcjonalny rezonans magnetyczny (fMRI) lub tomografię pozytronową (PET) albo rejestrację EEG, pozwalają sądzić, iż w obrębie kory wzrokowej zlokalizowana jest grupa struktur specyfi cznie aktywowanych przez twarze. Krótki przegląd tych badań zostanie przedstawiony w kolejnych rozdziałach. W tym miejscu należy zaznaczyć, że na podstawie uzyskiwanych danych można stwierdzić, iż wzorce aktywności systemu wzrokowego wywoływane przez ekspozycję twarzy oraz innych niż twarze obiektów są istotnie różne. Ponadto ośrodki mózgowe, które w specyficzny sposób są angażowane w przetwarzanie twarzy, są w dużym stopniu anatomicznie odrębne od struktur analizujących pozostałe rodzaje bodźców wzrokowych. Podsumowując, można stwierdzić, iż istnieje wiele przesłanek sugerujących, że twarze stanowią specjalną klasę bodźców wzrokowych. Ich analiza angażuje system poznawczy odmiennie, niż ma to miejsce w przypadku innych rodzajów obiektów. Dane uzyskiwane w badaniach pacjentów z ogniskowymi uszkodzeniami ośrodków wzrokowych i przejawiającymi zróżnicowane formy deficytów w zakresie analizy i rozpoznawania bodźców wzrokowych wskazują ponadto, iż różnica ta dotyczy także procesów mózgowych oraz lokalizacji struktur mózgu specyfi cz-nie wiązanych z przetwarzaniem twarzy oraz obiektów innych niż twarze. Jak zostanie to przedstawione w kolejnych rozdziałach, również dane uzyskiwane w eksperymentach z udziałem osób zdrowych prowadzą do podobnych wniosków. Biorąc jednak po uwagę również to, że procesy przetwarzania twarzy cechuje wysoki poziom komplikacji, co jest związane z różnorodnością informacji uzyskiwanych w trakcie jej analizy, nie należy oczekiwać, że za całość tych procesów odpowiadać będzie aktywność jednego obszaru mózgu. Należy się również spodziewać, iż procesy analizy cech względnie stałych, takich jak płeć, wiek, rasa i tożsamość, będą przebiegać inaczej niż w przypadku tych charakterystyk, które mogą ulegać zmianie w krótkim czasie. Mowa tu oczywiście o ruchach poszczególnych elementów twarzy podczas okazywania ekspresji mimicznej lub komunikowania się werbalnego. Takie rozróżnienie pojawia się we wszystkich modelach teoretycznych dotyczących procesów przetwarzania twarzy. Konieczne wydaje się więc zapoznanie czytelnika z propozycjami teoretycznymi odnoszącymi się do procesów przetwarzania twarzy. Rozdział 2 Teoretyczne modele procesów przetwarzania twarzy Wśród modeli teoretycznych dotyczących procesu przetwarzania twarzy najczęściej wymieniane są propozycje Vicky Bruce i Andy Younga (1986) oraz Jamesa Haxby’ego i jego współpracowników (Haxby, Hoffman, Gobbini, 2000; 2002). Nie są to jedyne koncepcje odnoszące się do tego zjawiska, lecz z pewnością najbardziej rozbudowane i kompletne. Te więc propozycje teoretyczne zyskały duży rozgłos i w największym stopniu wpłynęły na rozwój badań nad procesami przetwarzania twarzy. Ich uzupełnieniem może być koncepcja przetwarzania konfi gu-racyjnego (confi gural processing) zaproponowana przez Daphne Maurer, Richarda Le Granda i Catherine Mondloch (2002). Model zaproponowany przez Bruce i Younga, określany zresztą przez samych autorów mianem modelu funkcjonalnego, powstał na podstawie analizy danych uzyskiwanych w eksperymentach behawioralnych oraz obserwacji zachowań pacjentów z różnymi rodzajami uszkodzeń ośrodkowego układu nerwowego. Zadanie, jakie postawili przed sobą jego autorzy, dotyczyło przede wszystkim wyod-rębnienia szeregu procesów uwikłanych w przetwarzanie twarzy, ze szczególnym uwzględnieniem tych procesów, które umożliwiają rozpoznanie tożsamości. W mniejszym stopniu model ten dotyczy przetwarzania informacji o zmianach ekspresji mimicznej oraz ruchu ust, związanego z werbalizacją. Model ten był następnie rozwijany, ulegając pewnym modyfikacjom, przez kilka niezależnych grup badaczy (Schweinberger i Burton, 2003; Breen, Caine i Coltheart, 2000; Ellis i Lewis, 2001; Ellis, 2007). Propozycja Jamesa Haxby’ego oparta została głównie na analizie wyników eksperymentów przeprowadzanych na naczelnych oraz badań fi zjologicznych z udziałem ludzi, wykorzystujących różne techniki pomiaru aktywności układu nerwowego. W modelu tym uwzględniono również dane zebrane w badaniach pacjentów z ogniskowymi uszkodzeniami układu nerwowego, przede wszystkim w obrębie układu wzrokowego. Z tej przyczyny opis procesów przetwarzania twarzy opracowany przez Haxby’ego i jego współpracowników zakłada wyróżnienie odrębnych anatomicznie części systemu wzrokowego angażowanych w analizę poszczególnych cech twarzy, istotnych między innymi w trakcie rozpoznawania tożsamości widzianych osób czy rozróżniania ekspresji emocjonalnych uwidacznianych na twarzy. 2.1. Model Bruce i Younga W swojej propozycji teoretycznej Bruce i Young (1986) założyli, iż analiza percepcyjna twarzy obejmuje liczne procesy o swoistym układzie hierarchicznym, ma-jące różny przebieg i będące częściowo procesami niezależnymi. Według autorów każdy z wyróżnionych ciągów procesów prowadzi do uzyskania specyfi cznych informacji o obserwowanym obiekcie, takich jak informacja o tożsamości lub stanie emocjonalnym. Początkowa faza przetwarzania twarzy ma w świetle tego modelu postać analizy strukturalnej twarzy (structural encoding), której celem jest uzyskanie danych o konfiguracji poszczególnych elementów twarzy, takich jak kolorystyka i wygląd skóry w różnych częściach twarzy, kształt oczu, ust czy też kształt samego owalu twarzy. Ponadto, w ramach tego samego etapu analizy, określane są wzajemne relacje pomiędzy poszczególnymi elementami. Ten rodzaj informacji uwzględnia również różnice w sposobie ekspozycji twarzy przykładowo związane z odmiennym oświetleniem obiektu czy też zmianą kąta, pod jakim widzimy twarz. Wszystkie informacje uzyskane w tej fazie przetwarzania twarzy mają umożliwiać analizę obiektu w kolejnych etapach, stanowiąc swoisty punkt wyjścia dla procesów dla nich charakterystycznych. Faza ta jest poprzedzona wstępną analizą obrazu bodźca, w której charakterystyki twarzy są przetwarzane zależnie od sposobu jej prezentacji (kąt, pod jakim twarz jest widziana, oświetlenie twarzy itp.). W kolejnej fazie niezależnie określane są charakterystyki twarzy umożliwia-jące rozpoznanie tożsamości twarzy, prezentowanej ekspresji mimicznej, specyficznych ruchów ust pojawiających się w związku z werbalizacją lub też ukierunkowania gałek ocznych. W tym ostatnim przypadku zakłada się związek ukierunkowania gałek ocznych z jednoczesną alokacją uwagi w przestrzeni, co umożliwia określenie, w jaką część tej przestrzeni obserwowana osoba skierowała uwagę. To z kolei może być przesłanką do wnioskowania o tym, jakie obiekty są dla tej osoby w danym momencie istotne. Ważną cechą wszystkich procesów wymienionych powyżej, jak zakłada się w modelu Bruce i Younga, jest to, iż procesy te są względnie niezależne i przebiegają równolegle. Oznacza to, że analiza związana z określaniem cech indywidualnych twarzy i prowadząca do identyfikacji tożsamości jej właściciela (face recognition) przebiega równolegle do procesów oceny zmian w charakterystyce relacji pomiędzy poszczególnymi częściami twarzy, prowadzących do identyfi kacji jej ekspresji mimicznej (expression analysis). W rezultacie możliwe jest więc rozpoznanie tożsamości określonej osoby niezależnie od pojawiających się chwilowo zmian w ułożeniu poszczególnych elementów twarzy, gdy osoba, na którą patrzymy, komunikuje nam swój stan emocjonalny poprzez ekspresję mimiczną. Z kolei umożliwia to identyfikację konkretnego stanu emocjonalnego (np. radości) u często różnych osób, których twarz posiada odmienne cechy indywidualne. Podobna sytuacja zachodzi w odniesieniu do procesów uwikłanych w rozpoznawanie tożsamości oraz procesów umożliwiających identyfikację ruchów ust, związanych z nadawaniem komunikatów werbalnych. W rezultacie, niezależnie od indywidualnej budowy poszczególnych twarzy różnych osób, możliwe jest określenie, jaka zmiana w ułożeniu ust ma miejsce w danym momencie, co wspomaga odczytywanie mowy. Bruce i Young podkreślają, iż w przypadku każdej z faz przetwarzania twarzy możliwe jest wyróżnienie specyficznych efektów eksperymentalnych. Przykłado-wo, różnica między etapem wstępnej analizy obrazu oraz etapem analizy strukturalnej jest wiązana z dwoma rodzajami informacji uzyskiwanej w przypadku każdego z nich. Bruce i Young określają je mianem kodów, przy czym dla etapu wstępnej analizy obrazu używają terminu kod obrazowy (pictorial code), natomiast etap analizy strukturalnej skutkuje uzyskaniem danych określanych jako kod strukturalny (structural code). Różnica między tymi dwoma rodzajami informacji może być zobrazowana empirycznie. Okazuje się, że poziom wykonania zadania, polegającego na zapamiętywaniu twarzy osób nieznanych badanemu, zależy od sposobu prezentacji bodźców w fazie uczenia oraz fazie testowej. Poziom ten jest wyraźnie niższy, jeśli dwa zdjęcia, przedstawiające tę samą osobę, różnią się kątem, pod jakim fotografi a została wykonana, oraz rodzajem prezentowanej ekspresji, w porównaniu z warunkami, w których zastosowano w obu częściach badania te same zdjęcia (Bruce, 1982). Co ciekawe, mniejsze problemy obserwowano, jeśli zmianie ulegała tylko jedna z kluczowych charakterystyk zdjęcia (profil lub ekspresja). Podobny wynik można również zaobserwować dla twarzy osób znanych badanemu. Na tej podstawie Bruce i Young zakładają, iż kod strukturalny stanowi abstrakcyjna reprezentacja relacji pomiędzy elementami twarzy, która może być wykorzystywana przy rozpoznawaniu twarzy niezależnie od sposobu, w jaki jest ona przedstawiana. Wskazują przy tym na wyniki badań grupy Perretta (Perrett, Rolls i Caan, 1982; Perrett i in., 1984; 1985), w których uzyskano dane sugerujące istnienie w obrębie kory skroniowej makaków neuronów wrażliwych na tożsamość twarzy. Co ważne, część z tych neuronów reagowała różnie na tę samą twarz, co było związane z odmiennym sposobem ekspozycji twarzy (zmiana profi lu). Inna jednak grupa komórek wykazywała bardzo podobne wzorce pobudzenia nieza-leżnie od tego, jak dana twarz była prezentowana. Bruce i Young twierdzili również, iż ten rodzaj kodów dla twarzy dobrze nam znanych oraz całkowicie nieznanych funkcjonuje w różny sposób. W przypadku twarzy dobrze nam znanych możemy podać wiele informacji o tej osobie, w tym również stwierdzić jej tożsamość. Nie oznacza to, iż dla twarzy nieznanych nie możemy podać żadnych informacji. Każda bowiem z zupełnie nieznanych nam twarzy może zostać opisana w odniesieniu do takich cech, jak płeć, wiek, rasa, poziom atrakcyjności, a nawet tak specyficznych, jak poziom inteligencji czy poziom zaufania. Ten rodzaj informacji jest określany w modelu Bruce i Younga jako kod semantyczny obrazowy (visually derived semantic code). Taki sposób oceny innych pomaga między innymi w zapamiętywaniu twarzy (Klatzky, Martin i Kane, 1982a; 1982b). Jeśli jednak osoba jest nam chociaż trochę znajoma, to możemy również dodać informacje o miejscu lub czasie, gdzie osobę tę spotkaliśmy, zawodzie tej osoby lub grupie jej znajomych. Ten rodzaj informacji nazwany został kodem semantycznym tożsamościowym (identity-specific semantic code). Wszystkie te rodzaje informacji mogą się odnosić do grup osób. Indywidualną informacją jest wyłącznie kod tożsamości (name code). Autorzy modelu powołują się przy tym na wiele danych eksperymentalnych wskazujących na słuszność wyróżnienia wspomnianych powyżej rodzajów informacji. Osobną kategorię stanowią informacje dotyczące zmian ekspresji mimicznej (expression code) oraz ruchów ust pojawiających się w związku z mową (facial speech code). Te dwa rodzaje danych uzyskiwanych w wyniku przetwarzania twarzy nie zostały jednak w modelu Bruce i Younga szerzej opisane. Podkreślenia wymaga fakt, iż autorzy koncepcji na podstawie licznych wyników eksperymentalnych zakładają wieloetapowość w odniesieniu do przynajmniej części z tych procesów. Jest to szczególnie wyraźne w przypadku procesu identyfikacji tożsamości twarzy, przy czym termin ten używany jest na określenie wszystkich indywidualnych cech rozpoznawanej osoby. Do grupy takich cech autorzy zaliczają zarówno imię i nazwisko takiej osoby, traktowane jako specyfi czna informacja wydobyta z magazynu pamięciowego, jak i wiele mniej specyfi cznych informacji, odnoszących się do płci, wieku, rasy, profesji danej osoby, poziomu znajomości tej osoby czy nawet miejsc i sytuacji, w których dana osoba jest spotykana. Warto zresztą zauważyć, iż w swojej propozycji teoretycznej Bruce i Young stosunkowo pobieżnie opisują procesy analizy ekspresji mimicznej lub ruchu ust związanego z nadawaniem mowy. Z podobną sytuacją mamy do czynienia w pracach rozwijających pierwotny model Bruce i Younga (Schweinberger i Burton, 2003; Breen, Caine i Coltheart, 2000; Ellis i Lewis, 2001; Ellis, 2007). Jest to spowodowane faktem, iż autorzy późniejszych prac stawiali sobie za cel funkcjonalne wyjaśnienie licznych zaburzeń w procesach przetwarzania twarzy. Podejmowano próby powiązania poszczególnych syndromów, takich jak prozopagnozja, zespół Capgrasa, intermetamorfoza, zespół Frégoli czy paraprozopia, z wyróżnionymi w modelu funkcjonalnym etapami analizy twarzy (ryc. 1). ANALIZA KIERUNKU ANALIZA TOŻSAMOŚCI SPOJRZENIA zakręt wrzecionowaty (directed visual processing)(face recognition unit) IDENTYFIKACJA TOŻSAMOŚCI przednia część płata skroniowego (person identity node) REAKCJA AFEKTYWNA ciało migdałowate (affective response to familiar faces) SCR (skin conductance response) Ryc. 1. Ilustracja teoretycznego modelu procesów przetwarzania twarzy według Bruce i Younga (1986) wraz ze zmianami sugerowanymi przez Schweinbergera i Burtona (2003) oraz Breen, Caine i Colthearta (2000). Moduły zaznaczone grubą kreską pochodzą z oryginalnej wersji modelu (Bruce i Young, 1986), elementy oznaczone cienkimi kreskami zostały dodane przez Breen, Caine i Colthearta (2000) 2.2. Model Haxby’ego i jego współpracowników Podobne zróżnicowanie w procesach przetwarzania informacji o percypowanej twarzy pojawia się również w modelu przedstawionym przez Jamesa Haxby’ego i jego grupę (Haxby, Hoffman, Gobbini, 2000; 2002). Podstawą dla hipotez przedstawionych przez tych autorów były w głównej mierze analizy danych uzyskanych w badaniach prowadzonych na zwierzętach (Perret, Rolls, Caan, 1982; Desimone, 1991) oraz badań z użyciem technik rejestracji aktywności mózgu odnoszącej się do funkcji percepcyjnych u ludzi (Kanwisher, McDermott, Chun, 1997; Hoff man, Haxby, 2000; Puce i in., 1998) lub obserwacji skutków uszkodzeń ludzkiego mózgu, będących przyczyną specyfi cznych deficytów poznawczych (Benton, 1980; Breen, Caine, Coltheart, 2000; Damasio i in., 1982; Hecaen i Angelergues, 1962). Model opracowany przez zespół Jamesa Haxby’ego akcentuje przede wszystkim funkcjonalne zróżnicowanie części systemu nerwowego wiązanych, na podstawie danych empirycznych, z procesami przetwarzania twarzy. Odróżnia to koncepcję tę od propozycji Bruce i Younga (1986), która w głównej mierze była oparta na wynikach behawioralnych i nastawiona na wyróżnienie specyfi cznych procesów będących kolejnymi fazami analizy percepcyjnej twarzy. Propozycja Haxby’ego zakłada istnienie wyspecjalizowanego systemu neuronalnego, którego zadaniem jest określenie wszystkich podstawowych parametrów twarzy, umożliwiających przeprowadzenie analiz skutkujących między innymi identyfikacją tożsamości właściciela twarzy, rozpoznaniem jego stanu emocjonalnego czy też przypisaniem mu charakterystycznych cech osobowościowych. Poszczególne elementy takiego systemu neuronalnego mogą być, według autorów, pogrupowane ze względu na specyficzne funkcje, związane z aktywnością tych części mózgu. Jedną grupę struktur określono mianem systemu podstawowego (core system) ze względu na to, że te elementy mózgu stanowią integralną część systemu wzrokowego, a ich podstawową funkcją jest analiza percepcyjna twarzy. Druga część została przez autorów nazwana systemem rozszerzonym (extended system), gdyż struktury te są zlokalizowane poza systemem wzrokowym. Ponadto poszczególne elementy systemu rozszerzonego nie są zaangażowane wyłącznie w przetwarzanie twarzy. Do funkcji związanych z tymi częściami systemu nerwowego należą bowiem kierowanie uwagi w przestrzeni (rejony kory ciemieniowej), percepcja mowy (kora słuchowa), sterowanie reakcjami emocjonalnymi (ciało migdałowate, kora wyspy i inne elementy systemu limbicznego) czy też udział w procesach pamięciowych (przednia część płata skroniowego). Zadaniem podstawowej części systemu odpowiedzialnego za przetwarzanie twarzy jest – według autorów tego modelu – analiza cech strukturalnych percypowanej twarzy oraz ich zmian w sytuacji, gdy na twarzy pojawia się specyfi czna ekspresja mimiczna, dochodzi do ruchu ust związanego z nadawaniem mowy lub pojawia się ruch gałek ocznych wywołany zmianą lokalizacji ogniska uwagowego. Zakładają oni, że podobnie jak w przypadku modelu Bruce i Younga, system ten ma zdolność oceny tzw. stałych charakterystyk twarzy (invariant aspects of faces), co umożliwia określenie cech indywidualnych jej właściciela pomimo zmieniającej się ekspresji mimicznej. Zdolność taka umożliwia jednocześnie ocenę takich charakterystyk widzianej osoby, jak jej wiek, płeć lub rasa. W wyniku dalszego przetwarzania możliwe jest przywołanie dodatkowych informacji z systemu pa-mięciowego, dotyczących danej osoby. System ten ma też zdolność oceny zmiennych charakterystyk twarzy (changeable aspects of faces), co pozwala na detekcję i ocenę pojawiającej się na twarzy ekspresji mimicznej. Ocena taka jest niezależna od procesu identyfikacji cech indywidualnych danej twarzy, tym samym podobne zmiany w zakresie tych elementów prowadzą do podobnych ocen ekspresji pomimo różnic w budowie poszczególnych twarzy, płci, wieku lub rasy jej właściciela. Dodatkowo system ten jest wykorzystywany w ocenie ukierunkowania spojrzenia osoby, którą widzimy, co umożliwia szybkie przeniesienie pola uwagowego w to samo miejsce (shared attention), oraz w ocenie ruchów pojawiających się w ob-rębie ust, co wspomaga rozpoznawanie dźwięków mowy artykułowanych przez osobę, na którą spoglądamy. Taki podział cech twarzy na względnie stałe oraz dynamicznie zmienne charakterystyki jest zbieżny z propozycją Bruce i Younga. Podobnie też oba strumienie przetwarzania posiadają wspólny punkt wyjścia. W przypadku koncepcji Bruce i Younga taki etap analizy był określany mianem przetwarzania strukturalnego twarzy, natomiast Haxby i jego zespół używają terminu wczesne fazy percepcji cech twarzy (early perception of face feature). Niestety, rola, jaką przypisuje się tym wstępnym fazom przetwarzania twarzy w obu modelach teoretycznych, nie jest do końca jasna i nie można jednoznacznie stwierdzić, czy w obu przypadkach mielibyśmy do czynienia z podobnymi procesami. Niezależnie jednak od ewentualnych różnic w tym zakresie w obu przypadkach pojawia się propozycja równolegle przebiega-jących procesów analizy, z jednej strony skutkującej ostatecznie określeniem cech indywidualnych widzianej osoby, z drugiej strony nakierowanej na detekcję szybko pojawiających się zmian w relacjach pomiędzy poszczególnymi elementami twarzy w sytuacji nadawania komunikatów mimicznych lub werbalnych. Obie propozycje teoretyczne przebiegu procesu przetwarzania twarzy są zarazem zgodne z rezultatami obserwacji skutków uszkodzeń mózgu pojawiających się u ludzi i będących przyczyną deficytów w zakresie rozpoznawania osób lub identyfikacji ekspresji mimicznej. W obu modelach zakłada się, iż działanie systemu analizującego zarówno cechy strukturalne twarzy, jak i podsystemów oceny ekspresji mimicznej i identyfikacji tożsamości osoby, do której należy obserwowana twarz, charakteryzuje wysoki stopień zautomatyzowania (Bruce, Young, 1986; Haxby, Hoffman, Gobbini, 2000). W obu modelach podkreśla się również, że twarz należy do kategorii obiektów wywołujących najsilniejsze reakcje od pierwszych tygodni życia, co interpretuje się jako argument na rzecz tezy o wrodzonym charakterze mózgowego systemu przetwarzania twarzy. 2.2.1. Mózgowa lokalizacja elementów systemu przetwarzania twarzy W modelu Haxby’ego i współpracowników zakłada się lokalizację poszczególnych części systemu przetwarzania twarzy w określonych częściach mózgu. Całość systemu podstawowego znajduje się w obrębie korowej części układu wzrokowego, podczas gdy elementy systemu rozszerzonego są rozlokowane w różnych rejonach mózgu, poza systemem wzrokowym (ryc. 2). 2.2.1.1. Podstawowy system przetwarzania twarzy Wczesne etapy analizy cech strukturalnych twarzy mają zachodzić w obrębie dolnego zakrętu potylicznego (inferior occipital gyrus), analiza stałych charakterystyk twarzy odbywa się w bocznej części zakrętu wrzecionowatego (lateral fusiform gyrus), a analiza zmiennych charakterystyk twarzy – w rejonie wokół górnej bruzdy skroniowej (superior temporal sulcus – STS). Charakterystyczną cechą tego systemu ma być, według autorów koncepcji, wybiórcza reaktywność neuronów zlokalizowanych w tych częściach mózgu. Prezentacja twarzy, a co za tym idzie – jej przetwarzanie, wywołuje silny wzrost aktywności tych neuronów, podczas gdy nie obserwuje się takiego rezultatu w przypadku innych obiektów. Oznacza to, iż system zajmujący się przetwarzaniem twarzy reaguje prawie wyłącznie na obiekty, które spełniają podstawowe kryteria pozwalające na zaklasyfikowanie tych obiektów jako twarzy. Istnienie wysoce wyspecjalizowanego w zakresie percepcji twarzy systemu neuronalnego było już sugerowane przez obserwacje pacjentów z ogniskowymi uszkodzeniami mózgu, którzy przejawiali deficyty w zakresie rozpoznawania tożsamości twarzy przy jednocześnie zachowanej na normalnym, lub zbliżonym do normalnego, poziomie zdolności do identyfikacji innych obiektów. Syndrom taki nazywany prozopagnozją jest zazwyczaj związany z obustronną lezją w obrębie brzusznej części kory potyliczno-skroniowej (Benton, 1980; Damasio i in., 1982; Hecaen i Angelergues, 1962; McNeil i Warrington, 1993; Sergent i Signoret, 1992, zob. także Walsh, 2001; Jaśkowski, 2009), choć udokumentowane są również przypadki, gdy wywołany został przez uszkodzenie zlokalizowane wyłącznie po prawej stronie mózgu (De Renzi, 1986; Landis i in., 1986). Do podobnych wniosków prowadziły także wyniki eksperymentów z udziałem makaków (Perret, Rolls i Caan, 1982; Perret i in., 1984; 1985; 1990; Hasselmo, Rolls i Baylis, 1989; Desimone, 1991). Poprzez wykorzystanie podkorowej rejestracji aktywności neuronów udało się zlokalizować w sąsiedztwie górnej bruzdy skroniowej oraz dolnego zakrętu skroniowego (inferior temporal gyrus – ITG) komórki nerwowe selektywnie reagujące na ekspozycję twarzy makaków i ludzi. Neurony te wykazywały nawet do dziesięciu razy silniejszą reakcję, gdy była wywoływana przez ekspozycję twarzy makaków lub ludzi w porównaniu z innymi obiektami. Co ważne, obie grupy neuronów wykazywały równocześnie duże zróżnicowanie SYSTEM ROZSZERZONY (extended system) SYSTEM PODSTAWOWY (core system) Ryc. 2. Ilustracja modelu procesów przetwarzania twarzy według Haxby’ego, Hoff man i Gobbini (2000; 2002) ze zmianami sugerowanymi w późniejszych pracach (Gobbini i Haxby, 2007) aktywności wynikające z manipulacji różnymi charakterystykami twarzy prezentowanych zwierzętom. Komórki zlokalizowane w rejonie ITG były wrażliwe na zmiany tożsamości eksponowanych twarzy przy jednocześnie występującej porównywalnej reakcji na zmiany w ekspresji mimicznej. Odwrotną zależność stwierdzono w przypadku neuronów umiejscowionych w STS, które podobnie reagowały pomimo zmiany tożsamości twarzy, ale za to były selektywnie wrażliwe na zmiany w ekspresji emocjonalnej (Hasselmo, Rolls i Baylis, 1989). Podobny rezultat polegający na selektywnej zmianie reakcji komórek STS w przypadku bodźców przedstawiających różne ekspresje mimiczne zarejestrowano w badaniach grupy Perret-ta (Perrett i in., 1984; 1985; 1990). Ponadto zauważono, że neurony w obrębie STS zmieniają swą aktywność w zależności od tego, jak ukierunkowane były oczy na zdjęciu prezentowanych twarzy oraz w zależności od tego, pod jakim kątem twarz została sfotografowana. Wiele wskazuje również, iż neurony wrażliwe na zmiany różnych aspektów twarzy, takich jak ekspresja mimiczna czy ruch oczu, znajdują się w tych samych rejonach STS co neurony wrażliwe na ruchy głowy i ruchy całego ciała (Perrett i in., 1985; Oram i Perrett, 1996). Na podstawie wyników tych badań można wyciągnąć wniosek, że obie grupy komórek, zlokalizowanych w sąsiedztwie STS oraz w ITG, pełnią odmienne role w procesie przetwarzania twarzy. Taki wniosek wspiera dodatkowo fakt, iż obie grupy komórek znajdują się w odrębnych anatomicznie rejonach kory mózgowej. Haxby i jego współpracownicy sugerują, iż rejon STS należy wiązać z procesami percepcji ruchu twarzy oraz dekodowania zmiennych charakterystyk twarzy, takich jak ekspresja mimiczna, orientacja oczu i głowy, prezentowanych na statycznych obrazach twarzy. Odmienne funkcje można kojarzyć z rejonem ITG, który ma być bardziej zaangażowany w opracowanie stałych charakterystyk twarzy w procesie oceny tożsamości twarzy. Teza, że możliwe jest wyodrębnienie w ludzkim mózgu obszarów, których rolą jest analiza twarzy przy braku zaangażowania tych części systemu nerwowego w przetwarzanie innych niż twarze obiektów, wsparta jest również rezultatami nieinwazyjnych badań prowadzonych z udziałem osób zdrowych. Głównymi metodami stosowanymi w tego rodzaju badaniach są techniki oparte na pomiarze reakcji hemodynamicznej, związanej z określonymi procesami neuronalnymi, takie jak fMRI oraz PET. W tym drugim przypadku, co prawda, mamy do czynienia z iniekcją substancji radioaktywnej do krwiobiegu osoby badanej, lecz jest to z pewnością nieporównanie słabsza ingerencja w integralność systemu nerwowego niż w przypadku śródczaszkowej rejestracji aktywności neuronów. Ponadto metody te charakteryzuje dużo wyższa dokładność w zakresie lokalizacji ośrodków mózgowych związanych z określoną funkcją, niż ma to miejsce w przypadku obserwacji pacjentów z lezjami. Badania z wykorzystaniem technik neuroobrazowania wskazują, że prezentacja twarzy wywołuje istotnie nasiloną, obustronną aktywację ludzkiego mózgu w obszarze zakrętu wrzecionowatego w porównaniu z ekspozycją abstrakcyjnych obrazów kontrolnych lub ekspozycją obiektów naturalnych innych niż twarze (Haxby i in., 1999; Kanwisher, McDermott i Chun, 1997; McCarthy i in., 1997; Halgren i in., 1999; Hoffman i Haxby, 2000; Ishai i in., 1999; Gobbini i Haxby, 2006; Schwarzlose, Baker i Kanwisher, 2005; Yovel i Kanwisher, 2004; 2005). Biorąc pod uwagę, że aktywacja ta w wielu przypadkach jest dużo wyraźniejsza i silniejsza w przypadku struktur umiejscowionych w prawej półkuli mózgu, sugeruje się istnienie relatywnej przewagi obszarów prawopółkulowych w procesach przetwarzania twarzy. Asymetria funkcjonalna w tym zakresie rejestrowana w badaniach z użyciem technik neuroobrazowania koresponduje ze wspomnianymi wcześniej obserwacjami pacjentów z lezjami, u których deficyty w zakresie rozpoznawania twarzy częściej występują lub przybierają głębszą formę, gdy uszkodzenie jest zlokalizowane po prawej stronie mózgu (De Renzi, 1986; Landis i in., 1986). Wielu badaczy skłania się ku tezie, że rejon bocznego zakrętu wrzecionowatego zawiera moduł mózgowy wyspecjalizowany w przetwarzaniu twarzy (Kanwisher, McDermott i Chun, 1997; McCarthy i in., 1997; Yovel i Kanwisher, 2004; 2005), wprowadzając określenie fusiform face area (FFA). Mózgowa lokalizacja tego obszaru, istotnie silniej aktywowanego ekspozycją twarzy w porównaniu z innymi obiektmi, jest spójna w bardzo wielu badaniach. Rezultaty tych samych badań pozwalają również stwierdzić, iż możliwe jest relatywnie dokładne wyodrębnienie tego obszaru spośród innych, sąsiadujących z nim modułów mózgowych, specyficznie reagujących na inne obiekty, takie jak przedmioty, budynki lub inne części ciała (Kanwisher, McDermott i Chun, 1997; Ishai i in., 1999; Aguirre, Zarahn i D’Esposito, 1998; Chao, Haxby i Martin, 1999; Schwarzlose, Baker i Kanwisher, 2005; Epstein i Kanwisher, 1998). Warto jednak zauważyć, iż dane te uzyskiwano z wykorzystaniem procedur eksperymentalnych często zakładających pasywną rejestrację przez badanych prezentowanego materiału bodźcowego lub wymagających skupienia uwagi na takich charakterystykach twarz, które determinują rozpoznawanie tożsamości twarzy, jej płci lub profesji wykonywanej przez przedstawianą osobę. Natomiast w sytuacji gdy uwaga osoby badanej była skierowana na rejestrację innych charakterystyk twarzy, przykładowo ukierunkowania oczu, uzyskiwano wyraźną redukcję odpowiedzi w rejonie zakrętu wrzecionowatego (Hoff man i Haxby, 2000; Puce i in. 1998; Wicker i in., 1998). Jednocześnie jednak rejestrowano specyfi czną aktywację obszarów zlokalizowanych wokół tylnej części górnej bruzdy skroniowej. Aktywacja tego rejonu mózgu, a także obszarów w bocznej części dolnego zakrętu potylicznego, była rejestrowana także w licznych innych badaniach (Haxby i in., 1999; Kanwisher, McDermott i Chun, 1997; Halgren i in., 1999; Chao, Haxby i Martin, 1999; Rossion, Dricot i in., 2000; Gauthier, Tarr i in., 2000; Gobbini i Haxby, 2006; Yovel i Kanwisher, 2005; Ishai, Haxby i Ungerleider, 2002). W przypadku części dolnego zakrętu potylicznego wybiórczo reagującej na ekspozycję twarzy stosowane jest również często określenie occipital face area (OFA) na wzór nazewnictwa wykorzystywanego w odniesieniu do bocznej części zakrętu wrzecionowatego. Propozycja teoretyczna Haxby’ego oraz jego współpracowników bierze pod uwagę również wyniki badań prowadzonych w grupie pacjentów z epilepsją, u których w ramach przygotowań do operacji rejestrowano aktywność mózgu poprzez umieszczenie elektrod na powierzchni kory. Uzyskane w tych eksperymentach rezultaty korespondują blisko z wynikami opisanych powyżej badań funkcjonalnych. W czasie gdy pacjentom pokazywano zdjęcia przedstawiające ludzkie twarze, na powierzchni brzusznej kory potyliczno-skroniowej oraz na bocznej powierzchni kory skroniowej rejestrowano specyficzną falę ujemną o czasie latencji około 200 ms (Puce i in., 1999; McCarthy i in., 1999; Allison i in., 1999). Jednocześnie aktywności o takiej charakterystyce nie stwierdzano, w przypadku gdy materiał bodźcowy przedstawiał inne obiekty. Ta charakterystyczna odpowiedź była rejestrowana na większym obszarze w półkuli prawej, co jest zgodne z sugestią, iż to właśnie prawa półkula jest relatywnie sprawniejsza w przetwarzaniu twarzy. Nie jest jednak do końca poznane funkcjonalne znaczenie fali rejestrowanej u pacjentów. Wielu badaczy sądzi, że istnieje łączność pomiędzy śródczaszkowo mierzonymi odpowiedziami uzyskiwanymi około 200 ms po bodźcu a zmianami w zapisie EEG mierzonego na powierzchni głowy. Pomiar aktywności bioelektrycznej w trakcie ekspozycji twarzy pozwala bowiem na rejestrację specyfi cznego komponentu potencjałów skorelowanych ze zdarzeniem (event-related potentials – ERP) oznaczanego jako N170 (Bentin i in., 1996). Komponent ten wykazuje istotnie wyższą amplitudę, gdy jest rejestrowany w odpowiedzi na twarze ludzkie, w porównaniu z innymi złożonymi bodźcami wzrokowymi. Najczęściej podkreśla się, że komponent ten cechuje największa amplituda, gdy rejestrowany jest na odprowadzeniach zlokalizowanych nad brzuszną tylną częścią płata skroniowego lub nad okolicami styku płata skroniowego i potylicznego. Wskazuje się również na wyższe amplitudy tego komponentu mierzonego w przypadku elektrod umiejscowionych po prawej stronie czaszki w porównaniu z analogicznymi elektrodami z lewej strony, co jest zgodne z powszechnym przekonaniem o relatywnej przewadze prawej półkuli mózgu w procesach percepcji twarzy. Szczegółowo komponent ten zostanie omówiony w rozdziale 4. 2.2.1.2. Rozszerzony system przetwarzania twarzy Według Jamesa Haxby’ego i jego współpracowników procesy przetwarzania twarzy zachodzące w obrębie systemu wzrokowego prowadzą do uzyskania bardzo różnorodnych informacji, których wykorzystanie wymaga zaangażowania również obszarów mózgu leżących poza układem wzrokowym. Te właśnie części mózgu mają tworzyć rozszerzoną część systemu przetwarzania twarzy. Są to struktury pełniące istotną rolę w odniesieniu do innych funkcji poznawczych, takich jak chociażby kierowanie uwagą w przestrzeni lub rozpoznawanie dźwięków mowy. Jak jednak twierdzą autorzy tej koncepcji, te same części systemu nerwowego można traktować jak integralne fragmenty systemu przetwarzania twarzy w momencie, gdy wymagana jest ich współpraca w procesie analizy znaczenia percypowanej twarzy. Głównymi funkcjami związanymi w tej koncepcji z ukła-dem rozszerzonym są uzyskiwanie informacji o osobie, której tożsamość właśnie rozpoznaliśmy, ocena jej stanu emocjonalnego oraz intencji, ułatwienie komunikacji werbalnej z tą osobą lub skierowanie naszej uwagi na te same obiekty, na które ona w danej chwili patrzy. Tym samym części mózgu zaliczane do tego systemu są utożsamiane z funkcjonowaniem pamięci deklaratywnej (przednia część płata skroniowego), kontrolą reakcji emocjonalnych (ciało migdałowate, kora wyspy i inne elementy układu limbicznego), rozpoznawaniem mowy (kora słuchowa) i kierowaniem uwagą (kora płata ciemieniowego). Ukierunkowanie wzroku i mechanizmu uwagi Miejsce, w które skierowana jest głowa lub oczy osoby obserwowanej, pozwala okre-ślić część przestrzeni, w której osoba ta spostrzegła interesujący ją obiekt. Stanowi to ważną informację o lokalizacji istotnych elementów otaczającego nas środowi-ska. Przeniesienie naszego własnego ogniska uwagowego w to samo miejsce w przestrzeni umożliwia efektywniejsze rozpoznanie interesującego obiektu. Mechanizm ten w literaturze przedmiotu określany jest jako shared attention mechanism (SAM) lub joint attention (Baron-Cohen, 1995). Takie zjawisko może być obserwowane również w przypadku szympansów (Tomasello i in., 1998), makaków (Emery i in., 1997) oraz sześciomiesięcznych ludzkich niemowląt (Hood, 1998; Vecera i Johnson, 1995). Na tej podstawie można sądzić, iż mechanizm leżący u podłoża takiego zachowania nie jest związany z procesami świadomej kontroli lokalizacji ogniska uwagi, a jego źródeł należy poszukiwać raczej w mimowolnie przebiegających procesach oceny położenia głowy lub ukierunkowania oczu innej osoby. Podobny proces można obserwować również w odniesieniu do osób doro-słych, u których występuje mimowolne przesunięcie ogniska uwagi przestrzeni w wyniku prezentacji zdjęć twarzy z oczami skierowanymi w różne miejsca, nawet wówczas, gdy twarz nie stanowiła bodźca istotnego dla wykonania zadania (Friesen i Kingstone, 1998; Driver i in., 1999; Hietanen, 1999; Langton i Bruce, 1999; Schuller i Rossion, 2001; 2004). Interesujące jest również spostrzeżenie, że silniejsze efekty obserwuje się w przypadku, gdy ułożenie głowy oraz ukierunkowanie wzroku są niezgodne w porównaniu z sytuacją, gdy zarówno głowa, jak i oczy skierowane są w to samo miejsce w przestrzeni (Hietanen, 1999). Jak twierdzą Langton i jego współpracownicy (2000), oznacza to, iż przesunięcie ogniska uwagowego wywołane przez ocenę ukierunkowania wzroku innej osoby nie polega na prostej detekcji pozycji oczu, lecz wymaga integracji informacji o położeniu zarówno głowy, jak i oczu. Wydaje się więc, że podstawą tych procesów może być aktywność specyficznego zespołu struktur związanych z jednej strony z systemem przetwarzania twarzy oraz mechanizmem kierującym uwagą z drugiej. Rejonem mózgu będącym fragmentem systemu przetwarzania twarzy i zarazem związanym z percepcją ukierunkowania oczu jest obszar położony wokół górnej bruzdy skroniowej. Jak wspomniano już wcześniej, w tym rejonie w mózgu makaków można znaleźć neurony wrażliwe na ruchy oczu oraz głowy (Perrett i in., 1985; Oram i Perrett, 1996). Do podobnych wniosków prowadzą wyniki badań z wykorzystaniem technik neuroobrazowania u ludzi. Porównując aktywność mózgu rejestrowaną w trakcie obserwacji twarzy z oczami skierowanymi w różne strony, Wicker i jego współpracownicy (1998) zlokalizowali obszar odpowiedzialny za detekcję kierunku spojrzenia w obszarze środkowego zakrętu skroniowego (medial temporal gyrus) przylegającego od brzusznej strony do górnej bruzdy skroniowej. Podobne rezultaty uzyskali także inni badacze (Puce i in., 1998; Hoff man i Haxby, 2000; Pelphrey i Morris, 2006). Do podobnych wniosków prowadzą wyniki uzyskane przez Puce i Allison (1999) z wykorzystaniem śródczaszkowej rejestracji aktywności kory u 19-letniej chorej na epilepsję, przeprowadzonej w trakcie przygotowań do operacji neurochirurgicznej. W tym przypadku prezentacja zdjęć twarzy z oczami skierowanymi w bok lub na wprost wywołała zróżnicowaną aktywność w obszarze górnego zakrętu skroniowego (superior temporal gyrus). Również defi cyty obserwowane w przypadku dzieci z autyzmem, a polegające na niezdolności do prawidłowego wnioskowania o lokalizacji interesujących obiektów na podstawie kierunku spojrzenia (Baron-Cohen i in., 1995), mogą być wiązane ze zmianami w budowie anatomicznej struktur płata skroniowego obserwowanego u chorych na autyzm (Schultz i in., 2000). Sugestia taka jest zgodna z wynikami badań z udziałem zdrowych dorosłych oraz osób z zespołem Aspergera, w których stwierdzono różnice w aktywacji w obrębie STS w trakcie wykonywania zadania polegającego na przy-porządkowaniu przymiotników określających stan afektywny do zdjęć przedstawiających fragment twarzy z oczami skierowanymi w różne strony (Baron-Cohen i in., 1999). Osoby zdrowe nie mają problemów w ocenie znaczenia wyrazu oczy i odczytaniu intencji lub stanu afektywnego na podstawie takich zdjęć, podczas gdy osoby z zespołem Aspergera wykonują takie zadanie z dużą trudnością. Zdaniem Haxby’ego obustronne połączenia nerwowe istniejące pomiędzy grupami neuronów zlokalizowanych w rejonie górnej bruzdy skroniowej oraz położonych w pobliżu bruzdy śródciemieniowej (intraparietal sulcus) mogą umożliwić transfer informacji o ukierunkowaniu wzroku i orientacji głowy do umiejscowionego w płacie ciemieniowym systemu zajmującego się kontrolą lokalizacji ogniska uwagi w przestrzeni (Harries i Perrett, 1991). Udział płata ciemieniowego w procesach sterowania uwagą w przestrzeni został udokumentowany zarówno w badaniach na makakach (Mesulam, 1981; Colby i Goldberg, 1999), jak i w eksperymentach na ludziach (Corbetta i in., 1995; 1998; Nobre i in., 1997; Posner i Petersen, 1990; zob. także Wronka, 2004). W eksperymencie przeprowadzonym przez Hoffmana i Haxby’ego (2000) uzyskano istotnie silniejszą aktywację kory wokół bruzdy śródciemieniowej w sytuacji, gdy uwaga osoby badanej była ukierunkowana na określenie kierunku spojrzenia osoby widzianej na zdjęciu w porównaniu z warunkiem wymagającym identyfikacji tożsamości tej samej osoby. Rezultat ten jest więc podobny do tego, który był rejestrowany w odniesieniu do STS. Autorzy ci stwierdzili również, iż obserwacja twarzy ze wzrokiem skierowanym w bok wywołuje wzrost aktywności w płacie ciemieniowym w porównaniu z prezentacją tej samej twarzy ze wzrokiem skierowanym na wprost. Ekspresja emocjonalna Identyfikacja zmian w ułożeniu elementów twarzy związana z nadawaniem komunikatów emocjonalnych jest powiązana w modelu Haxby’ego z aktywnością STS. W tej części mózgu u makaków, jak zostało to już wcześniej wspomniane, wykazano obecność komórek wrażliwych na zmiany w ekspresji mimicznej (Has-selmo, Rolls i Baylis, 1989; Perrett i in., 1984; 1985; 1990). Ten sam rejon mózgu jest również aktywowany w ludzkim mózgu podczas prezentacji twarzy (Chao, Haxby i Martin, 1999; Halgren i in., 1999; Haxby i in., 1999; Hoffman i Haxby, 2000; Kanwisher, McDermott i Chun, 1997). Porównując zarejestrowane z wykorzystaniem pomiaru magnetoencefalograficznego (MEG) reakcje systemu nerwowego, wywołane prezentacją twarzy przedstawiających sześć podstawowych ekspresji emocjonalnych w zadaniu wymagającym ich różnicowania, z reakcjami zarejestrowanymi w sytuacji gdy instrukcja eksperymentalna wymagała od osoby badanej odróżniania twarzy od innych obiektów, zaobserwowano swoistą aktywację w obrębie STS pojawiającą się około 140–170 ms po ekspozycji bodźca (Streit i in., 1999). Oznacza to, że aktywność tego rejonu może być ściśle związana z procesem identyfikacji wyrazu mimicznego. Do podobnych wniosków prowadzą także wyniki eksperymentów z wykorzystaniem fMRI. Przykładowo, Philips i jego współpracownicy (1998) wykazali spójną aktywność STS w trakcie przetwarzania ekspresji strachu i wstrętu. Podobne wyniki uzyskiwano również w innych badaniach (Montgomery, Seeherman i Haxby, 2009; Batty i Taylor, 2003). Jednocześnie jednak wielokrotnie stwierdzono, iż specyficzna reakcja mózgu w odpowiedzi na prezentację emocjonalnych twarzy nie ogranicza się do obszarów zlokalizowanych w obrębie kory wzrokowej. Wiele danych uzyskiwanych z wykorzystaniem najróżniejszych technik rejestracji aktywności układu nerwowego wskazuje bowiem, iż proces rozpoznawania komunikatów mimicznych angażuje również struktury klasycznie utożsamiane z systemem kontrolującym reakcje afektywne. We wspomnianym już badaniu Streita i jego współpracowników uzyskano wzrost aktywności ciała migdałowate-go w sytuacji wymagającej kategoryzacji ekspresji mimicznych (Streit i in., 1999). Struktura ta jest powszechnie uważana za jedną z kluczowych części systemu limbicznego, odpowiedzialnego za powstawanie różnego rodzaju stanów emocjonalnych (Damasio, 1999; LeDoux, 2000; Zald, 2003). Szczególnie duże znaczenie jest przypisywane ciału migdałowatemu w odniesieniu do procesów rozpoznawania bodźców zagrażających (LeDoux i Phelps, 2005). W badaniach z udziałem makaków wykazano istnienie w tej strukturze neuronów selektywnie wrażliwych na twarze (Amaral i in., 1992; Leonard i in., 1985). Podobny rezultat w postaci selektywnego wzrostu aktywacji ciała migdałowatego podczas prezentacji twarzy wyrażających strach obserwowano w wielu badaniach wykorzystujących techniki neuroobrazowania u ludzi (Philips i in., 1998; Breiter i in., 1996; Morris i in., 1996; 1998; Morris, De Gelder, Weiskrantz i Dolan, 2001; Morris, Öhman i Dolan, 1998; 1999; Morris, deBonis i Dolan, 2002; Williams, McGlone, Abbott i Mattingley, 2005; Williams i in., 2004; Whalen i in., 1998; 2004). Uszkodzenie ciała migdałowatego może być przyczyną deficytów w zakresie rozpoznawania znaczenia bodźca i powodować zmiany w reakcjach emocjonalnych normalnie przez takie bodźce wywoływanych (Ono i Nishijo, 2000). Dotyczy to również bodźców mających postać ekspresji mimicznych. Pacjenci z obustronną lezją ciała migdałowatego wykazują deficyty w rozpoznawaniu negatywnych ekspresji mimicznych, przy czym największe problemy mają z identyfi kacją ekspresji strachu, a mniejsze z ekspresją gniewu (Adolphs, Tranel, Da-masio i Damasio, 1994; 1995; Adolphs i in., 1999; Calder i in., 1996). Stwierdza się u nich również silną tendencję do oceniania twarzy jako bardziej pozytywnych w porównaniu z osobami zdrowymi. Pacjenci tacy są jednocześnie w stanie rozpoznawać na poziomie porównywalnym z osobami zdrowymi ekspresję emocjonalną wyrażaną przez postawę ciała, szczególnie wówczas gdy twarz nie jest widoczna i niemożliwa jest bezpośrednio identyfi kacja ekspresji mimicznej (Adolphs i Tranel, 2003; Atkinson, Heberlein i Adolphs, 2007). Wydaje się więc, iż ciało migdałowate ze względu na rolę pełnioną w procesach oceny wyrazu mimicznego może być uznawane za strukturę ściśle powiązaną funkcjonalnie z STS. Wskazuje na to również fakt, że w mózgu naczelnych największy szlak nerwowy doprowadzający informacje do tej struktury ma swój początek w płacie skroniowym, gdzie lokalizowane są dwa główne fragmenty systemu przetwarzania twarzy (Price, 2002). Związki pomiędzy tymi strukturami mogą stanowić podłoże procesów istotnych zarówno w czasie odczytywania ekspresji mimicznej, jak również w odniesieniu do szerzej pojętej oceny znaczenia afektywnego twarzy. Jak bowiem wskazują wyniki badań przeprowadzonych przez Idę Gobbini i jej zespół (Gobbini, Leibenluft, Santiago i Haxby, 2004), siła reakcji ciała migdałowatego jest zależna od znaczenia afektywnego twarzy, nawet wówczas gdy nie prezentuje ona żadnej wyraźnej ekspresji emocjonalnej. Twarze osób bliskich, które zazwyczaj nie stanowią sygnału zagrażającego, wywołują słabszą reakcję tej struktury w porównaniu z twarzami osób sławnych, nieznanych nam osobiście, które z kolei słabiej aktywują ciało migdałowate niż twarze osób nam nieznanych, które potencjalnie mogą być wrogie. Co ciekawe, zróżnicowanie reakcji układu nerwowego związane z poziomem znajomości twarzy obserwowano jednocześnie w okolicach STS. W tym jednak przypadku kierunek zależności był odwrotny, silniejszą bowiem odpowiedź tego rejonu zarejestrowano dla twarzy osób bliskich w porównaniu z twarzami osób sławnych. Wyniki sugerujące udział ciała migdałowatego w afektywnej ocenie neutralnych twarzy zostały uzyskane również w badaniu Bartel-sa i Zeki (2000), gdzie twarz osoby pozostającej w intymnym związku z osobą badaną wywoływała słabszą aktywację tej struktury w porównaniu z twarzami osobiście znanymi badanemu. Wyniki tych dwóch badań pozwalają stwierdzić, iż siła reakcji ciała migdałowatego zależy od stopnia znajomości twarzy. Oznacza to, że ocena afektywna dokonywana z udziałem STS oraz ciała migdałowatego ma miejsce nie tylko wówczas, gdy na twarzy pojawia się wyraźna ekspresja emocjonalna, lecz także wtedy, gdy poziom znajomości twarzy może być wskaźnikiem potencjalnego zagrożenia. Należałoby więc oczekiwać, iż im bardziej twarz jest nam bliska, tym łatwiej jest nam ocenić zagrożenie ze strony takiej osoby i słabsza w takiej sytuacji powinna być odpowiedź ciała migdałowatego. Inne wyniki sugerują jednak, że zależność ta może być dużo bardziej skomplikowana. Jeśli bowiem zdjęcie prezentowane osobie badanej przedstawia twarz jej własnego dziecka, wówczas obserwuje się istotnie silniejszą reakcję ciała mig-dałowatego w porównaniu z ekspozycją dziecka osób znajomych (Leibenluft i in., 2004). Podobna zależność została zaobserwowana w przypadku zakrętu wrzecionowatego oraz obszaru wokół STS. Gdy jednak porównano aktywność mózgu zarejestrowaną podczas prezentacji twarzy dzieci osób znajomych oraz twarzy dzieci nieznajomych, uzyskano słabszą reakcję ciała migdałowatego oraz zakrętu wrzecionowatego i jednocześnie silniejszą odpowiedź STS w przypadku tych pierwszych. Warto w tym miejscu zwrócić uwagę na zgodność opisanych powyżej wyników obserwowanych w przypadku twarzy o różnym poziomie znajomości z propozycjami Breen, Caine i Colthearta (2000) rozwijającymi pierwotny model Bruce i Younga (1986). Autorzy ci zakładają możliwość wywołania reakcji afektywnej poprzez ocenę poziomu znajomości twarzy (zob. także Ellis i Lewis, 2001; Ellis, 2007; Schweinberger i Burton, 2003). Sugerują też, że taka reakcja afektywna pomaga w prawidłowej ocenie tożsamości. Argumentem za tą tezą są przypadki zespołu Capgrasa, zaburzenia charakteryzującego się prawidłowo przebiegającym procesem identyfikacji tożsamości przy jednoczesnym zaburzeniu w reagowaniu afektywnym. W rezultacie osoby dotknięte tym deficytem stwierdzają, iż bliska im osoba nie jest nią w rzeczywistości, lecz jest jedynie bardzo do niej podobna. Biorąc pod uwagę opisane badania, można stwierdzić, iż rejony wokół górnej bruzdy skroniowej, utożsamiane w modelu Haxby’ego z elementem analizującym zmienne charakterystyki twarzy, w tym zmiany mające postać ekspresji emocjonalnej, mogą zarazem stanowić źródło informacji dla struktur układu limbicznego, gdzie dokonywana jest ocena afektywna stymulacji. Wśród tych części mózgu istotną rolę przypisuje się ciału migdałowatemu w przypadku rozpoznawania strachu (Morris i in., 1996; 1998; 2001; Morris, Öhman i Dolan, 1998; 1999). Podobną funkcję dla ekspresji wstrętu wydaje się pełnić kora wyspy (Phillips i in., 1997; 1998; Sprengelmeyer i in., 1998). Wiele również wskazuje na to, iż w dalszej kolejności informacja o spostrzeżonej mimice twarzy jest wykorzystywana w brzuszno-przyśrodkowych rejonach płata czołowego (Nakamura i in., 1999; Philips i in., 1998; Sprengelmeyer i in., 1998). Czytanie z ruchu ust Jedną z funkcji przypisywanych w modelu Haxby’ego obszarowi wokół górnej bruzdy skroniowej jest analiza ruchów ust pojawiających się w trakcie werbalizacji. Uzyskanie bowiem wiedzy o dynamicznie zmieniającym się ułożeniu ust, zębów oraz języka wspomaga interpretację samego przekazu werbalnego. Znakomitą demonstracją działania tego mechanizmu jest tzw. efekt McGurk, polegający na pojawianiu się systematycznego błędu w rozpoznawaniu wypowiadanych sylab w sytuacji jednoczesnej ekspozycji dźwięków mowy oraz niezgodnych z nimi ruchów ust2 (McGurk i MacDonald, 1976). Uważa się, że mechanizm ten wydatnie sprzyja rozwojowi mowy w fazie niemowlęctwa poprzez jednoczesną obserwację ruchów ust oraz analizę słyszanych dźwięków mowy (Dodd, 1979; Kuhl i Mel-tzoff; 1984). U dorosłych możliwość obserwacji osoby mówiącej ułatwia zrozumienie wypowiedzi w sytuacji pojawienia się dodatkowego szumu (MacLeod i Summerfi eld, 1990). Udział obszaru mózgu położonego wokół STS w procesie dekodowania ruchów ust został stwierdzony w badaniu Gemmy Calvert i jej współpracowników (1997). W serii eksperymentów rejestrowano aktywność mózgu, wykorzystując technikę fMRI w warunkach, gdy osobom badanym prezentowano materiał akustyczny zawierający dźwięki mowy lub gdy oglądali oni niemy fi lm przedstawia-jący twarz wypowiadającą różne słowa lub pseudosłowa. W każdej z tych sytuacji zanotowano odmienne wzorce pobudzenia, charakterystyczne dla wykorzystanej modalności oraz eksponowanego materiału. Obserwowano jednak również, iż oba rodzaje bodźców wywołują porównywalną aktywację w obszarze górnego zakrętu skroniowego. Co więcej, ekspozycja niemego filmu prowadziła także do pojawienia się pobudzenia w obszarach pierwszorzędowej kory słuchowej oraz obszarach klasycznie wiązanych z rozpoznawaniem mowy. Podobnego wzorca nie uzyskano, gdy twarz na filmie wykonywała ruchy ust nieprzypominające artykulacji. Podobny wynik uzyskali również Sams i jego współpracownicy (1991), wykorzystując zapis MEG. W tym badaniu także zarejestrowano aktywację obszarów kory słuchowej wywołaną ekspozycją obrazów przedstawiających ruchy ust zarejestrowane w trakcie nadawania mowy. Wyniki te pozwalają sądzić, iż system zajmujący się analizą zmiennych charakterystyk twarzy, lokalizowany w modelu Haxby’ego w okolicy STS, jest zdolny wywoływać zmiany aktywacji w obszarach mózgu przetwarzających mowę. 2 Efekt ten pojawia się, gdy prezentowana jest wypowiadana sylaba „ba” oraz obraz ruchu ust odpowiadający sylabie „ga”, co powoduje pojawienie się wrażenia, iż słyszymy sylabę „da”. Efekt McGurk nazywany jest też często efektem fuzji słuchowo-wzrokowej (auditory-visual fusion ilusion). Zjawisko to może być więc podstawą interakcji między systemami wzrokowym i słuchowym, wspomagając identyfikację przekazu werbalnego. Co jednak ciekawe, możliwa jest również relacja odwrotna, gdy dekodowanie mowy wywołuje aktywację obszarów kory wzrokowej w tej jej części, która jest wyspecjalizowana w określaniu stałych charakterystyk twarzy. W badaniu von Kriegstein i jej grupy (2005) prezentowano osobom badanym bodźce akustyczne w postaci zapisu krótkich wypowiedzi osób znajomych oraz obcych. W rezultacie zaobserwowano pobudzenie między innymi w obszarach kory słuchowej oraz zakrętu wrzecionowatego. W tym drugim przypadku poziom znajomości osoby, której głos wykorzystano jako materiał bodźcowy, determinował siłę pobudzenia obszaru wyspecjalizowanego w analizie twarzy. 2.2.1.3. Jeszcze bardziej rozszerzony system przetwarzania twarzy Zaprezentowane powyżej dane sugerują, że twarz stanowi istotne źródło informacji o bardzo różnej charakterystyce. Z jednej strony odnosi się to do procesów identyfikacji tożsamości twarzy, które opierają się na przetwarzaniu stałych charakterystyk twarzy w obrębie zakrętu wrzecionowatego. Z drugiej – ta sama charakterystyka może stanowić podstawę do wnioskowania o cechach charakteru spostrzeganej osoby, jej intencjach oraz wywoływać specyficzne reakcje afektywne. Każda twarz jest także oceniania pod kątem dynamicznie pojawiających się zmian, które pozwalają na określenie stanu emocjonalnego innej jednostki lub wspomagają rozumienie mowy. Co więcej, wiele danych sugeruje także, iż poszczególne moduły mogą wpływać na siebie nawzajem, co dodatkowo komplikuje poziom złożoności całego systemu. Wpływ ten zachodzi między mechanizmami oceny tożsamości oraz ekspresji emocjonalnej. Im lepiej znamy bowiem konkretną jednostkę, tym lepiej interpretujemy zmiany w mimice twarzy tej osoby. W drugą stronę wpływ może mieć odmienny charakter. Osoby, które spostrzegamy po raz pierwszy, zostaną lepiej zapamiętane, jeśli kontaktowi towarzyszyła wyraźna ekspresja w porównaniu z twarzami neutralnymi. W odniesieniu do lepiej nam znanych osób łatwiej przychodzi nam określenie ich intencji. Słabiej też reagujemy lękiem w towarzystwie znajomych twarzy. Wszystkie te obserwacje powodowały, iż model teoretyczny zaproponowany przez Haxby’ego i jego współpracowników w coraz mniejszym stopniu wyjaśniał rezultaty uzyskiwane w badaniach. Stąd pojawiająca się w późniejszych pracach Gobbini i Haxby’ego (2007) sugestia, że system rozszerzony może tak naprawdę obejmować jeszcze większą liczbę elementów. Do grupy struktur mózgowych wcześniej zaliczanych już do tej części układu przetwarzania twarzy należałoby dołączyć również te, które w specyficzny sposób są wiązane z wymienionymi procesami. Całość tego układu w dość uproszczonej formie została zaprezentowana na ryc. 2. Uwzględniono na niej zarówno te elementy, które pierwotnie zosta-ły uznane za istotne fragmenty systemu aktywowanego przez twarze i biorącego udział w analizie informacji związanych z twarzami, jak również te części systemu rozszerzonego, które znalazły się w nim w najnowszej wersji tej koncepcji. Jak wskazują Gobbini i Haxby (2007), cała grupa struktur mózgu, wcześniej nieuwzględnianych w ich propozycji teoretycznej, wykazuje mniej lub bardziej konsekwentny związek z przetwarzaniem twarzy lub informacji o charakterze społecznym. Przede wszystkim wskazuje się na rejony przedniej części zakrętu obręczy (anterior paracingulate cortex) oraz wokół tylnej części STS (posterior superior temporal sulcus). Oba fragmenty mózgu wykazują specyfi czne wzorce pobudzenia w zadaniach wymagających uwzględnienia intencji innych osób lub wy-obrażenia stanu umysłu tej osoby (Castelli, Happe, Frith i Frith, 2000; Frith i Frith, 1999; Gallagher i in., 2000; 2002; Saxe i Kanwisher, 2003). Ten rodzaj wnioskowania o innych osobach, w piśmiennictwie określany nazwą Teorii Umysłu (theory of mind), stanowi podstawę zdolności do wyjaśniania oraz przewidywania zachowań innych ludzi. Jak zakłada wielu badaczy tego zjawiska (Brothers, 1990; Frith i Frith, 1999; 2003; Stone, Baron-Cohen i Knight, 1998; por. także Wronka, 2008), w mózgu naczelnych można wyróżnić wiele struktur, których aktywność stanowi podłoże wspomnianej zdolności. Sugerują oni także, iż trafne spostrzeganie wspomnianych dyspozycji lub intencji innych osób wymaga zazwyczaj uwzględnienia licznych informacji związanych między innymi z tożsamością tej osoby, rodzajem przejawianego przez nią zachowania oraz przybieranej pozycji ciała, obserwowaną ekspresją mimiczną czy wiedzą o obecności innych osób oraz łączących je relacjach. Charakterystyczne wzorce aktywacji części mózgu, utożsamianych z neuronalnym podłożem Teorii Umysłu, obserwowano w zadaniach wymagających przewidywania zachowań innego uczestnika tej samej gry, ale jedynie wówczas gdy badani wierzyli, iż jest nim inny człowiek, lecz nie w sytuacji, gdy byli przekonani, iż konkurują z programem komputerowym (Gallagher i in., 2002; McCa-be i in., 2001; Rilling i in., 2004). Podobne wyniki uzyskiwano w badaniach nad procesem podejmowania decyzji skutkujących negatywnymi konsekwencjami dla innych ludzi (Green i in., 2001). Jak wspomniano już wcześniej, obszary te mogą wykazywać też związek z przetwarzaniem twarzy osoby, z którą łączą nas silne relacje intymne (Bartels i Zeki, 2000; Leibenluft i in., 2004). Biorąc pod uwagę także wyniki własnych badań (Gobbini, Leibenluft, Santiago i Haxby, 2004; Gobbini i Haxby, 2006), autorzy sugerują, aby rejon przedniej części zakrętu obręczy wiązać z procesem przypisywania innym określonych postaw lub cech indywidualnych, natomiast tylną część STS z bardziej bezpośrednią oceną intencji. Oba wymienione rejony byłyby silnie funkcjonalnie związane z przednią częścią płata skroniowego, któremu Gobbini i Haxby przypisują istotną rolę w procesach wydobywania z pamięci szeroko rozumianych danych biografi cznych, a także ze strukturami układu limbicznego, jak ciało migdałowate czy kora wyspy, które są związane z oceną ekspresji emocjonalnej. W nowszej wersji swojej koncepcji autorzy dodatkowo wiążą ciało migdałowate z oceną znaczenia emocjonalnego widzianej twarzy. W tym przypadku reakcja tej struktury odzwierciedlałaby stopień znajomości osoby, poziom zaufania do niej lub intymności relacji z nią (Gobbini, Leibenluft, Santiago i Haxby, 2004; Gobbini i Haxby, 2006; Leiben-luft i in., 2004; Winston i in., 2002). Stąd również w tym przypadku elementy układu limbicznego byłyby powiązane interakcyjnie z systemem kontrolującym naszą wiedzę o innej osobie (przednia część płata skroniowego). Ponadto wśród struktur mózgu niezaliczanych do tej pory do rozszerzonej części systemu przetwarzania, a których aktywację można przypisać charakterystycznym procesom oceny twarzy, należy wymienić tylne części zakrętu obręczy (posterior cingula-te gyrus) oraz przedklinek (precuneus). Funkcje tych rejonów nie są jasne, lecz istnieją dane sugerujące, że te części mózgu są pobudzane specyficznie w zadaniach angażujących wyobraźnię wzrokową (Ishai, Ungerleider i Haxby, 2000) oraz ocenę znajomości twarzy (Gobbini, Leibenluft , Santiago i Haxby, 2004; Gobbini i Haxby, 2006; Gorno-Tempini i in., 1998). Stąd sugestia, iż rejony te są związane z afektywną interpretacją danych epizodycznych dotyczących konkretnych osób. Podsumowując, musimy zauważyć, że system przetwarzania twarzy, którego istnienie wysuwano w pracach Haxby’ego i jego grupy (2000; 2002), początko-wo tworzyły części mózgu związane z charakterystycznymi procesami, takimi jak uwaga, reakcje emocjonalne lub pamięć deklaratywna. Miały one w założeniu stanowić niezależne moduły służące do opracowania informacji uzyskanych w analizie percepcyjnej twarzy. Późniejsze badania przyniosły wiele danych trudnych do interpretacji w ramach tego modelu. To przyczyniło się do jego ewolucji. Można więc oczekiwać, iż model ten będzie w dalszym ciągu rozbudowywany. Ostatnia jego wersja zaprezentowana w ubiegłym roku (Haxby i Gobbini, 2011) dodatkowo uwzględnia rejony bocznej kory przedczołowej, lecz wprowadzone do niego ostatnio zmiany nie odnoszą się bezpośrednio do problemów poruszanych w niniejszej pracy, dlatego pominięto je przy omawianiu tej propozycji teoretycznej. 2.3. Koncepcja przetwarzania konfiguracyjnego Lukę w koncepcjach teoretycznych Bruce i Younga oraz Haxby’ego i jego współpracowników, dotyczącą wczesnych faz przetwarzania twarzy, do pewnego stopnia uzupełnia propozycja przedstawiona przez Daphne Maurer, Richarda Le Granda i Catherine Mondloch (2002). W swojej koncepcji autorzy ci postulują podział wstępnej fazy analizy percepcyjnej twarzy na trzy etapy. Dla określenia całości tego trójetapowego procesu używają terminu „przetwarzanie konfi guracyjne”. Termin ten ma się odnosić do każdego procesu lub mechanizmu, który prowadzi lub jest wykorzystywany do uzyskania informacji o relacjach pomiędzy poszczególnymi elementami percypowanego obiektu, w tym przypadku twarzy. Opis tego procesu pozwala więc na stwierdzenie, iż w dużym stopniu autorom chodzi o dokładnie ten sam etap przetwarzania, który Bruce i Young nazywali przetwarzaniem strukturalnym i który w koncepcji Haxby’ego określano jako wczesne fazy percepcji cech twarzy. Pierwszy etap przetwarzania konfiguracyjnego jest w tej koncepcji związany z procesem określania tzw. relacji pierwszego rzędu (fi rst-order relations). Jest to podstawowy proces przypisywania widzianego bodźca do wybranej klasy obiektów. W przypadku twarzy odbywa się to na podstawie spostrzeżenia, iż poszczególne elementy twarzy są ułożone w określony sposób, oczy są położone w ustalonej relacji do nosa oraz ust. Wymaga to oczywiście wcześniejszego stwierdzenia obecności oczu, nosa i ust w grupie bodźców aktualnie oddziałujących na system wzrokowy. Drugi etap ma postać procesu tworzenia pojedynczego gestaltu twarzy na podstawie danych uzyskanych w wyniku analizy poszczególnych elementów twarzy. Ostatni etap ma polegać na określaniu tzw. relacji drugiego rzędu (second-order relations). Na tym etapie uzyskiwane są informacje o położeniu poszczególnych elementów twarzy względem siebie, względnych różnicach w ich wielkości oraz ich relatywnym zróżnicowaniu kolorystycznym. Co równie ważne, procesy te, związane z kolejnymi etapami przetwarzania konfi guracyjnego, przebiegają równolegle do procesów analizy pojedynczych elementów twarzy. W odniesieniu do tego drugiego rodzaju procesów poszczególne grupy badaczy wykorzystują różną terminologię, lecz ich istotą pozostaje zdolność do analitycznego przetwarzania fragmentów twarzy w oderwaniu od pozostałych jej elementów. Wyróżnienie trzech opisanych powyżej etapów przetwarzania konfi guracyjnego jest możliwe poprzez obserwację rezultatów specyfi cznych manipulacji eksperymentalnych stosowanych zresztą dość powszechnie w badaniach procesu przetwarzania twarzy. Jedną z form takich manipulacji jest prezentacja twarzy w pozycji inwertowanej (do góry nogami) i porównanie wyników z sytuacją, w której twarz jest prezentowana w normalnej pozycji. W przypadku zdrowych osób dorosłych rejestruje się dłuższe czasy reakcji i wyraźnie niższe wskaźniki poprawności rozpoznawania twarzy przedstawianych w pozycji do góry nogami (Yin, 1969; Rossion i Gauthier, 2002). Inny rodzaj stosowanej w badaniach manipulacji ma postać łączenia dwóch różnych twarzy w taki sposób, że górna część twarzy należąca do jednej osoby jest łączona z dolną połową twarzy innej osoby. Obserwuje się wówczas spowolnienie reakcji przy jednoczesnym obniżeniu wskaźników poprawności wykonania zadania (composite face eff ect), polegającego na rozpoznawaniu tożsamości osoby przedstawionej w górnej połowie tak spreparowanej i prezentowanej w normalnej pozycji twarzy, w porównaniu z warunkiem, w którym tak połączona twarz jest przedstawiona w pozycji odwróconej lub obie połówki twarzy są względem siebie przesunięte w poziomie (Young, Hellawell i Hay, 1987; Hole, 1994). Etap analizy relacji pierwszego rzędu może być utożsamiany do pewnego stopnia z procesami detekcji twarzy. Maurer, Le Grand i Mondloch wskazują, że na wyróżnienie tej fazy w procesie przetwarzania pozwala obserwacja efektu inwersji twarzy. W przypadku gdy widzimy twarze w pozycji normalnej oraz przedstawione do góry nogami, możemy obserwować zmiany we wskaźnikach behawioralnych rozpoznawania twarzy oraz zarejestrować różnice we wzorcach aktywności wybranych struktur mózgu lub przebiegu potencjałów ERP. Jednakże w przypadku obu przedstawień bodźca osoby badane bez problemu zaliczają je do tej samej kategorii (Freire, Lee i Symons, 2000; Le Grand i in., 2001). Warto również zwrócić uwagę, iż porównując aktywność mózgowego systemu rozpoznawania twarzy w odpowiedzi na ekspozycję normalnie przedstawianych oraz inwertowanych twarzy, notuje się istotne, ale relatywnie małe zmiany w aktywności zakrętu wrzecionowatego (Kanwisher, Tong i Nakayama, 1998; Aguirre, Singh i D’Esposito, 1999; Haxby i in., 1999). Wielkość tej różnicy jest ponadto nieporównywalnie mniejsza od różnicy w pobudzeniu tej struktury uzyskiwanej przy porównaniu twarzy z obiektami, które twarzami nie są (Haxby i in., 1999; Kanwisher, McDer-mott i Chun, 1997; McCarthy i in., 1997; Halgren i in., 1999; Hoffman i Haxby, 2000; Ishai i in., 1999; Gobbini i Haxby, 2006; Schwarzlose, Baker i Kanwisher, 2005; Yovel i Kanwisher, 2004; 2005). Z podobną sytuacją mamy do czynienia w przypadku elektrofi zjologicznych korelatów przetwarzania twarzy, do których należy komponent N170 (Bentin i in., 1996; Rossion, Gauthier i in., 2000; Rossion i in., 1999a; 1999b; Sagiv i Ben-tin, 2001; zob. także rozdział 4). Obserwuje się zazwyczaj wydłużenie czasu latencji, a czasami także wzrost amplitudy tego komponentu w odpowiedzi na twarze inwertowane w porównaniu z ich normalną ekspozycją. Jednak zmiana ta jest względnie mała w stosunku do różnicy obserwowanej w reakcjach na ekspozycję twarzy oraz innych obiektów. Te dwa wyniki sugerują więc, że zarówno twarze inwertowane, jak i prezentowane normalnie są przetwarzane przez system nerwowy wyraźnie inaczej niż obiekty, które twarzami nie są. Z odmienną sytuacją mamy do czynienia w przypadku bodźców, które twarzami w rzeczywistości nie są, pomimo iż wywołują takie wrażenie, lub gdy są to bardzo schematyczne ich przedstawienia. Przykładem pierwszego typu bodźców mogą być obrazy Arcimboldo, na których malarz przedstawiał twarze, komponu-jąc je z obiektów, które zdecydowanie elementami twarzy nie są, jak na przykład warzywa czy książki (http://www.arcimboldo.art.pl/old/index1.htm). W drugim przypadku chodzi o tzw. twarze Mooneya, w których za pomocą białych i czarnych plam tworzy się wzorce przypominające twarz3. Dla twarzy Mooneya obserwowano silną aktywację FFA, porównywalną z pobudzeniem rejestrowanym dla prawdziwych twarzy (Kanwisher, Tong i Nakayama, 1998). Jednocześnie jednak, gdy bodźce te prezentowano w pozycji odwróconej, zanotowano silny spadek aktywności w tej samej strukturze. Autorzy badania wyciągnęli wniosek, iż przy takiej formie prezentacji bodźce te były przetwarzane jak obiekty, które twarzami 3 Przykłady tak spreparowanych zdjęć twarzy czytelnik może znaleźć na stronie internetowej: http://www.princeton.edu/artofscience/gallery/view.php%3Fid=77.html (dostęp: styczeń 2012). nie są. Biorąc pod uwagę wspomniane rezultaty, Maurer, Le Grand i Mondloch sugerują, że etap analizy relacji pierwszego rzędu jest związany z detekcją elementów budujących twarz oraz oceną, na ile komponują się one w normalny jej wzorzec. Jeśli elementy twarzy są ułożone względem siebie w sposób prototypowy, wówczas następuje integracja wszystkich elementów w jedną spójną holistyczną reprezentację, co określają jako tworzenie gestaltu twarzy. Dowodem wskazującym na taki przebieg procesów przetwarzania są wyniki badań wykorzystujących bodźce spreparowane z połówek dwóch różnych twarzy. Jak wspomniano już wcześniej, rozpoznawanie tożsamości osoby przedstawionej w górnej połowie tak skomponowanych bodźców jest wolniejsze i mniej skuteczne, gdy są one prezentowane normalnie w porównaniu z ich odwróconą ekspozycją (Young, Hellwell i Hay, 1987; Hole, 1994). Rezultat ten można również obserwować w przypadku zdjęć przedstawianych w normalnej pozycji, lecz w negatywie (Hole, George i Dunsmore, 1999). Wydaje się jednak, iż wpływ prezentacji zdjęć w negatywie jest różny od obserwowanego dla łączenia dwóch połówek twarzy, przynajmniej wówczas gdy oba typy bodźców są pokazywane w normalnej pozycji. W pierwszym przypadku obserwuje się bowiem także zmianę w efektywności oceny położenia części twarzy względem siebie. Efekt taki nie występuje dla bodźców spreparowanych z dwóch połówek różnych twarzy. Inną ilustracją tej fazy analizy może być różnica w efektywności rozpoznawania tożsamości na podstawie pojedynczej części twarzy. Obserwuje się bowiem, iż różnicowanie eksponowanych w sposób izolowany części twarzy jest trudniejsze, niż gdy są one przedstawione jako element całej twarzy, co ważne – niekonieczne tej samej osoby (Tanaka i Farah, 1993; Tanaka i Sengco, 1997). Zjawisko to może być zredukowane poprzez zmianę odległości między innymi elementami twarzy lub poprzez jej inwersję. Nie rejestruje się podobnych rezultatów dla innych rodzajów obiektów. Ponadto wiele wskazuje na to, iż tworzenie gestaltu obejmuje zarówno wewnętrzne elementy twarzy (oczy, nos, usta), jak i jej zewnętrzne cechy, na przykład fryzura (Hole, 1994; Lee i Freire, 1999; Sinha i Poggio, 1996). Końcowym etapem analizy konfiguracyjnej jest określenie relacji pomiędzy poszczególnymi elementami twarzy, z uwzględnieniem ich charakterystycznego kształtu lub kolorystyki. Umożliwia to odróżnianie jednej twarzy od innych, pomimo bardzo wysokiego stopnia podobieństwa między nimi. Badania wskazują, że dorośli potrafią wyłowić tego rodzaju zmiany w położeniu części twarzy, nawet gdy zmiana ma wielkość 1 minuty kątowej (Haig, 1984). Ten rodzaj analizy twarzy można wykazać również poprzez obserwację skutków manipulacji w odniesieniu do kolorystyki lub kształtu poszczególnych elementów twarzy oraz manipulacji ograniczonych do przestrzennych relacji między tymi elementami. Okazuje się, iż różnicowanie twarzy charakteryzujących się odmiennymi relacjami przestrzennymi przy zachowanych cechach poszczególnych elementów twarzy jest wyraźnie wolniejsze i trudniejsze, gdy bodźce są inwertowane w porównaniu z normalną ich prezentacją. Co więcej, wielkość tej różnicy znacznie przewyższa efekt inwersji notowany dla twarzy, w przypadku których manipulowano kolorem lub kształtem pojedynczego elementu, zachowując relacje przestrzenne (Freire, Lee i Symons, 2000; Le Grand i in., 2001; Freire i Lee, 2001; Leder i Bruce, 1998; 2000). Inną techniką wykorzystywaną do wyróżnienia analizy relacji drugiego rzędu jest przedstawianie zdjęć rozmytych, co powoduje usunięcie detali charakterystycznych dla poszczególnych części twarzy. Tożsamość twarzy tak prezentowanych jest rozpoznawana na stosunkowo wysokim poziomie (Hayes, 1988). Obserwuje się jednak wyraźny spadek rozpoznawania, gdy rozmyte twarze są prezentowane w pozycji odwróconej (Collishaw i Hole, 2000). Przyczyną jest fakt, iż rozmycie twarzy zmniejsza istotnie liczbę informacji o pojedynczych częściach twarzy, lecz jednocześnie zachowane są dane o relacjach drugiego rzędu. W rezultacie możliwe jest rozpoznanie osoby przedstawionej na tak spreparowanym zdjęciu. Ekspozycja odwróconej fotografii zaburza dodatkowo analizę relacji przestrzennych, uniemożliwiając tym samym ocenę tożsamości. Trzy wyróżnione przez Daphne Maurer, Richarda Le Granda i Catherine Mon-dloch (2002) etapy analizy strukturalnej prowadzą do stworzenia reprezentacji poznawczej, unikatowej dla każdej twarzy, będącej podstawą procesu identyfi ka-cji tożsamości. Proces ten polega na powiązaniu wytworzonej reprezentacji z informacjami zgromadzonymi w systemie pamięciowym. 2.4. Podsumowanie Opisane w niniejszym rozdziale propozycje teoretyczne odnoszące się do procesów przetwarzania twarzy są jednocześnie bardzo do siebie zbliżone, ale zarazem wiele je odróżnia. Podobieństwa dotyczą przede wszystkim ogólnej wizji procesów zachodzących w trakcie analizy twarzy. Wszyscy autorzy (Bruce i Young, Haxby i jego zespół oraz Maurer, Le Grand i Mondloch) sugerują, iż mechanizm percepcji twarzy wykorzystuje analizę przestrzennej lokalizacji poszczególnych części twarzy oraz że jest ona przetwarzana przez system w sposób holistyczny poprzez uprzednie wytworzenie jej gestaltu. Wszyscy zgadzają się także, iż ocena tożsamości i innych relatywnie stałych cech opiera się na działaniu odmiennego mechanizmu niż w odniesieniu do charakterystyk ulegających często bardzo szybkim zmianom, jak w przypadku ekspresji emocjonalnej. Główne różnice dotyczą natomiast poziomu, na którym opisywane są interesujące nas zjawiska. Koncepcja Bruce i Younga oparta była przede wszystkim na danych uzyskiwanych w eksperymentach behawioralnych, a rezultaty badań funkcjonowania układu nerwowego stanowiły zestaw dodatkowych argumentów. Z podobną sytuacją mamy do czynienia w przypadku koncepcji Maurer, Le Granda i Mondloch, którzy ponadto ograniczyli się do opisu bardzo wczesnych faz przetwarzania twarzy. Najbardziej rozbudowaną i zarazem w największym stopniu opierającą się na wynikach badań fizjologicznych jest koncepcja Haxby’ego i jego grupy. Nic więc dziwnego, iż wspomniane propozycje teoretyczne w różnym stopniu wpłynęły na rozwój badań nad procesami przetwarzania twarzy. Najsłabszy wpływ ma propozycja Maurer, Le Granda i Mondloch, chociaż uważny czytelnik zauważy elementy tej koncepcji w wielu pracach dotyczących analizy strukturalnej twarzy. Propozycja Bruce i Younga, która jest bardzo często przytaczana w wielu różnych pracach, stanowi jednak najczęściej tylko punkt wyjścia dla rozważań odnoszących się do bardziej złożonych problemów. Najsilniejszy wpływ miała koncepcja Haxby’ego i jego współpracowników, szczególnie jeśli chodzi o badania wykorzystujące rejestrację aktywności mózgu, stanowiąc punkt odniesienia dla niemal wszystkich badań dotyczących percepcji twarzy prowadzonych po 2000 roku. Tak też koncepcja ta jest traktowana przez autora niniejszej pracy. Sugestie dotyczące lokalizacji i funkcji poszczególnych elementów systemu przetwarzania twarzy, zgodne z modelem teoretycznym Haxby’ego, będą się bowiem pojawiały w kolejnych częściach pracy. Zanim jednak zostaną one zaprezentowane, należy wskazać, iż koncepcja ta nie została przyjęta przez innych badaczy bez zastrzeżeń. Część bowiem naukowców zajmujących się podobną problematyką wskazało na wiele wątpliwości dotyczących interpretacji danych eksperymentalnych przytaczanych przez Haxby’ego. Ten właśnie problem zostanie poruszony w kolejnym rozdziale. Rozdział 3 Kontrowersje dotyczące modelu Haxby’ego Wyniki uzyskiwane w badaniach z użyciem różnych technik rejestracji aktyw-ności mózgu pozwalają na sugestię, iż w obrębie systemu nerwowego człowieka istnieją, co najmniej trzy potencjalnie wyspecjalizowane w procesach przetwarzania twarzy, obszary mózgu, umiejscowione w bocznej części zakrętu wrzecionowatego (FFA), wokół górnej bruzdy skroniowej (STS) oraz w bocznej części dolnego zakrętu potylicznego (OFA). Ich znaczenie funkcjonalne nie jest jednak do końca jasne. Teza, iż FFA jest elementem wyspecjalizowanym w zakresie przetwarzania twarzy, ma zarówno swych gorących zwolenników (Kanwisher, McDermott i Chun, 1997; Kanwisher, 2000; Kanwisher i Yovel, 2006), jak i krytyków (Gauthier, Behrmann i Tarr, 1999; Gauthier, Tarr i in., 2000; Gauthier i Logothetis, 2000; Tarr i Gauthier, 2000). Podobna sytuacja panuje w odniesieniu do roli pełnionej przez obszary wokół tylnej bruzdy skroniowej. I w tym przypadku część badaczy skłania się ku tezie, że obszar ten jest związany z procesami analizy zmiennych charakterystyk twarzy, wspomagając ocenę ekspresji emocjonalnej (Haxby, Hoff man i Gobbini, 2000; 2002), lecz istnieje też grupa badaczy sugerujących, iż taka interpretacja funkcji STS jest zbyt uproszczona. Wskazują oni na fakt, iż specyfi cz-na aktywacja tego rejonu może być wywołana przez bodźce różnej modalności różniące się dodatkowo w odniesieniu do najróżniejszych charakterystyk (Calder i Young, 2005; Allison, Puce i McCarthy, 2000). Ponadto problem wzajemnych interakcji między procesami, które byłyby związane z aktywacją trzech wymienionych powyżej obszarów mózgu, wciąż pozostaje nierozwiązany. Haxby i jego współpracownicy twierdzą, iż wczesne fazy przetwarzania twarzy zachodzą w bocznej części OFA, co jest punktem wyjścia dla następujących po nim analiz stałych i zmiennych charakterystyk twarzy. Te dwa ostatnie procesy są natomiast związane z aktywnością odpowiednio FFA oraz rejonu wokół STS. Teza ta wsparta jest obserwacją, iż obszary te sąsiadują z sobą (Haxby i in., 1999; Hoff man i Haxby, 2000). Jednocześnie jednak możliwe jest uzyskanie charakterystycznej aktywacji FFA w odpowiedzi na prezentację twarzy w przypadku rozległej lezji kory potylicznej, obejmującej także dolny zakręt potyliczny (Rosssion i in., 2003). Co równie ważne, u tej samej pacjentki (P.S.) w drugiej półkuli zanotowano uszkodzenie w obszarze zakrętu wrzecionowatego FFA. W przypadku tej połowy mózgu rejestrowano normalny wzorzec aktywacji OFA. Co istotne, pacjentka wykazywała klasyczne objawy prozopagnozji. Na poziomie normalnym dokonywała różnicowania twarzy od innych obiektów, ale także potrafiła na poziomie porównywalnym z osobami zdrowymi oceniać różnice między dwoma obiektami nie-będącymi twarzami i należącymi do tej samej kategorii. Oznaczałoby to, iż dane sensoryczne nie są dostarczane do FFA za pośrednictwem struktur lokalizowanych niżej w hierarchii systemu wzrokowego, takich jak na przykład OFA. Autorzy badania przypuszczają wręcz, iż połączenia neuronalne do obu fragmentów mózgowego systemu przetwarzania twarzy są niezależne i równoległe. Wyniki te sugerują również, że normalne rozpoznawanie twarzy wymaga zintegrowanej aktywności obu elementów mózgowego systemu przetwarzania twarzy. Do podobnych wniosków prowadzą także rezultaty badań pacjentki D.F. z obustronnymi rozległymi lezjami kory potylicznej (Steeves i in., 2006). Obejmowały one obszary określane jako OFA, przy zachowanych strukturach zakrętu wrzecionowatego. Pacjentka wykazywała głębokie deficyty w odniesieniu do rozpoznawania takich charakterystyk twarzy, jak płeć, tożsamość oraz ekspresja emocjonalna. Jednocześnie na normalnym poziomie miała zachowaną zdolność do określania, czy widziany obiekt jest, czy nie jest twarzą. Zanotowano u niej także problemy z dyskryminacją prostych wzorów geometrycznych i rozpoznawaniem przedmiotów. Co ciekawe, wzorce aktywacji FFA oraz STS wywołane prezentacją twarzy nie odbiegały od obserwowanych w grupie kontrolnej. Oba wspomniane przypadki wskazują wyraźnie, iż relacje między elementami mózgowego systemu przetwarzania twarzy mogą mieć inny od zakładanego w modelu Haxby’ego charakter. Dotyczy to przede wszystkim kierunku oddziaływań pomiędzy OFA oraz FFA. 3.1. Jaką rolę pełni zakręt wrzecionowaty? Isabel Gauthier vs Nancy Kanwisher Jedna z linii krytyki modelu Haxby’ego dotyczy twierdzenia, iż rejon zakrętu wrzecionowatego, utożsamiany w jego koncepcji z obszarem analizy stałych charakterystyk twarzy, w rzeczywistości jest wyspecjalizowanym mózgowym centrum przetwarzania różnego rodzaju obiektów na poziomie podkategorii. Część badaczy (Gauthier, Behrmann i Tarr, 1999; Gauthier, Tarr i in., 2000; Gauthier i Logothetis, 2000; Tarr i Gauthier, 2000) uważa bowiem, że specyfi cznie silna reakcja tego rejonu mózgu w przypadku prezentacji twarzy nie wynika z faktu, iż jest to obszar ściśle wyspecjalizowany w jej przetwarzaniu, lecz raczej z faktu, że każdy z ludzi w toku swojego życia staje się mimowolnie ekspertem w różnicowaniu ludzi. Twierdzą oni, iż podobną wrażliwość zakrętu wrzecionowatego można obserwować w przypadku każdej kategorii bodźców wzrokowych, lecz tylko w grupie ekspertów w różnicowaniu obiektów w tej kategorii. Zwraca się przy tym uwagę na to, że jednym z efektów, które mają świadczyć na rzecz tezy, iż twarze są w sposób szczególny przetwarzane w ludzkim mózgu, jest efekt inwersji twarzy. Jak wspomniano już wcześniej, efekt inwersji twarzy polega na tym, że w sytuacji, gdy bodźce są prezentowane w pozycji normalnej, zazwyczaj uzyskuje się wysokie wskaźniki ich rozpoznawania, jednak gdy te same twarze są prezentowane w pozycji inwertowanej, skuteczność ich różnicowania drastycznie spada (Yin, 1969; Rossion i Gauthier, 2002). Podobnego rezultatu nie obserwuje się w przypadku obiektów innych niż twarze, lecz tylko dopóki osobami badanymi nie są eksperci w określonej dziedzinie. Okazuje się, iż efekt inwersji o podobnym do twarzy charakterze został zarejestrowany w grupie ekspertów w ocenianiu psów (Diamond i Carey, 1986) oraz grafologów (Bruyer i Crispeels, 1992), w sytuacji gdy bodźcami ocenianymi przez te osoby były odpowiednio zdjęcia psów rasowych lub próbki pisma. Oznaczałoby to, iż w przypadku tych grup osób przetwarzanie zarówno twarzy, jak i obiektów, w których rozpoznawaniu są oni ekspertami, przebiega z wykorzystaniem podobnego mechanizmu poznawczego. Ponadto wskazuje się często, że twarz jest bodźcem przetwarzanym holistycznie w o wiele większym stopniu niż w przypadku innych obiektów (Fa-rah, 1996; Farah, Wilson, Drain i Tanaka, 1995; Young, Hellawell i Hay, 1987). Podobne jednak wyniki zostały uzyskane dla osób wytrenowanych w rozpoznawaniu tzw. ciaptaków (greebels)4, sztucznie wytworzonych obiektów o złożonej budowie, przy rozpoznawaniu których wymagany jest podobny wzorzec analizy strukturalnej jak w przypadku twarzy (Gauthier i Tarr, 1997; Gauthier, Williams, Tarr i Tanaka, 1998). Według Isabel Gauthier nie do końca prawdziwa jest również teza, iż pacjenci z prozopagnozją, zaburzeniem rozpoznawania tożsamości twarzy, identyfi kują obiekty inne niż twarze na poziomie zbliżonym do osób zdrowych (De Ren-zi, 1986; Farah, Levison i Klein, 1995). Jak sugerują Gauthier, Behrmann i Tarr (1999), w przypadku części badań można podejrzewać niedokładną kontrolę poziomu podobieństwa testowanych obiektów. Inna ich wątpliwość odnosi się do charakterystyki efektu inwersji twarzy notowanej u tych pacjentów. Przypisuje się im bowiem również zdolność do efektywniejszego rozpoznawania twarzy inwertowanych w porównaniu z prezentowanymi normalnie, co jest rezultatem dokładnie odwrotnym w porównaniu z osobami zdrowymi (Farah, Levison i Klein, 1995). W przypadku jednak niektórych pacjentów z tym zaburzeniem można obserwować efekt inwersji o odwróconym kierunku także w związku z obiektami, 4 Przykłady tzw. ciaptaków czytelnik znajdzie w książce Kalata (2006) na s. 171. które twarzami nie są (de Gelder, Bachoud-Levi i Degos, 1998). Sugerowałoby to, iż charakterystyczny odwrócony efekt inwersji w prozopagnozji nie może być traktowany jako argument na rzecz poglądu, że przetwarzanie twarzy jakościowo różni się od procesów analizy innych bodźców wzrokowych. Również w odniesieniu do danych neurofizjologicznych pojawiają się pewne niejasności. Wyniki uzyskiwane przez grupę Isabel Gauthier (Gauthier i Tarr, 1997; Gauthier, Tarr i in., 2000) wskazują, iż w obszarze zakrętu wrzecionowatego, uznawanego przez wielu badaczy (Kanwisher, McDermott i Chun, 1997; Yovel i Kanwisher, 2004; 2005; Schwarzlose, Baker i Kanwisher, 2005) za wyspecjalizowane centrum analizy twarzy, można wywołać specyficzne wzorce aktywacji poprzez prezentację obiektów innych niż twarz. Dzieje się tak w warunkach wymagających od badanych ich rozróżniania na poziomie podkategorii. Podobne wyniki obserwuje się w przypadku rozpoznawania sztucznych obiektów (ciaptaków) po fazie uczenia się tej zdolności (Gauthier, Tarr i in., 1999). Wszystkie te nieścisłości świadczą, zdaniem Isabel Gauthier i jej współpracowników, raczej na rzecz tezy, iż rejon w FFA jest częścią mózgu wyspecjalizowaną w rozpoznawaniu obiektów wzrokowych każdego rodzaju, pod warunkiem że proces ten będzie wymagał złożonego przetwarzania holistycznego oraz różnicowania na poziomie podkategorii. Takie ujęcie jest więc niezgodne z modelem przedstawionym przez Haxby’ego. Co równie jednak ważne, kłóci się także z dość powszechnym przekonaniem, wspartym zresztą licznymi danymi eksperymentalnymi, iż podstawowe elementy systemu przetwarzania twarzy mogą być aktywne od momentu urodzenia (Farah, Rabinowitz i in., 2000; Geldart, Mondloch i in., 2002). Skoro bowiem efektywność przetwarzania twarzy oraz specyfika reakcji fizjologicznych towarzyszących temu procesowi mają się kształtować według Gauthier wraz z nabywaniem wprawy w rozpoznawaniu twarzy, wówczas trudno oczekiwać zdolności w tym zakresie na poziomie eksperckim w odniesieniu do noworodków lub niemowląt. Wizja przedstawiona przez Gauthier zakłada, że wyspecjalizowana część systemu wzrokowego, aktywowana przez ekspozycję twarzy, jest w rzeczywistości elementem służącym precyzyjnej dyskryminacji każdego rodzaju bodźców wzrokowych. W przypadku większości ludzi obiektami spełniającymi to kryterium są twarze, które ze względów społecznych wymagają właśnie bardzo subtelnego ich różnicowania. W związku z tym większość ludzi mimowolnie staje się w ciągu swego życia ekspertami w ich identyfikacji. Jednak w przypadku gdy wymagane jest różnicowanie na podobnym poziomie innych klas obiektów wzrokowych, wówczas identyczny moduł mózgowy mógłby być wykorzystany w podobnym celu. Taką sugestię wspierają wspomniane powyżej badania, w których prowadzono trening w identyfikacji sztucznych obiektów. Warto jednak zauważyć, iż hipoteza ta jest niezgodna z danymi uzyskiwanymi w niektórych badaniach z udziałem pacjentów z deficytami w rozpoznawaniu twarzy. Bradley Duchaine i jego współpracownicy (2004) przedstawili przypadek pacjenta z prozopagnozją rozwojową, który został wytrenowany w rozpoznawaniu ciaptaków, czyli sztucznych obiektów stosowanych w badaniach również przez zespół Gauthier. Z kolei ten sam pacjent od urodzenia miał problemy z rozpoznawaniem tożsamości na podstawie twarzy. Oznacza to, że przynajmniej w przypadku osób z rozwojową formą prozopagnozji istnieje dysocjacja między systemem przetwarzającym twarze a układem stanowiącym podłoże dla uczenia się sztucznych obiektów. Zwolennicy tezy, iż rejon zakrętu wrzecionowatego jest wyspecjalizowanym elementem analizującym wyłącznie twarze, przytoczyli jednak wiele argumentów na obronę swego stanowiska (McKone, Kanwisher i Duchaine, 2006). Wskazują oni między innymi, że wyniki uzyskane przez Diamond i Carey (1986) nigdy nie zostały zreplikowane. Wręcz przeciwnie, dane uzyskane przez Robbins i McKone (2007) wskazują, że w grupie ekspertów w ocenianiu psów nie występuje efekt inwersji o podobnym charakterze jak w przypadku twarzy. McKone, Kanwisher i Duchaine sugerują także, iż przynajmniej część rezultatów obserwowanych w badaniach z wykorzystaniem technik neuroobrazowania, które miały wspierać tezę Gauthier i jej zwolenników, nie jest wcale tak jednoznaczna. Teza ta była uzasadniana przez obserwację wyższych wskaźników pobudzenia dla obiektów, wobec których badany był ekspertem, w porównaniu z innymi obiektami. Jak twierdzą jednak McKone, Kanwisher i Duchaine, w ośmiu publikacjach prezentujących tego typu wyniki w trzech (Gauthier, Skudlarski i in., 2000; Gauthier, Tarr i in. 1999; Xu, 2005) stwierdzono efekt dla FFA, który był jednak wyraźnie słabszy niż te notowane dla twarzy. Wzrost pobudzenia tej struktury podczas ekspozycji twarzy w porównaniu z innymi obiektami jest zazwyczaj przynajmniej dwukrotny. Ponadto przynajmniej w jednym z trzech wspomnianych badań (Gauthier, Tarr i in., 1999) wzrost pobudzenia nie był ograniczony do FFA, lecz obejmował także inne części zakrętu wrzecionowatego i struktur przyległych. Według McKone, Kanwisher i Duchaine’a może to być rezultat większego zaangażowania uwagi w przetwarzanie obiektów, w odniesieniu do których osoba jest ekspertem. W przypadku pozostałych eksperymentów zanotowano wyłącznie nieistotne trendy (Rhodes i in., 2004; Moore, Cohen i Ranganath, 2006) lub brak efektu (Grill-Spector, Knouf i Kanwisher, 2004; Yue, Tjan i Biederman, 2006; Op de Beeck i in., 2006). Ponadto w części tych badań zarejestrowane efekty okazywały się silniejsze poza FFA (Rhodes i in., 2004; Gauthier, Skudlarski i in., 2000; Moore, Cohen i Ranganath, 2006; Yue Tjan i Biederman, 2006; Op de Beeck i in., 2006). Taka charakterystyka rezultatów uzyskiwanych w tych badaniach nie może być w takim razie traktowana jako argument na rzecz tezy forsowanej przez Gauthier, iż część zakrętu wrzecionowatego, w której obserwuje się istotnie silniejsze wskaźniki aktywacji dla twarzy, jest zarazem mózgowym modułem stanowiącym podstawę dla rozwijania zdolności do różnicowania każdego innego obiektu wzrokowego. Dyskusja prowadzona na łamach czasopism naukowych między zwolennikami obu ujęć, gorąca kilka lat temu, z czasem wyraźnie przycichła, co nie znaczy, że problem został ostatecznie rozwiązany (zob. Gauthier i Bukach, 2007; McKone i Robbins, 2007). Zdecydowanie była ona jednak impulsem do nowych badań dotyczących omawianego problemu. 3.2. Separacja anatomiczna i funkcjonalna czy jeden system? Andrew Calder i Andrew Young vs James Haxby Na inny rodzaj problemów, wynikających z propozycji teoretycznej Haxby’ego, wskazują Calder i Young (2005). Autorzy ci zgadzają się z ogólnym przesłaniem koncepcji zakładającej istnienie w ludzkim systemie nerwowym grupy struktur w specyficzny sposób wykorzystywanych w procesach przetwarzania twarzy. Akceptują również tezę, że różne charakterystyki twarzy, takie jak przestrzenne relacje pomiędzy elementami twarzy lub wzorce ruchu poszczególnych jej części, są w odmienny sposób interpretowane, prowadząc do uzyskania informacji o tożsamości twarzy, komunikowanej przez nią ekspresji lub wspomagają procesy identyfikacji mowy i orientacji w przestrzeni. Główny zarzut formułowany przez Caldera i Younga dotyczy hipotezy mówiącej o anatomicznej i funkcjonalnej separacji poszczególnych części systemu przetwarzającego twarze. Teza ta jest, jak opisano to wcześniej, oparta na wynikach licznych eksperymentów wykorzystujących często odmienne paradygmaty badawcze. Przykładem może być brak wpływu poziomu znajomości na efektywność rozpoznawania ekspresji mimicznej (Bruce, 1986; Campbell i in., 1996; Young i in., 1986; Calder i in., 2000) lub podwójna dysocjacja obserwowana w odniesieniu do deficytów w zakresie identyfikacji tożsamości twarzy oraz jej ekspresji emocjonalnej obserwowana u pacjentów z lezjami (Etcoff, 1984; Young i in., 1993; Bruyer i in., 1983; Tranel, Damasio i Damasio, 1988; Hornak, Rolls i Wade, 1996). Argumentem za tezą o odmiennej anatomicznie lokalizacji ośrodków wyspecjalizowanych w analizie różnych charakterystyk twarzy są również, przedstawione wcześniej, wyniki badań Hasselmo, Rollsa i Baylisa (1989), prowadzonych na makakach oraz rezultaty eksperymentów wykorzystujących techniki neuroborazo-wania u ludzi (Sergent, Ohta, MacDonald i Zuck, 1994; Winston i in., 2004; Ishai, Schmidt i Boesiger, 2005; Ishai, Pessoa i in., 2004; Hoffman i Haxby, 2000). Calder i Young sugerują jednak, iż twierdzenie o tak dalece idącej anatomicznej i funkcjonalnej separacji strumieni przetwarzania tożsamości twarzy oraz analizy jej ekspresji emocjonalnej jest nadinterpretacją. Wskazują między innymi na fakt, że nie ma jednoznacznych przykładów na w pełni zachowaną zdolność do rozróżniania ekspresji mimicznych u pacjentów z prozopagnozją. U większości tych pacjentów stwierdza się bowiem oprócz problemów z rozpoznawaniem tożsamości twarzy także słabsze, lecz wyraźne problemy w ocenie mimiki emocjonalnej. Różnica w sile, z jaką oba syndromy są notowane u pacjentów, może zresztą wynikać, zdaniem Caldera i Younga, z różnic proceduralnych między standardowymi testami neuropsychologicznymi stosowanymi do diagnozy obu rodzajów zdolności. Ponadto nawet w odniesieniu do pacjentów, u których taka podwójna dysocjacja jest obserwowana, nie możemy mówić o jednoznacznej interpretacji tych przypadków, ze względu na często niejasne przyczyny defi cytów (Etcoff, 1984; Young i in., 1993; Parry i in., 1990). Syndromy obserwowane u takich chorych mogą być traktowane jako argument na rzecz tezy o zróżnicowaniu obu rodzajów procesów, uwikłanych w identyfikacje tożsamości twarzy lub jej ekspresji emocjonalnej, lecz nie przesądzają o ich odmiennej podstawie neuronalnej. Dodatkowo autorzy sugerują, że dokładna analiza tych przypadków nie pozwala całkowicie wykluczyć, iż prawdziwą przyczyną zaburzeń jest niezdolność do uczenia się twarzy (prozopamnezja), a co za tym idzie również ich późniejszego rozpoznawania (Tranel, Damasio i Damasio, 1988; Tippet, Miller i Farah, 2000), lub zaburzenie dostępu do wiedzy o znajomych pacjentowi twarzach, co zakłóca ich identyfikację nie tylko na podstawie twarzy, lecz przykładowo również głosu (Hanley, Young i Pearson, 1989; Evans i In., 1995; Ellis, Young i Critchley, 1989). W wielu wcześniej-szych badaniach nie wykluczono również innych deficytów poznawczych, takich jak amnezja (Etcoff, 1984; Parry i in., 1990). Problem dodatkowo komplikuje fakt, iż niektórzy pacjenci przejawiają trud-ności w różnicowaniu twarzy nieznanych, przy jednocześnie zachowanej umiejęt-ności do identyfikacji twarzy osób im osobiście znajomych lub odwrotnie (Young i in., 1993; Malone i in., 1982). Biorąc pod uwagę wszystkie przedstawione przez Caldera i Younga (2005) wątpliwości dotyczące badań pacjentów, można rzeczy-wiście stwierdzić, że nie ma jednoznacznych dowodów wskazujących na anatomiczne rozdzielenie systemów rozpoznawania tożsamości twarzy oraz identyfi -kacji ekspresji emocjonalnej. Autorzy sugerują, iż alternatywnym wyjaśnieniem różnic w obserwowanym poziomie wykonania testów obu zdolności może być różna ich trudność, przez co u większości pacjentów zaliczanych do grona osób z prozopagnozją obserwuje się wyraźniejsze deficyty w zakresie rozpoznawania tożsamości twarzy niż w przypadku klasyfikacji ekspresji mimicznych. Calder i Young wysuwają również podobne wątpliwości w odniesieniu do innych badań, które stanowiły podstawę hipotezy o anatomicznym i funkcjonalnym rozdzieleniu mechanizmów analizy tożsamości twarzy oraz analizy ekspresji emocjonalnej. Zauważają przy tym, iż prawdą jest, że techniki neuroobrazowania stosowane w badaniach ludzi, podobnie jak śródczaszkowa rejestracja aktywności neuronów u makaków, pozwalają uzyskać precyzyjne dane o lokalizacji ośrodków mózgowych aktywowanych w trakcie przetwarzania różnych aspektów twarzy. Jednocześnie jednak należy pamiętać, iż czynnikiem ograniczającym możliwość uogólnień na podstawie wyników tego rodzaju badań jest fakt, że ich rezultaty są determinowane przez procedurę badawczą, tym samym uzyskiwane w nich efekty są przede wszystkim mózgowymi korelatami manipulacji eksperymentalnych. Wskazują również, że w stosunkowo niewielkiej liczbie badań stosowano procedury pozwalające na jednoczesną obserwację skutków manipulacji w zakresie przetwarzania tożsamości i ekspresji mimicznej (Hasselmo, Rolls i Baylis, 1989; George i in., 1993; Sergent, Ohta, MacDonald i Zuck, 1994; Narumoto i in., 2001; Sugase i in., 1999; Winston i in., 2004). Co więcej, wyniki tych badań nie są całko-wicie z sobą zgodne. O ile w badaniach Hasselmo, Rollsa i Baylisa (1989) uzyskano stosunkowo wyraźne różnice we wzorcach reagowania neuronów położonych w brzusznej części płata skroniowego oraz wokół STS, o tyle dane z eksperymentów z wykorzystaniem technik neuroobrazowania z udziałem ludzi nie pozwalają na jednoznaczne wnioski. Jak wspomniano w poprzednim rozdziale, w korze makaka możliwe jest wyróżnienie neuronów selektywnie wrażliwych na zmiany tożsamości prezentowanych twarzy i zarazem niewrażliwych na zmiany ekspresji mimicznej (rejon ITG w brzusznej części kory skroniowej). Z kolei komórki zlokalizowane wokół STS wykazują specyficzną wrażliwość na manipulacje wyrazem mimicznym, przy braku zmian w reagowaniu podczas prezentacji różnych tożsa-mości twarzy. W wymienionych tu badaniach z udziałem ludzi, testujących neuronalne podłoże zarówno rozpoznawania tożsamości twarzy, jak i ekspresji mimicznej, konsekwentnie uzyskiwano dane sugerujące, iż obszary kory potyliczno-skroniowej, w tym zakręt wrzecionowaty, są aktywowane w trakcie analizy stałych charakterystyk twarzy. Jednocześnie rezultaty tych badań są dużo mniej spójne w odniesieniu do obszarów mózgu związanych z analizą ekspresji emocjonalnej i tylko w dwóch z nich rejestrowano specyficzną aktywację w obrębie STS. Przykłado-wo, w eksperymencie przeprowadzonym przez Narumoto i współpracowników (2001) zarejestrowano zróżnicowanie w pobudzeniu STS przy manipulacji ekspresją emocjonalną, ale jednocześnie zmiany o podobnym charakterze w obrębie FFA. Ta ostatnia część mózgu wykazywała także wrażliwość na zmiany tożsamości twarzy. W badaniu Winstona i jego współpracowników (2004) uzyskano dane sugerujące, iż obszar FFA oraz tylna część rejonu wokół STS są wrażliwe na manipulacje tożsamością twarzy, podczas gdy bardziej do przodu położone części STS wykazują zróżnicowane pobudzenie w przypadku zmiany ekspresji mimicznej. Biorąc jednak pod uwagę fakt, że podobne efekty ekspresji emocjonalnej można uzyskać w tym samym obszarze STS, stosując bodźce akustyczne (ekspresja wokalna) oraz wzrokowe (zdjęcia twarzy), istnieje możliwość, iż funkcją tego rejonu jest integracja danych docierających jednocześnie w różnych modalnościach i od-noszących się do tego samego obiektu. Taka interpretacja sugeruje, iż rejonu wokół STS nie można utożsamiać wyłącznie z procesami percepcji twarzy. Należy jednak pamiętać, że górna bruzda skroniowa rozdziela dwa wyjątkowo duże, ale zarazem także zróżnicowane funkcjonalnie zakręty w płacie skroniowym, którymi są górny oraz środkowy zakręt skroniowy. W tym obszarze mózgu lokalizowane są procesy analizy danych słu-chowych (wyższorzędowe obszary kory słuchowej), w tym dźwięków mowy (pole Wernickego). Istnieje również wiele danych sugerujących, iż różne rodzaje bodźców, będących informacją o ruchu poszczególnych elementów twarzy, całej głowy lub innych części ciała, wywołują specyficzną odpowiedź obszaru wokół STS (Al-lison, Puce i McCarthy, 2000). Ciekawym przykładem mogą być rezultaty badań Helen Neville (Neville i in., 1998) wskazujące na udział tego obszaru w dekodowaniu znaków języka migowego obserwowany wyłącznie u osób posługujących się tym językiem (zarówno słyszących, jak i głuchych) w porównaniu z osobami słyszącymi, które nie znały języka migowego. Wynik ten jest zgodny z opisanymi wcześniej rezultatami eksperymentu Calvert i jej grupy (1997) sugerującymi udział obszaru mózgu położonego wokół górnej bruzdy skroniowej (STS) w procesie dekodowania ruchów ust w czasie werbalizacji. Wydaje się więc, iż obecnie trudno jednoznacznie rozstrzygnąć, czy pewne fragmenty kory mózgu, położone wokół STS, są rzeczywiście wyspecjalizowane w detekcji zmian położenia elementów twarzy, co zakładano w koncepcji Haxby’ego (Haxby, Hoffman i Gobbini, 2000; 2002). Najsilniejszym argumentem za taką interpretacją są rezultaty badań na makakach wykazujące istnienie komórek, których pobudzenie rejestrowano wyłącznie w przypadku prezentacji twarzy (Perrett, Rolls i Caan, 1982) w porównaniu z wieloma innymi bodźcami wzrokowymi. W podobnym obszarze zlokalizowano również neurony wrażliwe na ukierunkowanie wzroku niezależnie od położenia samej głowy oraz na pozycję głowy lub kąt, pod jakim została przedstawiona (Perrett i in., 1985). Wszystkie te specyficzne reakcje obserwowano w osobnych populacjach komórek nerwowych. Uwzględniając te dane, można postawić hipotezę, iż podobne zróżnicowanie w pobudliwości neuronów kory wokół STS charakteryzuje ludzki mózg. Wówczas obie hipotezy – wskazująca na wysoki poziom specjalizacji obszarów STS i ich udział w procesach przetwarzania twarzy (koncepcja Haxby’ego) oraz sugerująca, że ten rejon mózgu nie jest wyłącznie wrażliwy na twarze, a jego rolą jest raczej integracja, uzyskiwanych za pomocą różnych modalności, informacji o ruchu obiektów ożywionych – mogą być prawdziwe. Ich wzajemna niespójność miałaby charakter pozorny, wynikający z uwzględniania w obu przypadkach danych uzyskanych w odmiennych paradygmatach i odnoszących się do różnych, wymieszanych z sobą w obrębie tej samej części mózgu, grup neuronów. Dane eksperymentalne przytoczone przez Caldera i Younga (2005), sugerujące odmienną wizję współdziałania poszczególnych elementów systemu przetwarzania twarzy, w skład którego wchodzą dolny zakręt potyliczny, zakręt wrzecionowaty oraz rejon wokół STS, wsparte są dodatkowo przez wyniki komputerowych symulacji działania mechanizmu analizy twarzy. Autorzy ci wskazują, iż nie można jednoznacznie wykazać, że poszczególne procesy uwikłane w rozpoznawanie tożsamości twarzy oraz jej ekspresji mimicznej posiadają wyraźnie odseparowane anatomicznie podłoże neuronalne. Z tego względu proponują traktować cały układ struktur mózgowych wyspecjalizowanych w przetwarzaniu twarzy jak rozległy system. W jednej z prac opisali oni efekty analizy komponentowej (principal component analysis – PCA), w której twarze wybrane ze zbioru Ekmana i Friesena zostały odpowiednio przetworzone przez program komputerowy, aby można było dokonywać porównań w przestrzennej lokalizacji w obrazie pikseli o określonej charakterystyce (Calder i in., 2001). Autorzy tej pracy stwierdzili, iż zarówno różnice między ekspresjami prezentowanymi na tych twarzach, jak i różnice w tożsamości osób na zdjęciach ekmanowskich można opisać, wykorzystując te same wyróżnione w analizie komponenty. Oznaczałoby to, że całość zróżnicowania sta-łych oraz zmiennych charakterystyk twarzy może opracowywać ten sam system. Wydaje się jednak, iż taka wizja działania systemu przetwarzania twarzy jest uproszczona. Po pierwsze dlatego, że opiera się na analizie specjalnie przecież dobranych zdjęć. Każda z kategorii ekspresji w tym zestawie, podobnie jak w każdym podobnym, zawiera zdjęcia, w przypadku których uzyskiwano najwyższe wskaźniki zgodności. Dopiero więc podobne wyniki uzyskane w analizach zdjęć o niskich wskaźnikach tego typu stanowiłyby silny argument na rzecz tezy, że jeden system radzi sobie z różnicowaniem ekspresji i tożsamości. Po drugie, jak wskazują badania na makakach, neurony wrażliwe na zmiany tożsamości charakteryzowała także zdolność do „rozpoznawania” tożsamości pomimo zmian w sposobie prezentacji twarzy (oświetlenie, profil itp.). Po trzecie, zdjęcia poddane analizie są wyłącznie statyczną prezentacją ekspresji emocjonalnej. Prawdziwa mimika emocjonalna to zmiany, ponadto pojawiające się bardzo szybko. Subiektywna ocena intensywności ekspresji zależy od tego, czy jej prezentacja ma charakter dynamiczny, czy statyczny (Biele i Grabowska, 2006). Również ta charakterystyka nie była analizowana w pracach grupy Caldera. Stąd trudno jednoznacznie ocenić przydatność wyników przedstawionych przez tych autorów (Calder i in., 2001). Wydaje się, iż dopóki nie zostaną uzyskane podobne rezultaty w analizach uwzględniających jednak w większym stopniu złożoność procesów przetwarzania tożsamości oraz ekspresji emocjonalnej, nie będzie można rozstrzygnąć, czy rzeczywiście mamy do czynienia z jednym rozległym, lecz jednocześnie operującym w wielu wymiarach mechanizmem (tożsamość, ekspresja mimiczna) analizującym twarze. 3.3. Podsumowanie Każda konstruktywna krytyka w nauce przyczynia się do rozwoju naszej wiedzy o świecie. Nie inaczej jest w przypadku koncepcji teoretycznych odnoszących się do procesów przetwarzania twarzy. Zarówno bowiem wątpliwości wysuwane przez Isabel Gauthier, jak i hipotezy Caldera oraz Younga spowodowały, że póź-niejsze badania były planowane dużo precyzyjniej, a ich rezultaty interpretowano o wiele ostrożniej. Niezależnie jednak od tego, jakie zjawisko uznamy za przyczy nę faktu, iż wybrane części mózgu mogą wykazywać specyficzne wzorce aktywacji podczas ekspozycji twarzy, musimy stwierdzić, iż dane eksperymentalne zebrane w ostatnich latach sugerują jednoznacznie, że twarze są inaczej przetwarzane w porównaniu z większością pozostałych obiektów. Metodą badawczą, dzięki której uzyskiwane są dane również sugerujące taką dychotomię, a jednocześnie umożliwiającą bardzo dokładny opis czasowej charakterystyki interesujących nas procesów, jest pomiar potencjałów ERP. Dane otrzymane przy wykorzystaniu tej techniki zostaną zaprezentowane w kolejnym rozdziale. Rozdział 4 Elektrofizjologiczne korelaty przetwarzania twarzy Przedstawione w poprzednich rozdziałach wyniki badań psychofi zjologicznych, prowadzonych z wykorzystaniem różnych metod pomiaru aktywności systemu nerwowego, pozwalają na wyróżnienie w obrębie ludzkiego układu wzrokowego zespołu struktur, które w sposób szczególny są powiązane z procesami przetwarzania twarzy. Przeważająca większość tych badań wykorzystywała techniki pomiarowe oparte na rejestracji reakcji hemodynamicznej (jak np. fMRI). Dzięki wysokiej rozdzielczości przestrzennej tych metod możliwe jest precyzyjne okre-ślenie części mózgu specyfi cznie ulegających pobudzeniu w wyniku manipulacji eksperymentalnych. Niestety, wadą technik neuroobrazowania jest relatywnie niska rozdzielczość czasowa, która nie pozwala na opisanie czasowej charakterystyki procesów mózgowych uwikłanych w analizę twarzy na poszczególnych etapach jej przetwarzania. Aby więc z dużą dokładnością określić czasową charakterystykę tego procesu, konieczne jest wykorzystanie technik opartych bezpośrednio na pomiarze aktywności elektrycznej mózgu, do których zalicza się technikę rejestracji potencjałów skorelowanych ze zdarzeniem (ERP). W metodzie tej dokonuje się pomiaru sygnału elektroencefalograficznego (EEG) w wielokrotnie powtarzanej identycznej sytuacji eksperymentalnej. Następnie pojedyncze zapisy podlegają uśrednieniu, co pozwala na wyodrębnienie zmian w pobudzeniu mózgu, charakterystycznych dla procesu przetwarzania informacji. Natomiast ta część zapisu EEG, która nie jest związana z tym procesem i stąd ma charakter losowego szumu, ulega wyzerowaniu w wyniku uśredniania. W rezultacie możliwe jest określenie zmian w wielkości potencjałów elektrycznych powstających w różnych punktach na głowie osoby badanej. Metoda ta charakteryzuje się wysoką, rzędu milisekund, rozdzielczością czasową. Jednocześnie poprzez obserwację skutków manipulacji eksperymentalnych możliwe jest powiązanie zmian potencjałów z procesami przetwarzania informacji. Wadą tej techniki jest niestety stosunkowo niska rozdzielczość przestrzenna, spowodowana przez właściwości elektryczne płynu mózgowo-rdzeniowego, opon mózgowych, kości czaszki oraz skóry głowy. Alternatywą dla pomiaru ERP może być śródczaszkowa rejestracja aktywności mózgu poprzez elektrody umieszczone na powierzchni kory mózgowej lub ich lokalizacja w głębokich warstwach kory i struktur podkorowych (Allison, Puce, Spencer i McCarthy, 1999; McCarthy, Puce, Belger i Allison, 1999; Puce, Allison i McCarthy, 1999). Ze względu na wysoką inwazyjność tej metody może ona być stosowana tylko w wyjątkowych przypadkach, najczęściej u pacjentów przygotowywanych do zabiegu operacyjnego. Inną techniką charakteryzującą się wysoką rozdzielczością czasową przy jednoczesnej możliwości uzyskiwania precyzyjnych danych lokalizacyjnych jest magnetoencefalografia (MEG) oraz uzyskiwane dzięki tej metodzie pola magnetyczne skorelowane ze zdarzeniem (event-related fi elds – ERF). Szczegółowy opis tych technik czytelnik znajdzie w pozycjach poświęconych podstawom badań psychofizjologicznych (Jaśkowski, 2009; Sosnowski i Jaśkowski, 2008). Niewątpliwie jednak dzięki tym metodom nasza wiedza na temat mózgowych procesów związanych z mechanizmem rozpoznawania różnych aspektów twarzy jest dużo dokładniejsza. Metody te pozwoliły bowiem na wyróżnienie kilku komponentów ERP lub ERF, które można wiązać z procesami przetwarzania twarzy. Należą do nich komponent N170 rejestrowany za pomocą EEG oraz jego magnetoelektryczny odpowiednik w postaci M170. Do tej grupy zaliczany jest również komponent określany jako VPP. Charakterystyka tych komponentów zostanie przedstawiona w kolejnych podrozdziałach. W tym miejscu należy jednak zauważyć, iż wiele wskazuje na to, że wszystkie wymienione powyżej komponenty mogą stanowić w rzeczywistości korelaty tego samego procesu, zachodzącego w rejonach kory wzrokowej. Komponenty ERP wrażliwe na ekspozycję twarzy zostały opisane mniej więcej w tym samym czasie przez kilka niezależnych zespołów. Jeffreys (1989) opisał dodatnią falę rejestrowaną na elektrodzie Cz, której amplituda mierzona w odpowiedzi na prezentację rysunków twarzy była istotnie wyższa w porównaniu z innymi obiektami. Jej czas latencji wahał się między 150 a 200 ms po bodźcu. Ponadto autor wskazał, iż podobny komponent można uzyskać poprzez prezentację twarzy niekompletnych lub pojedynczych jej elementów (np. oczy lub usta). W tym przypadku jednak wyraźnie rósł czas latencji załamka oraz malała jego amplituda, pomimo że wciąż wielkość odpowiedzi rejestrowanej w przypadku tych bodźców była większa w porównaniu z obiektami, które twarzami nie są. Jeff reys zaproponował, aby komponent ten określać jako vertex positive potential (VPP) ze względu na jego polarność oraz lokalizację elektrody, z której był uzyskiwany5. Podobny wynik był zresztą opisywany także w innych pracach (Bötzel i Grüsser, 1989; Bötzel, Schulze i Stodieck, 1995). W tym samym oknie czasowym uzyskiwano również specyfi czny komponent w okolicach skroniowo-potylicznych (Bötzel, Schulze i Stodieck, 1995, Bentin i in., 1996). W tym przypadku obserwowano silniej wyrażony ujemny komponent 5 Terminem vertex określany jest najwyżej położony punkt na czaszce, w którym umieszczana jest na głowie elektroda Cz. w przypadku prezentacji twarzy w porównaniu z innymi bodźcami. Ze względu na charakterystyczny czas latencji tego komponentu oraz jego polarność zaproponowano określanie go jako N170 (Bentin i in., 1996). Charakterystyka tej fali została potwierdzona wynikami wielu przeprowadzonych w następnych latach eksperymentów (Eimer, 1998; 2000a; 2000c; Rebai, Poiroux, Bernard i Lalonde, 2001; Rossion, Gauthier i in., 2000; Rossion i in., 2002; Taylor, McCarthy, Saliba i Degiovanni, 1999). Ze względu na bliskość struktur związanych z wczesnymi fazami analizy percepcyjnej twarzy komponent N170 wydaje się lepiej odzwierciedlać aktywność systemu wzrokowego w trakcie przetwarzania tego bodźca w porównaniu z VPP. Wskazywano w tym miejscu przede wszystkim na podobieństwo charakterystyki N170 oraz zmian elektrycznych obserwowanych w trakcie rejestracji śródczaszkowej. W badaniach pacjentów przygotowywanych do operacji neurochirurgicznych zaobserwowano specyficzną aktywację obszarów kory skroniowo-potylicznej pojawiającą się około 200 ms po ekspozycji twarzy (Allison i in., 1994; 1999). Rejestrowana w tym czasie odpowiedź neuronalna była wyraźnie silniejsza w przypadku twarzy w porównaniu z innymi bodźcami. Jednocześnie wyniki te blisko korespondowały z rezultatami badań makaków, u których stwierdzono istnienie neuronów wrażliwych na twarze, umiejscowionych w brzusznych rejonach kory wzrokowej (Perrett, Rolls i Caan, 1982; Perrett i in., 1984; 1985). Do podobnych wniosków skłaniały również rezultaty badań wykorzystujących MEG. Specyfi czną odpowiedź magnetoelektryczną na ekspozycję twarzy uzyskiwano około 150–170 ms po bodźcu, co odpowiadało wynikom eksperymentów stosujących pomiar ERP (Halgren i in., 1995; Lu i in., 1991; Sams i in. 1997; Liu i in., 2000; Liu, Harris i Kanwisher, 2002). Komponent ten określany jako M170, na podobieństwo N170, generowany jest w potyliczno-skroniowej części kory mózgowej. Wszystkie wspomniane powyżej charakterystyki N170 przyczyniły się do wzrostu zainteresowania badaniami procesów percepcji twarzy. Jednocześnie popularność VPP wyraźnie malała. Co więcej, postulowano, iż oba komponenty stanowią korelaty dokładnie tego samego procesu mózgowego i są generowane przez tę samą grupę neuronów (Jeffreys, 1989; Jemel i in., 2003). Wartości uzyskiwane w przypadku obu komponentów są bowiem dość silnie z sobą skorelowane. Charakteryzuje je również podobna wrażliwość na manipulacje eksperymentalne mające postać inwersji twarzy, zastosowania obrazów w negatywie itp. Jak wykazali Joyce i Rossion (2005), zmienność w zakresie obu komponentów jest również zależna od zastosowanego układu elektrod odniesienia. Wydaje się jednak, że oba charakterystyczne korelaty procesu przetwarzania twarzy są generowane przez ten sam zespół struktur mózgowych (Joyce i Rossion, 2005). 4.1. Charakterystyka komponentu N170 Komponent N170 jest obecnie najbardziej znanym elektrofi zjologicznym korelatem procesów przetwarzania twarzy. Ma on postać ujemnej fali rejestrowanej w zapisie ERP w okolicach kory potyliczno-skroniowej około 140–200 ms po ekspozycji bodźca. Amplituda tego komponentu rejestrowanego w odpowiedzi na prezentację twarzy jest istotnie wyższa w porównaniu z rozmaitymi kategoriami innych obiektów, takich jak kwiaty, zwierzęta, budynki, motyle, buty, krzesła, samochody itp. Rezultat ten uzyskiwany wielokrotnie w różnych badaniach jest uważany za jeden z głównych wyznaczników N170, świadczących o jego związ-kach z analizą percepcyjną twarzy (Itier i Taylor, 2004a; Bentin i in., 1996; Eimer, 2000a; 2000b; Rossion Gauthier i in., 2000; Taylor i in., 2001). Należy jednak również pamiętać, iż w rzeczywistości każdy bodziec wzrokowy wywołuje ujemną falę o podobnej charakterystyce czasowej oraz zbliżonej topografi i mózgowej. Oznacza to, że komponent ten nie jest wywoływany wyłącznie przez ekspozycję twarzy. Tym, co istotnie wyróżnia komponent N170 rejestrowany w odpowiedzi na twarze w porównaniu z wieloma innymi obiektami, jest jego amplituda, istotnie wyższa dla twarzy. Z tego też względu wielu badaczy sugeruje, aby nie określać komponentu N170 mianem specyficznej mózgowej odpowiedzi na ekspozycję twarzy, lecz raczej mówić o komponencie wrażliwym na prezentację twarzy (Ei-mer, 2011a). Podobną charakterystykę ma również komponent M170, rejestrowany przy wykorzystaniu pomiaru MEG, będący więc odpowiednikiem N170 (Halgren i in., 1995; 2000; Harris i Nakayama, 2008). Mózgowe źródło komponentu N170 Teza o związku komponentu N170 z procesami percepcji twarzy oparta jest nie tylko na wielokrotnie stwierdzanej różnicy w jego amplitudzie w porównaniu z innymi bodźcami wzrokowymi. Fakt, iż najwyższe wychylenie fali uzyskiwane jest na elektrodach zlokalizowanych w okolicach skroniowo-potylicznych, sugeruje, że jest on odzwierciedleniem aktywacji struktur mózgu specyfi cznie zaanga-żowanych w procesy przetwarzania twarzy. Mowa tu przede wszystkim o zakręcie wrzecionowatym, choć niewykluczone, iż udział w generowaniu tego komponentu mają również inne części mózgu. Sugestia ta wsparta jest wynikami badań z wykorzystaniem technik lokalizacji źródeł potencjałów ERP lub rejestracji MEG, choć rezultaty tych badań nie są całkowicie zgodne. Rossion i jego współpracownicy (Rossion, Joyce, Cottrell i Tarr, 2003) wskazują na źródło umiejscowione w boczno-tylnej części zakrętu wrzecionowatego. Podobne wyniki uzyskiwali również inni badacze (Deffke i in., 2007; Henson i in., 2007; Schweinberger i in., 2002). Itier i Taylor (2004b) wskazują dodatkowo na rejon wokół górnej bruzdy skroniowej. Możliwy jest również udział innych fragmentów bocznego płata skroniowego (Shibata i in., 2002; Watanabe, Kakigi i Puce, 2003). Częściowo niejasności dotyczące rzeczywistego źródła N170 wynikają z różnej metodologii prowadzonych badań oraz różnych technik lokalizacji źródeł potencjałów ERP. Rezultaty wspomnianych powyżej badań sugerują, iż komponent N170 nie jest wynikiem wzbudzenia jednego wybranego elementu systemu nerwowego, lecz raczej skutkiem aktywacji całej grupy struktur. Oznaczałoby to również, że komponent ten może być korelatem grupy procesów zachodzących w podobnym czasie w systemie wzrokowym. Ze względu na krótki czas latencji wskazuje się między innymi na procesy analizy strukturalnej twarzy. Efekt inwersji twarzy a komponent N170 Potwierdzeniem związków między mózgowymi procesami generującymi N170 a funkcjonowaniem mechanizmu wyspecjalizowanego w przetwarzaniu twarzy są również skutki specyficznych manipulacji eksperymentalnych. Jak wspomniano w rozdziale 1, jedną z charakterystycznych różnic między procesami przetwarzania twarzy oraz innych obiektów wzrokowych jest czułość na prezentację w pozycji odwróconej o 180º. Taka manipulacja relatywnie silniej zaburza rozpoznawanie twarzy w porównaniu z innymi bodźcami. Równocześnie zmianie musi ulegać charakterystyka procesów mózgowych leżących u podłoża tego zjawiska. Jednym z najbardziej charakterystycznych rezultatów obserwowanych w sytuacji, gdy twarz jest eksponowana w pozycji odwróconej, jest wydłużenie czasu latencji N170 (Bentin i in., 1996; Eimer, 2000c; Itier, Latinus i Taylor, 2006; Itier i in., 2007; Rossion, Gauthier i in., 2000). Co istotne, podobny skutek, polegający na wydłużeniu czasu latencji N170, może być również czasami uzyskiwany w przypadku odwróconych obiektów niebędących twarzami (Itier, Latinus i Taylor, 2006). W przypadku jednak twarzy jest on wyjątkowo silny. Dłuższe czasy latencji N170, rejestrowane w odpowiedzi na prezentację odwróconych twarzy w porównaniu z ich normalną prezentacją, mają być rezultatem zaburzenia analizy konfiguracyjnej. W wyniku bowiem ekspozycji twarzy w pozycji odwróconej zmianie ulega położenie poszczególnych elementów twarzy, co powoduje, iż ocena ich wzajemnych relacji jest wyraźnie utrudniona. Na tej podstawie sugeruje się również, że mechanizm tej oceny wykorzystuje prototypowy wzorzec ułożenia poszczególnych fragmentów twarzy względem siebie (Eimer, 2011a). Wpływ pozycji, w jakiej twarz jest prezentowana, nie ogranicza się jednak tylko do czasu latencji N170. Efekt inwersji twarzy jest bowiem również często związany ze zwiększeniem amplitudy tego komponentu (Bentin i in., 1996; Eimer, 2000c, Rossion, Gauthier i in., 2000; Sagiv i Bentin, 2001). Nie jest to jednak wynik tak często stwierdzany w badaniach, jak wydłużenie czasu latencji N170 (Rossion, Joyce, Cottrell i Tarr, 2003). Sugestia, iż wydłużenie czasu latencji N170 ma związek z zaburzeniem procesów oceny relacji pomiędzy istotnymi elementami twarzy, ma również pośrednie potwierdzenie w wynikach badań, w których manipulowano położeniem lub charakterystyką części twarzy. Czas latencji tego komponentu wzrasta w odpowiedzi na prezentację twarzy, których elementy zostały przestawione (Eimer i McCarthy, 1999; George i in., 1996) lub gdy dwie połowy twarzy zostały względem siebie przesunięte (Letourneau i Mitchell, 2008). Podobny rezultat obserwowany jest również wtedy, gdy poszczególne części twarzy, jak na przykład oczy, zostaną usunięte ze zdjęcia twarzy lub zasłonięte (Eimer, 1998; 2000a; Jemel i in., 1999). Komponent N170 jest też rejestrowany nieznacznie później w odpowiedzi na prezentację fotografii przedstawiających wyizolowane części twarzy, głównie oczy (Bentin i in., 1996; Cauquil, Edmonds i Taylor, 2000; Taylor, Itier, Allison i Edmonds, 2001). Wynik ten współgra również z obserwowanym w badaniach wykorzystujących rejestrację pojedynczych neuronów u małp wydłużeniem czasu latencji reakcji niektórych neuronów czułych na ekspozycję twarzy w odpowiedzi na jej prezentację w pozycji odwróconej (Perret i in., 1988). W rezultacie skumulowany potencjał całej populacji podobnych komórek, rejestrowany na powierzchni głowy w postaci EEG, może wykazywać podobne opóźnienie. Inne wyjaśnienie różnicy w czasach latencji N170, mierzonych w reakcji na twarze prezentowane w pozycji normalnej i odwróconej, odwołuje się do wyników badań nad efektem inwersji twarzy z użyciem technik neuroobrazowania. Wskazują one bowiem na interesujące zróżnicowanie pobudzenia struktur mózgowych, wyspecjalizowanych w przetwarzaniu twarzy oraz innych obiektów, w odpowiedzi na prezentację różnych rodzajów bodźców w pozycji normalnej oraz odwróconej. Stwierdzono w nich, iż rejon zakrętu wrzecionowatego (FFA), uznawany za jeden z głównych elementów systemu odpowiedzialnego za przetwarzanie twarzy, jest pobudzany słabiej w przypadku twarzy inwertowanych w porównaniu z prezentowanymi w normalnej pozycji (Gauthier, Behrmann i Tarr, 1999; Haxby i in., 1999; Kanwisher, Tong i Nakayama, 1998). Jednocześnie nie zaobserwowano podobnego wyniku w odniesieniu do tej struktury dla innych rodzajów bodźców wzrokowych. Efekt inwersji twarzy był jednak obserwowany także w innych częściach kory wzrokowej. Jedną z takich części był zakręt przy-hipokampalny uznawany przez wielu badaczy (Haxby i in., 1999; Ishai i in., 1999; Epstein i Kanwisher, 1998; Epstein i in., 1999; Aguirre, Zarahn i D’Esposito, 1998) za moduł mózgowy zajmujący się przetwarzaniem informacji o miejscu (parahippocampal place area – PPA). Rejon ten był istotnie silniej aktywowany w wyniku prezentacji twarzy inwertowanych w porównaniu z normalną orientacją (Aguirre, Singh i D’Esposito, 1999; Haxby i in., 1999). Co ważne, stwierdzono, iż właśnie ten rezultat był najsilniejszy wśród wszystkich testowanych, włączając w to zmiany obserwowane w OFA i FFA oraz rejestrowane dla twarzy lub innych obiektów (Haxby i in., 1999). Innymi słowy, twarz widziana do góry nogami wywołuje słabsze pobudzenie rejonów wyspecjalizowanych w jej przetwarzaniu w porównaniu z twarzą w normalnym położeniu, jednocześnie jednak powoduje silniejszą aktywację obszarów związanych z analizą innych obiektów. Stąd zmiana w czasie latencji oraz amplitudzie N170 może wynikać z różnicy w skumulowanym pobudzeniu tych różnych struktur mózgowych. O ile rejony mózgu wrażliwe na ekspozycję twarzy mogą być aktywowane zarówno przez twarze normalnie prezentowane, jak i inwertowane, choć w tym drugim przypadku słabiej, o tyle tylko ten drugi rodzaj twarzy wywołuje silne pobudzenie w rejonach specjalizujących się w analizie innych niż twarze obiektów (Rossion, Dricot i in., 2000; Rossion, Gauthier i in., 2000). Bezpośrednim potwierdzeniem tej tezy mogą być wyniki badań Rosburga i jego grupy (2010), w których wykorzystano śródczaszkowy pomiar aktywności bocznych rejonów kory potyliczno-skroniowej w odpowiedzi na ekspozycję inwertowanych oraz normalnie eksponowanych twarzy. W odpowiedzi na tę pierwszą kategorię bodźców stwierdzono wzrost aktywności jednocześnie dla struktur wyspecjalizowanych w przetwarzaniu twarzy oraz związanych z analizą innych obiektów. Co ważne, rezultat ten pojawił się około 180 ms po bodźcu, co odpowiada czasom latencji N170. Komponent N170 u pacjentów z prozopagnozją Związek między generowaniem N170 a procesami analizy strukturalnej twarzy wynika również z obserwacji pacjentów z prozopagnozją. U części tych osób występują głębokie deficyty w rozpoznawaniu tożsamości twarzy, przy zachowanej zdolności do identyfikacji innych bodźców wzrokowych (zob. także rozdział 1). W ich przypadku amplituda komponentu N170 rejestrowanego w odpowiedzi na twarze może być podobna lub nawet niższa w porównaniu z innymi obiektami (Eimer, 2000b; Eimer i McCarthy, 1999). Porównywalna amplituda N170 uzyskiwanego dla twarzy oraz innych bodźców wskazuje na deficyty w przebiegu analizy strukturalnej twarzy i może wynikać z faktu, iż u tych pacjentów twarze są przetwarzane przede wszystkim przez niewyspecjalizowaną część systemu wzrokowego, normalnie wykorzystywaną w analizie obiektów innych niż twarze. Warto również zauważyć, że osoby dotknięte tym zaburzeniem, w przeciwieństwie do osób zdrowych, lepiej sobie radzą z różnicowaniem twarzy, w sytuacji gdy jest ona prezentowana w pozycji odwróconej w porównaniu z ekspozycją w normalnej pozycji (de Gelder i Rouw, 2000). Ponadto rezultaty badań z wykorzystaniem technik neuroobrazowania wskazują, iż u tych pacjentów wzorce aktywacji w obszarze zakrętu wrzecionowatego w trakcie wykonywania zadań polegających na odróżnianiu twarzy są bardzo słabo zróżnicowane (Schiltz i in., 2006). Jednocześnie w podobnym zadaniu wykorzystującym zdjęcia innych niż twarze obiektów wykazują oni normalne wzorce pobudzenia w zakręcie przyhipokampalnym. Również badania prowadzone na pacjentach z innymi formami zaburzeń rozpoznawania twarzy wskazują na rolę N170 w procesach oceny relacji między elementami twarzy. Jak wspomniano już w rozdziale 1, oprócz prozopagnozji będącej skutkiem ogniskowych uszkodzeń mózgu wyróżnia się również jej formę rozwojową. Amplituda komponentu N170 rejestrowanego u pacjentów z taką formą prozopagnozji wykazuje mniejsze zróżnicowanie w przypadku porównań między twarzami oraz innymi obiektami, podobnie jak to ma miejsce u pacjentów z lezjami (Bentin, Deouell i Soroker, 1999; Kress i Daum, 2003). Jednak w prze-ciwieństwie do osób, u których zaburzenie rozpoznawania twarzy jest wynikiem ogniskowego uszkodzenia układu nerwowego, w tym przypadku obserwuje się normalną wielkość wywoływanego przez ekspozycję twarzy N170 w porównaniu z grupą kontrolną. Jednocześnie jednak ten sam komponent w odpowiedzi na prezentację innych obiektów osiąga niezwykle wysokie wartości. W rezultacie nie obserwuje się więc charakterystycznych różnic w amplitudzie N170, co sugeruje głębokie zmiany w sposobie funkcjonowania systemu wzrokowego. Podobny wynik obserwowany jest również w przypadku amplitudy M170 (Harris, Duchaine i Nakayama, 2005). Znaczenie funkcjonalne komponentu N170 Wyniki wielu badań sugerują również, że komponent N170 jest niewrażliwy na manipulacje poziomem znajomości prezentowanych twarzy (Bentin i Deouell, 2000; Eimer, 2000b). Na tej podstawie część badaczy sądzi, iż komponent ten jest związany z etapem analizy twarzy poprzedzającym identyfikację tożsamości (Ei-mer, 2000a; Sagiv i Bentin, 2001). W modelu Bruce i Younga (1986) postulowano istnienie takiego etapu, opisywanego jako proces oceny charakterystycznych cech twarzy i tworzenia na jej podstawie unikalnej reprezentacji. Amplituda komponentu N170, rejestrowana w odpowiedzi na prezentację twarzy, które osoba badana zna doskonale, przyjmuje zbliżone wartości w porównaniu z twarzami osób całkowicie nieznajomych. Z kolei ten sam komponent wykazuje tzw. efekt powtórzenia (repetition eff ect), polegający na redukcji amplitudy w wyniku powtórnej prezentacji tej samej twarzy w krótkim odstępie czasu. Co ciekawe, efekt ten obserwowany jest nie tylko w sytuacji, gdy dokładnie to samo zdjęcie jest dwa razy eksponowane, lecz również wtedy, gdy dwa zdjęcia przedstawiające tę samą osobę różnią się kątem, pod jakim twarz została sfotografowana (Caharel i in., 2009). Oznaczać to może, iż komponent N170 jest generowany wtedy, gdy twarz jest poddawana analizie strukturalnej, opierającej się na przestrzennych relacjach między poszczególnymi elementami twarzy. W koncepcji przetwarzania konfi gu-racyjnego (Maurer, LeGrand i Mondloch, 2002) odpowiadałoby to analizie relacji drugiego rzędu. Na tym etapie przetwarzania obiekt jest już zaklasyfi kowany do kategorii twarzy i zakończony proces tworzenia gestaltu twarzy. Jak zakłada się w tej koncepcji, prezentacja twarzy w pozycji odwróconej wywołuje zmiany właśnie na tym etapie przetwarzania, poprzez zaburzenie procesów oceny relacji pomiędzy częściami twarzy. Autorzy tej koncepcji przywołują również przykład twarzy Mooneya, które są przekształconymi zdjęciami lub obrazami twarzy przedstawionymi za pomocą wyłącznie czerni i bieli. Bodźce te są rozpoznawane jako twarze tylko wówczas, gdy są prezentowane w normalnej pozycji. Gdy eksponuje się je inwertowane, wówczas identyfikowane są jako nieokreślone w kształcie czarne i białe plamy. Według Maurer, LeGranda i Mondloch (2002) oznacza to, iż przestrzenne relacje pomiędzy fragmentami twarzy Mooneya mogą odpowiadać podobnym relacjom stwierdzanym dla rzeczywistych twarzy. W rezultacie obiekt jest klasyfi kowany jako twarz pomimo ewidentnego braku elementów normalnie twarz konstytuujących, takich jak oczy, usta i nos. Jeśli jednak relacje te nie pasują do prototypowych dla twarzy, wówczas bodziec nie jest percypowany jako twarz. Interesujący jest również fakt, że ekspozycja twarzy Mooneya powoduje pojawienie się komponentu N170 w wielkości zbliżonej dla rzeczywistych twarzy, lecz tylko wówczas, gdy bodziec taki jest klasyfikowany jako twarz. W sytuacji gdy osoba badana widzi tylko czarne i białe plamy, wówczas N170 przybiera wartości charakterystyczne dla nietwarzy (George i in., 2005). Wynik ten jest zgodny z rezultatami podobnego badania wykorzystującego pomiar fMRI (Andrews i Schlupeck, 2004). W eksperymencie tym prezentowano osobom badanym zdjęcia twarzy, twarze Mooneya oraz obiekty należące do innych kategorii. W odpowiedzi na ekspozycje twarzy uzyskano wyższy poziom aktywacji w obrębie zakrętu wrzecionowatego oraz w rejonie górnej bruzdy skroniowej w porównaniu z innymi obiektami. Odwrotny wzorzec zanotowano dla zakrętu przyhipokampalnego, będącego strukturą istotną dla identyfikacji miejsc. W przypadku twarzy Mooneya skutek był zależny od tego, czy osoba badana stwierdzała, że bodziec przedstawia twarz czy też nie. Jeśli bodziec został zaklasyfikowany jako twarz, wówczas uzyskano wyższy poziom pobudzenia dla FFA oraz STS w porównaniu z sytuacją, gdy badany uznawał, iż nie jest on twarzą. Odwrotny wzorzec zarejestrowano dla PPA. Wyniki uzyskane w tych dwóch badaniach (Andrews i Schlupeck, 2004; George i in., 2005) sugerują istnienie związku między aktywacją FFA oraz STS a procesem generowania N170. Teza mówiąca o związku między analizą strukturalną twarzy a procesem mózgowym leżącym u podłoża N170 nie jest jednak akceptowana przez wszystkich badaczy bez wyjątku. Niektórzy bowiem sugerują, iż komponent ten odzwierciedla raczej procesy analizy poszczególnych elementów twarzy. Ten rodzaj przetwarzania jest często określany jako analiza cech dystynktywnych (Maurer, LeGrand i Mon-dloch, 2002) i podkreśla się, że taka forma przetwarzania nie jest związana z okre-ślaniem relacji pomiędzy poszczególnymi częściami twarzy, opierając się raczej na opisie pojedynczych elementów twarzy. Taką sugestię wysunęli Harris i Nakayama (2008) na podstawie wyników własnego badania wykorzystującego pomiar M170. Pomiaru tego komponentu dokonano w procedurze adaptacji sensorycznej, gdzie dwa bodźce eksponowane są jeden po drugim w krótkim odstępie czasu. W rezultacie możliwe jest określenie, jak ekspozycja bodźca pierwszego wpływa na przetwarzanie drugiego. W eksperymencie tym stwierdzono, iż wielkość M170 wyraźnie się zmniejsza, gdy twarz jest prezentowana w następstwie innej twarzy, a siła tej zmiany jest nieporównanie większa, niż gdy jest ona eksponowana po obiekcie innym niż twarz. Co równie ważne, rejestrowany w ten sposób efekt adaptacji okazał się podobny dla twarzy inwertowanych, przedstawianych w normalnej pozycji oraz dla izolowanych części twarzy. Według autorów brak różnic w wielkości efektu adaptacji w warunkach wymuszających analizę strukturalną (twarz normalnie prezentowana) oraz ją zaburzających (inwersja twarzy) lub wręcz uniemożliwia-jących (pojedynczy element twarzy) oznacza, że komponent M170 odzwierciedla raczej procesy przetwarzania części twarzy, a nie jej konfiguracji. Odmienny wynik zaobserwował zespół Nancy Kanwisher (Liu, Harris i Kanwisher, 2002), rejestrując za pomocą MEG aktywność mózgu podczas przetwarzania zdjęć twarzy i domów z dodatkowym szumem. Poprawna klasyfikacja typu bodźca była jednocześnie związana z różnicami w amplitudzie M100, czyli odpowiednika komponentu P1, pojawiającego się około 100 ms po bodźcu. Komponent M170 w tym badaniu wykazywał związek z procesem identyfi kacji tożsamości. Problem specyficzności komponentu N170 podjęty został również przez badaczy sugerujących związek tego komponentu ze zjawiskiem bycia ekspertem w rozpoznawaniu specyficznej klasy obiektów. Jak już wspomniano w rozdziale 3, część badaczy neguje fakt, iż w obrębie systemu wzrokowego można wyróżnić grupę struktur wyspecjalizowanych w przetwarzaniu twarzy (Gauthier, Tarr i in., 2000; Gauthier i Logothetis, 2000; Tarr i Gauthier, 2000). Sugerują oni, że wiele specyficznych dla twarzy efektów, w tym efekt inwersji twarzy oraz różnice w sile pobudzenia struktur mózgowych, można przypisać temu, że przeważająca liczba ludzi staje się mimowolnie ekspertami w rozpoznawaniu twarzy. Przytaczają również, iż podobne efekty można obserwować dla innych klas obiektów, o ile będą one rejestrowane w grupie ekspertów w klasyfi kacji tej grupy bodźców. Ten sam tok myślenia można wykorzystać w odniesieniu do komponentu N170. W eksperymencie przeprowadzonym przez Rossiona i jego współpracowników (Rossion i in., 2002) rejestrowano N170 w odpowiedzi na prezentację twarzy oraz ciaptaków pokazywanych w pozycji normalnej oraz odwróconej. Co więcej, pomiaru ERP dokonano przed intensywnym treningiem w rozpoznawaniu ciaptaków oraz po nim. W przypadku twarzy zaobserwowano typowy efekt inwersji związany z wydłużeniem czasu latencji N170. Podobny efekt inwersji uzyskano również dla ciaptaków, lecz tylko w sesji przeprowadzonej po treningu w ich rozpoznawaniu. Rezultat ten był jednak widoczny wyłącznie dla lewej półkuli, co jest niezgodne z efektami inwersji twarzy, uzyskiwanymi dla obu półkul lub tylko dla półkuli prawej. Wyraźna lewostronna lateralizacja uzyskanego w tym badaniu efektu nie pasuje również do zmian rejestrowanych obustronnie za pomocą fMRI (Gauthier, Skudlarski i in., 1999; Gauthier, Tarr i in., 2000). Podobny rezultat został jednak uzyskany również w eksperymencie Buseya i Vanderkolka (2005), gdzie wykorzystano normalną oraz odwróconą prezentację twarzy i zdjęć odcisków palców. Potencjały ERP były rejestrowane w grupach nowicjuszy i ekspertów w dziedzinie różnicowania odcisków palców. W obu grupach zanotowano wydłużenie czasu latencji N170 wywołane inwersją twarzy, pojawiające się dla prawej połowy mózgu. W grupie ekspertów obserwowano dodatkowo podobny rezultat dla odcisków palców, także w przypadku prawej półkuli. W innym badaniu obserwowano również różnice w amplitudzie N170 rejestrowanego podczas ekspozycji zdjęć ptaków i psów w grupie ekspertów w tych dziedzinach (Tanaka i Curran, 2001). Zaobserwowano, że amplituda N170 uzyskanego dla bodźców z tej kategorii, w której osoba badana była ekspertem, była wyższa w porównaniu z kategorią, w której badany był nowicjuszem. Wszystkie te wyniki mogą sugerować, iż wielkość komponentu N170, podobnie jak obserwowana za pomocą technik neuroobrazowania aktywacja FFA, nie są specyficzne dla twarzy, lecz raczej dla poziomu specjalizacji w różnicowaniu bodźców wzrokowych w określonej kategorii. Innymi słowy, w przypadku większości ludzi, będących mimowolnie ekspertami w rozpoznawaniu twarzy innych ludzi, można uzyskać wyraźną różnicę w amplitudzie N170 w porównaniu z innymi kategoriami bodźców. Komponent ten wykazuje wówczas wyraźne efekty inwersji dla twarzy i brak podobnego zróżnicowania w przypadku innych obiektów. Lecz podobne rezultaty można również uzyskać dla każdej kategorii, jeśli tylko grupę osób badanych będą stanowić eksperci w tej dziedzinie. Warto także wspomnieć, że w przypadku przynajmniej części eksperymentów wyniki nie przystają do tej hipotezy. Przykładowo Xu, Liu i Kanwisher (2005) rejestrowali M170, prezentując zdjęcia twarzy, samochodów oraz innych obiektów grupie znawców samochodów oraz osobom z grupy kontrolnej. Nie stwierdzono różnic w wielko-ści M170 uzyskanej dla samochodów oraz innych obiektów niebędących zarazem twarzami. Wynik ten był podobny dla grupy ekspertów i nowicjuszy. Co więcej, w grupie znawców samochodów wielkość M170 korelowała istotnie z poziomem identyfikacji twarzy, lecz nie samochodów. Jeszcze inny rodzaj wątpliwości dotyczący specyfiki N170 wysunęli Th ierry, Martin, Downing i Pegna (2007). Autorzy ci sugerują, iż charakterystyczna różnica w wielkości amplitudy komponentu N170 mierzonego dla twarzy oraz innych obiektów jest wynikiem niekontrolowanej zmienności percepcyjnej tych dwóch kategorii bodźców. Ich zdaniem podobieństwo twarzy wykorzystywanych w badaniach jest tak duże, że stanowią one wyjątkowo homogeniczną grupę bodźców z poszczególnymi elementami zlokalizowanymi niemal zawsze w tym samym miejscu na zdjęciu. W przypadku natomiast bodźców innych niż twarze nie można stwierdzić tak daleko idącego podobieństwa, stąd wysoka zmienność percepcyjna tej kategorii. Badacze ci twierdzą również, iż różnica w wielkości amplitudy N170 między tymi klasami bodźców zanika, jeśli w obu przypadkach zmienność percepcyjna pozostaje na zbliżonym poziomie. Innymi słowy, podali w wątpliwość specyficzność amplitudy tego komponentu mierzonego w odpowiedzi na twarze. Praca ta wywołała burzliwą dyskusję wśród badaczy zajmujących się tym tematem, która zresztą wciąż nie została zakończona (Bentin i in., 2007; Rossion i Jacques, 2008; Eimer, 2011a). Autorom wspomnianego powyżej badania postawiono wiele zarzutów zarówno metodologicznych, jak i merytorycznych, odrzucając ich interpretację uzyskanych wyników. Jednakże w późniejszej pracy tej samej grupy (Dering i in., 2011), wykorzystującej poprawioną metodologicznie procedurę oraz stosującej odpowiedni sposób pomiaru N170, również uzyskano rezultaty wskazujące na niejasny status różnicy w amplitudzie tego komponentu rejestrowanego dla twarzy i innych obiektów. Szczególnie interesujący jest wynik, zanotowany dla eksperymentu wykorzystującego morfowanie6 zdjęć twarzy i samochodów, wskazujący na brak różnic w wielkości N170 mierzonego dla tych dwóch klas bodźców. W tym przypadku komentarze były już mniej krytyczne (Eimer, 2011b). Należy jednak pamiętać, iż pojedyncza praca nie może przekreślić dokonań dużej grupy badaczy wykorzystujących pomiar N170 w swoich badaniach i konsekwentnie obserwujących efekt prezentacji twarzy. Podsumowując, można stwierdzić, że pomimo ciągle pojawiających się wątpliwości co do charakterystyki komponentu N170 jest to wskaźnik istotnego etapu procesu analizy percepcyjnej. Wiele danych wskazuje na to, iż komponent ten, pojawiający się około 140–200 ms po bodźcu, odzwierciedla przebieg analizy strukturalnej twarzy. Wniosek ten oparty jest na danych empirycznych sugerujących podobieństwo efektów obserwowanych w przypadku manipulacji w eksperymentach behawioralnych, elektrofizjologicznych oraz wykorzystujących techniki neuroobrazowania. Komponent N170 jest najprawdopodobniej generowany przez zespół struktur mózgowych, wśród których można wyróżnić zakręt wrzecionowaty oraz rejon STS. Obie te części mózgu są zaliczane do elementów systemu wyspecjalizowanego w przetwarzaniu twarzy. Z tego względu nie powinna dziwić duża popularność N170 wśród badaczy procesu percepcji twarzy. Należy jednak zauważyć, iż nie jest to jedyny komponent ERP, którego specyficzna zmienność jest wiązana z przetwarzaniem twarzy. Do tej grupy można zaliczyć również P1, AP (anterior positivity) oraz EPN (early posterior negativity)7. Pierwszy z wymienionych komponentów jest łączony z bardzo wczesnymi etapami przetwarzania bodźców wzrokowych, a w przypadku twarzy z jej wstępną detekcją. Komponenty EPN oraz AP odzwierciedlają procesy analizy ekspresji mimicznej. Warto jednak zaznaczyć też, iż poza wymienionymi z procesami przetwarzania twarzy są kojarzone także inne komponenty, takie jak N250r, N400f czy P600f. Wszystkie one są jednak interpretowane jako korelaty kolejnych faz rozpoznawania tożsamości twarzy i ze względu na tematykę pracy nie będą bliżej przedstawiane. Więcej informacji na ich temat czytelnik może znaleźć w pracach poświęconych elektrofizjologicznym korelatom identyfi kacji tożsamości (Eimer, 2000b; Schweinberger, 2011). 6 Technika ta polega na „nakładaniu” na siebie dwóch zdjęć z użyciem programów komputerowych. W rezultacie uzyskuje się nowe bodźce stanowiące swoistą hybrydę pierwotnych obiektów. 7 Nazwy obu komponentów nie zostały przetłumaczone na język polski, gdyż poszukiwanie odpowiedników zwartych i jednocześnie oddających sens angielskich terminów okazało się ponad siły autora pracy. Nie było jego intencją wymuszanie użycia nazw angielskojęzycznych. 4.2. Charakterystyka komponentu P1 Zastosowanie techniki rejestracji potencjałów ERP w przypadku procesów przetwarzania bodźców wzrokowych umożliwia uzyskanie wielu komponentów o charakterystycznych czasach latencji i topografii. Pod względem czasu pojawiania się w zapisie ERP komponent P1 jest właściwie pierwszym uzyskiwanym w niemal każdych warunkach8. Jednak fakt, że każdy pomiar reakcji kory wzrokowej na prezentację bodźca wzrokowego prowadzi do wywołania tego komponentu, nie oznacza jeszcze jego niezmiennego znaczenia. W zależności od zastosowanego zadania oraz rodzaju stymulacji zmienia się bowiem zarówno czas latencji, jak i amplituda P1. Komponent ten rejestrowany jest około 90–110 ms po ekspozycji bodźca i przyjmuje się, iż odzwierciedla procesy aktywacji wyższorzędowych obszarów kory wzrokowej. Część badaczy sugeruje, że rejonami w największym stopniu odpowiedzialnymi za pojawianie się w zapisie ERP tej fali są obszary brzusznej kory potylicznej (Hillyard, Vogel i Luck, 1998; Hillyard i Anllo-Vento, 1998; Sams i in., 1997). Komponent P1 przez długi czas pozostawał poza obszarem zainteresowań badaczy procesów przetwarzania twarzy. Jednak coraz częściej pojawiające się doniesienia świadczące o obecności specyficznych zmian w amplitudzie tego komponentu wywołanych przez manipulacje eksperymentalne w badaniach do-tyczących przetwarzania ekspresji emocjonalnej oraz wczesnych faz rozpoznawania twarzy spowodowały, iż obecnie jest traktowany jako korelat wczesnych etapów analizy percepcyjnej tego bodźca. Podobna sytuacja ma miejsce w odniesieniu do odpowiednika P1 rejestrowanego za pomocą MEG, który określany jest jako M100. Podobnie więc jak w przypadku N170 związek między P1 a procesami przetwarzania twarzy nie jest specyficzny. Komponent ten jest uzyskiwany w odpowiedzi na niemal każdą stymulację bodźcami wzrokowymi. W przypadku jednak gdy manipulacja dotyczy twarzy, możemy obserwować charakterystyczne zmiany w jego amplitudzie. Jak przykładowo sugerują rezultaty uzyskane przez Herrmanna i jego współpracowników (Herrmann i in., 2005), komponent ten wykazuje różnice przy porównaniu twarzy oraz innych obiektów. Do podobnych wniosków prowadzą wyniki uzyskane przez grupę Nancy Kanwisher (Liu, Harris i Kanwisher, 2002). Rejestrując aktywność mózgu za pomocą MEG, prezentowali badanym zdjęcia twarzy lub domów o różnym poziomie dodatkowego szumu, co powodowało trudności w kategoryzacji bodźców. Zadanie polegało na porównaniu dwóch zdjęć pokazywanych jedno po drugim pod względem przynależności do określonej kategorii (twarze i domy) oraz pod względem podobieństwa 8 Komponent P1 jest czasami poprzedzony inną falą określaną jako C1, jednak ta zmiana w zapisie ERP jest relatywnie mała i nie jest rejestrowana we wszystkich eksperymentach. Przyjmuje się, iż komponent C1 jest generowany w pierwszorzędowej korze wzrokowej, a jego czas latencji waha się między 60 a 90 ms po bodźcu. (ta sama osoba lub inna). Badacze zanotowali, że poprawne zaklasyfi kowanie bodźca do kategorii twarzy wiązało się z wyższymi amplitudami M100 w porównaniu z błędem w tym zakresie oraz w porównaniu z próbami, w których eksponowano zdjęcia domów. Na tym etapie jednak nie stwierdzono różnic w wielkości M100 związanych z identyfikacją tożsamości. Rezultat tego rodzaju pojawił się jednak w odniesieniu do amplitudy M170. Ponadto zauważono także, iż komponent M100 jest wrażliwy na obecność części twarzy, takich jak oczy czy usta. Nie wykazuje jednak wyraźnego zróżnicowania zależnego od relacji przestrzennych w układzie tych elementów. Odwrotną zależność stwierdzono dla N170, który wykazywał wyższe amplitudy dla prawidłowych układów przestrzennych części twarzy, pomimo że były one przesłonięte. Na tej podstawie sądzi się, że M100 odzwierciedla wczesną fazę analizy twarzy, w której następuje detekcja części twarzy i klasyfikowanie bodźca do kategorii twarze lub nietwarze. Podobną interpretację komponentu P1 rejestrowanego za pomocą ERP przedstawili inni badacze (Halit, de Haan i Johnson, 2000; Itier i Taylor, 2002; Linkenkaer-Hansen i in., 1998; Liu, Ioaniddes i Streit, 1999; Taylor, Edmonds, McCarthy i Allison, 2001). W ostatniej ze wzmiankowanych prac Taylor i jej koledzy sugerują nawet, iż głównym elementem twarzy wykrywanym na tym etapie mogą być oczy. Sugestia, że komponent ERP rejestrowany około 100 ms po bodźcu może być odzwierciedleniem wczesnych faz analizy percepcyjnej twarzy, oparta jest także na wynikach badań dotyczących różnicowania ekspresji emocjonalnej. Pourtois i jego współpracownicy (Pourtois i in. 2004) zanotowali różnicę w zapisie ERP około 90–100 ms po bodźcu, porównując twarze wyrażające strach i radość w paradygmacie dot-probe (zob. także następny rozdział). Efekt ekspresji emocjonalnej w odniesieniu do amplitudy P1, ograniczony jednak do grupy osób o wysokim poziomie lęku-cechy, był wskazywany także przez innych badaczy (Holmes, Kragh Nielsen i Green, 2008). Na specyficzny wzorzec przetwarzania twarzy w oknie czasowym odpowiadającym komponentowi P1 w grupie osób o wysokim poziomie lęku wskazują również nasze ostatnie badania (Walentowska i Wronka, w druku). Vlamings, Goffaux i Kemner (2009) zaobserwowały wyższe wartości P1 dla twarzy przedstawiających strach w porównaniu z neutralnymi eksponowanymi po obróbce polegającej na wyselekcjonowaniu wysokich lub niskich częstotliwości przestrzennych oraz dopasowaniu bodźców pod względem jasności i kontrastu. Wyniki te sugerują więc, że na tym etapie przetwarzania twarzy również możemy mieć do czynienia ze specyficznymi zmianami w aktywacji mózgu, co jest odzwierciedlone w amplitudzie P1. 4.3. Charakterystyka komponentów AP oraz EPN Badania wykorzystujące pomiar ERP i dotyczące problemu różnicowania mózgowych odpowiedzi w związku z ekspresją mimiczną sugerują, iż charakterystyczne zmiany mogą być obserwowane na późniejszych etapach przetwarzania. Z taką sytuacją mamy do czynienia w przypadku komponentów AP oraz EPN. Pierwszy z wymienionych komponentów przybiera postać dodatniej fali rejestrowanej w okolicach czołowo-centralnych w wyniku ekspozycji twarzy emocjonalnych w porównaniu z neutralnymi. Fala ta pojawia się w odmiennych oknach czasowych w różnych eksperymentach, co może sugerować, iż jej charakterystyka częściowo zależy od procedury eksperymentalnej, w szczególności sposobu prezentacji bodźca oraz typu wykonywanego zadania. Co więcej, fala ta ma charakter względny, czyli nie jest widoczna w postaci jakiegokolwiek szczególnego załamka, jak P1 czy N170. Komponent AP uzyskiwany jest przez odjęcie wzorców przebiegu ERP notowanych dla twarzy neutralnych od zmierzonego dla bodźców emocjonalnych. W eksperymentach grupy Eimera (Holmes, Vuilleumier i Eimer, 2003; Eimer i Holmes, 2002) komponent ten pojawiał się około 120 ms po bodźcu. Jednak w innych eksperymentach był już rejestrowany około 40–60 ms później (Ashley, Vuilleumier i Swick, 2004; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Wronka i Walentowska, 2011). Czas, w którym fala ta jest obserwowana w zapisie ERP, również jest odmienny w różnych eksperymentach i waha się od kilkunastu do kilkuset milisekund. Warto jednak zauważyć, iż komponent ten nie jest powszechnie uzyskiwany. Jego obecność została stwierdzona w stosunkowo niewielkiej liczbie raportów badawczych. Stąd brak jednoznacznych sugestii dotyczących struktur mózgowych, które są związane z procesami generowania tej fali. Nie wiadomo także, jaki proces na poziomie psychicznym jest odzwierciedlony przez ten komponent. Więcej informacji dotyczących tej fali zostanie zaprezentowanych w następnym rozdziale przy okazji omawiania problemu wpływu uwagi na procesy przetwarzania ekspresji emocjonalnej. Dużo lepiej poznany jest drugi z wymienionych komponentów, określany jako EPN. Również w tym przypadku mamy do czynienia z korelatem procesu przetwarzania ekspresji emocjonalnej. Ma on postać ujemnej fali rejestrowanej w okolicach potylicznych oraz potyliczno-skroniowych w przypadku ekspozycji twarzy emocjonalnych. Mamy tu do czynienia z komponentem niezwiązanym z żadnym określonym załamkiem ERP. Komponent EPN jest względną różnicą między war-tościami mierzonymi dla twarzy emocjonalnych oraz neutralnych i jest uzyskiwany w wyniku odejmowania. Jego czas latencji również jest odmienny w różnych badaniach. Jednak zróżnicowanie to jest o wiele mniejsze niż w przypadku AP. Najczęściej EPN pojawia się około 200–240 ms po bodźcu i jest obserwowany przez około 100 ms (Eimer, Kiss i Holmes; 2008; Sato i in., 2001; Schupp i in., 2004b; Wronka i Walentowska, 2011; Leppänen i in., 2007). Co jest istotne, komponent ten nie jest wywoływany wyłącznie przez twarze emocjonalne, lecz może być rejestrowany dla każdej kategorii bodźców o dużym znaczeniu afektywnym. Rezultat taki obserwowano konsekwentnie, porównując zapis ERP dla obrazów wywołujących emocje pozytywne lub negatywne z odpowiedziami uzyskanymi dla zdjęć neutralnych (Schupp i in., 2003a; 2003b; 2004a). Ze względu na lokalizację komponentu w okolicach potylicznych sugeruje się, że EPN odzwierciedla wzrost aktywacji kory wzrokowej wywołany pojawieniem się stymulacji o dużym znaczeniu afektywnym. Taka zmiana ma spowodować, iż przetwarzanie kolejnej partii danych wzrokowych będzie przebiegać efektywniej, co jest szczególnie ważne, gdy dokonywana jest dokładna inspekcja bodźca, który został oceniony jako szczególnie ważny. Taka interpretacja tego komponentu jest zgodna z wynikami uzyskanymi przy wykorzystaniu fMRI, gdzie ekspozycja pozytywnych i negatywnych obrazów z zestawu IAPS (Lang, Bradley i Cuthbert, 1999) wywoływała wzrost aktywacji obszarów kory wzrokowej w płacie potylicznym w porównaniu z obrazami neutralnymi (Junghöfer, Schupp, Stark i Vaitl, 2005). Rozdział 5 Jak system nerwowy przetwarza ekspresję emocjonalną? Ekspresja emocjonalna, czyli zbiór sygnałów komunikujących zmiany w stanach afektywnych przeżywanych przez jednostkę, stanowi istotą informację dla otoczenia warunkującą przebieg interakcji społecznych. Dotyczy to zarówno sygnałów przekazywanych za pośrednictwem twarzy, jak i tych wysyłanych innymi kanałami, takimi jak sposób artykulacji, wykonywane gesty czy postawa ciała. W przypadku jednak komunikatów mimicznych mamy do czynienia z jednym z najdo-kładniejszych i najlepiej identyfikowanych wskaźników przeżywania emocji. Taka natura ekspresji mimicznej przyczyniła się do większego niż w pozostałych przypadkach zainteresowania badaczy tym tematem. Ekspresja emocjonalna jest zjawiskiem, w którego przypadku panuje też powszechna zgoda co do jego genezy ewolucyjnej. Począwszy od prac Darwina (1872/1988), panuje przekonanie, iż sygnały mimiczne są przykładem specyficznej adaptacji podnoszącej jakość funkcjonowania grupy społecznej i tym samym umożliwiającej lepsze przystosowanie jednostki do wymagań środowiska. Zgodzono się również, iż różne formy ekspresji, będące sygnałami przeżywania odmiennych stanów afektywnych, można klasyfikować w zależności od charakterystyki zjawisk wywołujących emocje u jednostki (Keltner i Ekman, 2005). Duża część badaczy zgadza się także, że możliwe jest wyróżnienie zestawu ekspresji podstawowych. W ich przypadku wskazuje się też na ich uniwersalność międzykulturową oraz podobieństwo wyrazów mimicznych obserwowanych u ludzi i innych naczelnych. Jeśli weźmiemy pod uwagę rolę zdolności do rozpoznawania ekspresji emocjonalnej w regulacji interakcji społecznych, nie zaskakuje fakt, że temat ten jest przedmiotem rozległych badań, których celem jest opis neuronalnego podłoża procesu różnicowania sygnałów mimicznych. Dokładne bowiem poznanie wzorców aktywności mózgu towarzyszących procesom rozpoznawania ekspresji emocjonalnej pozwala jednocześnie na weryfikację koncepcji teoretycznych od-noszących się do tego zjawiska. W badaniach tych, podobnie jak w przypadku innych aspektów przetwarzania twarzy, wykorzystywane są różnorodne metody, począwszy od obserwacji pacjentów z uszkodzeniami mózgu, poprzez podkorową rejestrację aktywności neuronów u ludzi i innych naczelnych, po nieinwazyjne techniki oparte na pomiarze reakcji hemodynamicznych lub elektrofi zjologicznych. Na podstawie rezultatów tych badań postawiono wiele hipotez wyjaśniających przebieg procesu rozpoznawania ekspresji emocjonalnej. Zakłada się w nich, że sygnały mimiczne świadczące o przeżywaniu przez inną jednostkę emocji są przetwarzane priorytetowo przez układ nerwowy, co ma oczywisty związek z ich dużym znaczeniem w odniesieniu do funkcjonowania społecznego (Damasio, 1999; Keltner i Ekman, 2005; LeDoux, 2000). Ponadto sugeruje się, iż rozpoznawanie tych sygnałów może przebiegać bez udziału świadomości oraz automatycznie (Bargh, 1997; Murphy i Zajonc, 1993; Ohme, 2003; Ohme, Augustynowicz i Kukliński, 2001). Oznaczałoby to, że różnicowanie ekspresji mimicznej nie wymaga zaangażowania mechanizmu uwagowego, i tym samym może przebiegać mimowolnie. Należy jednak pamiętać, iż wspomniane powyżej postulowane charakterystyki procesu odbioru sygnałów mimicznych nie oznaczają, że wykluczone jest ich przetwarzanie świadome oraz że niemożliwy jest udział mechanizmu uwagi. Sugeruje się bowiem także, iż da się wyróżnić dwa odrębne mechanizmy neuronalne, stanowiące podłoże dla procesów identyfikacji ekspresji emocjonalnej. Jeden z nich wykorzystuje struktury podkorowe, takie jak wzgórki górne śródmózgowia, jądra poduszki wzgórza oraz ciała migdałowate, a także połączenia między tymi częściami mózgu. System ten ma odpowiadać za błyskawiczne, wstępne określenie znaczenia bodźca i być podstawą procesów automatycznych, niewymagających udziału świadomości lub zaangażowania uwagi. Drugi z mechanizmów łączony jest z zespołem struktur korowych uczestniczących w analizie percepcyjnej twarzy, jak się twierdzi przykładowo w przedstawionym wcześniej modelu Haxby’ego. Elementami tego systemu są więc rejony dolnego zakrętu potylicznego, zakrętu wrzecionowatego oraz wokół górnej bruzdy skroniowej. Postuluje się jednocześnie, iż oba systemy działają równolegle, co oznacza, że funkcjonowanie podkorowego mechanizmu nie pociąga za sobą zablokowania aktywności w układzie korowym i odwrotnie. Przypuszczalna dwutorowość przetwarzania ekspresji emocjonalnej jest traktowana zresztą przez wielu badaczy jako przykład podobnego zjawiska zachodzącego w odniesieniu do wszystkich sygnałów emocjonalnych rejestrowanych przez układ nerwowy. Przedstawione powyżej pokrótce sugestie pozwalają oczekiwać, że ekspresja emocjonalna powinna wywoływać zmiany we wzorcach aktywności mózgu pojawiające się relatywnie szybko. Ponadto zróżnicowanie reakcji mózgu powinno być obserwowane w warunkach wykluczających lub istotnie utrudniających świadome rozpoznawanie ekspresji emocjonalnej. Należy się spodziewać także, iż specyficzne odpowiedzi na prezentację sygnałów mimicznych rejestrowane będą zarówno wówczas, gdy w przetwarzanie bodźca będzie zaangażowany mechanizm uwagi, jak i wtedy, gdy analiza ekspresji emocjonalnej będzie zachodzić bez udziału uwagi. W kolejnych podrozdziałach zostaną przedstawione rezultaty badań odnoszących się do wymienionych charakterystyk przetwarzania ekspresji emocjonalnej. Najpierw zostaną zaprezentowane pokrótce argumenty potwierdzające udział różnych części systemu nerwowego, w tym struktur podkorowych, w odbiorze sygnałów mimicznych. Dane odnoszące się do aktywności korowej części układu wyspecjalizowanego w różnicowaniu emocjonalnego znaczenia twarzy zostały częściowo przedstawione przy okazji omawiania modelu Haxby’ego (zob. rozdział 2). W tej części pracy zostaną przytoczone także wyniki świadczące o udziale w procesie identyfikacji mimiki emocjonalnej również rejonów położonych poza systemem wzrokowym. Następnie zaprezentowane zostaną wyniki badań pozwalających opisać czasową charakterystykę procesu odbioru mimiki emocjonalnej, nieświadomego jej przetwarzania oraz wpływu uwagi na ten proces. 5.1. Elementy systemu analizującego mimikę emocjonalną Podobnie jak w przypadku każdego złożonego zjawiska psychicznego mózgowy mechanizm będący podstawą dla rozpoznawania ekspresji mimicznej nie jest umiejscowiony w pojedynczej strukturze systemu nerwowego. Wyniki badań wskazują raczej, że mamy tu do czynienia z siecią struktur lokalizowanych w często odległych częściach mózgu. Każdej z tych struktur można przypisać szczególne funkcje związane z określonym etapem dekodowania informacji o stanie emocjonalnym innej osoby. W tej części pracy zostaną zidentyfikowane główne elementy mózgowego systemu rozpoznawania ekspresji emocjonalnej. Dla uproszczenia podzielono je wstępnie na trzy grupy obejmujące elementy korowej części systemu wzrokowego, obszary korowe leżące poza systemem wzrokowym oraz struktury podkorowe. Podział ten wydaje się przynajmniej częściowo uzasadniony przez różnice funkcjonalne obserwowane w odniesieniu do wymienionych grup struktur mózgu. Elementy systemu korowego zostały opisane w pewnym zakresie przy okazji omawiania modelu procesów przetwarzania twarzy zaprezentowanego przez Jamesa Haxby’ego i jego współpracowników (Haxby, Hoffman i Gobbini, 2000; 2002; Gobbini i Haxby, 2007; zob. także rozdział 2). Dlatego też tej części systemu poświęcono mniej uwagi w porównaniu z pozostałymi dwiema grupami. Części kory mózgowej zaangażowane w analizę ekspresji emocjonalnej Bez wątpienia w przetwarzaniu bodźców wzrokowych muszą uczestniczyć elementy korowe systemu wzrokowego, umiejscowione w płacie potylicznym, skroniowym oraz ciemieniowym (Grabowska, 2011; Milner i Goodale, 2008). Nie inaczej jest również w przypadku przetwarzania ekspresji emocjonalnej twarzy. Należy także pamiętać, iż każdy bodziec wzrokowy wywołuje aktywację rozle-głych obszarów kory wzrokowej zarówno na poziomie jej pierwszorzędowych, jak i wyższorzędowych części. Poszczególne jednak moduły neuronalne tego systemu są w różnym stopniu wrażliwe na odmienne aspekty stymulacji wzrokowej. Identyczna sytuacja dotyczy różnych charakterystyk twarzy. Jak przedstawiono w rozdziale 2, na podstawie eksperymentów wykorzystujących najróżniejsze techniki rejestracji aktywności mózgu można wskazać przynajmniej trzy obszary wybiórczo reagujące w odpowiedzi na ekspozycję twarzy w porównaniu z obiektami niezaliczanymi do tej kategorii. Są one zlokalizowane w OFA, w zakręcie wrzecionowatym położonym w brzusznej części kory potyliczno-skroniowej oraz w okolicach STS, tworząc razem mózgowy system wyspecjalizowany w przetwarzaniu twarzy. W świetle modelu teoretycznego zaproponowanego przez Haxby’ego i jego zespół (Haxby, Hoffman i Gobbini, 2000; 2002; Gobbini i Haxby, 2007) główną częścią tego systemu związaną z analizą ekspresji mimicznych są okolice STS, na co wskazuje wiele badań przedstawionych w rozdziale 2. Nie oznacza to jednak, iż odpowiedzi pozostałych dwóch elementów tego systemu nie mogą być modulowane przez ekspresję emocjonalną. Jak bowiem sugerują badania Patrika Vuilleumier i jego współpracowników (Vuilleumier, Armony, Driver i Dolan, 2001), prezentacja twarzy wyrażających strach wywołuje wyższą aktywację zakrętu wrzecionowatego w porównaniu z twarzami neutralnymi. Podobny wzorzec zaobserwowano także w innych eksperymentach (Breiter i in., 1996; Critchley i in., 2000; Surguladze i in., 2003; Winston, O’Doherty i Dolan, 2003; Winston, Vuilleumier i Dolan, 2003). Na tej podstawie można sądzić, iż efekty ekspresji emocjonalnej w obrębie systemu przetwarzania twarzy nie ograniczają się do rejonów STS. Wydaje się jednak, że przede wszystkim dotyczy to ekspresji strachu, w której przypadku wzrost aktywności zakrętu wrzecionowatego jest stwierdzany najczęściej (Vuilleumier i Pourtois, 2007). W literaturze przedmiotu można jednak znaleźć doniesienia wskazujące na istnienie podobnego zróżnicowania dla innych rodzajów ekspresji, takich jak radość, wstręt czy smutek (Breiter i in., 1996; Surguladze i in., 2003) lub w przypadku twarzy wyrażających złość skojarzonych w procedurze warunkowania klasycznego z bodźcem awersyjnym (Armony i Dolan, 2002). Wśród części kory mózgowej wrażliwych na ekspozycję ekspresji mimicznej wymienia się również często fragmenty, które nie należą do systemu wzrokowego. W tym przypadku zróżnicowana aktywność wywoływana przez ekspozycję różnych ekspresji mimicznych nie może być kojarzona z procesami analizy danych sensorycznych, lecz raczej odzwierciedla aktywność mechanizmu interpretacji znaczenia bodźca. Przykładowo są to okolice brzusznej oraz brzuszno-przyśrodkowej kory w płacie czołowym. Udział tych struktur w procesach regulacji zachowań afektywnych oraz społecznych jest stosunkowo dobrze udokumentowany. Często przytaczanym w tym kontekście przykładem ilustrującym funkcje tej części mózgu jest przypadek Phineasa Gage’a, szeroko opisywany w wielu publikacjach (Dama-sio, 1999; Łosiak, 2007). Rozległe uszkodzenia w obrębie brzuszno-przyśrodkowej części płata czołowego, stwierdzone u tego pacjenta, spowodowały głębokie defi -cyty w regulacji stanów emocjonalnych. Podobne skutki lezji tego rejonu mózgu obserwowano także w przypadku innych podobnych pacjentów, jak również w odniesieniu do makaków (Butter i Snyder, 1972; Kolb i Taylor, 1990). Defi cyty obserwowane po uszkodzeniach wspomnianego obszaru stanowią jeden z argumentów na rzecz tezy, iż brzuszno-przyśrodkowe rejony płata czołowego pełnią istotną rolę w integracji informacji dotyczących afektywnego znaczenia docierającej do układu stymulacji oraz informacji dotyczących norm i reguł kierujących zachowaniem w określonych sytuacjach społecznych (Adolphs, 1999; Brothers, 1990; Frith i Frith, 1999; 2003; Stone, Baron-Cohen i Knight, 1998; por. także Wronka, 2008). Jedną z istotnych informacji wykorzystywanych przez ten mechanizm jest ocena znaczenia spostrzeganej ekspresji emocjonalnej. Mogą o tym świadczyć wyniki eksperymentów wskazujące na specyficzne wzorce pobudzenia brzuszno-przyśrodkowej kory czołowej rejestrowane w trakcie identyfikacji ekspresji mimicznej (Blair i in., 1999; Morris, Friston i in., 1998; Phillips i in., 2004; Sprengelmeyer i in., 1998; Streit i in., 1999; Surguladze i in., 2003; Winston, O’Doherty i Dolan, 2003), w tym również wówczas, gdy osoba badana nie spostrzegała bodźca na poziomie świadomym (Vuilleumier i in., 2002; Whalen i in., 1998) Co istotne, wykazano istnienie połączeń między wspomnianymi ośrodkami w płacie czołowym z rejonami kory skroniowej wiązanymi z identyfi kacją znaczenia stymulacji wzrokowej, jak w przypadku przednich części płata skroniowego, lub wręcz analizą ekspresji mimicznej, zachodzącą w górnym zakręcie skroniowym (Bachevalier i in., 1997). Połączenia takie są znane w przypadku ludzi oraz innych zaawansowanych naczelnych, co może oznaczać, iż mamy tu do czynienia ze stosunkowo nowym osiągnięciem ewolucyjnym (Nimchinsky i in., 1999). Ponadto wykazano, że neurony, które tworzą wspomniane połączenia, nie są obecne w momencie urodzenia, lecz pojawiają się dopiero w wieku około czterech mie-sięcy (Frith i Frith, 2003). Sugeruje to, iż dopiero od tego momentu życia mamy do czynienia z efektywnie funkcjonującym systemem oceny znaczenia afektywnego bodźców społecznych. Części układu limbicznego zaangażowane w analizę ekspresji emocjonalnej Osobną grupą części mózgu, w przypadku których mogą być obserwowane specyficzne wzorce pobudzenia wywołane prezentacją ekspresji mimicznych, są struktury korowe oraz podkorowe zaliczane do układu limbicznego. Mowa tu przede wszystkim o ciele migdałowatym, korze wyspy, zakręcie obręczy oraz jądrach podstawy kresomózgowia. Ciało migdałowate jest jednym z najistotniejszych elementów systemu limbicznego, a szczególnie duże znaczenie przypisuje się tej strukturze w procesie rozpoznawania bodźców zagrażających (Adolphs, 1999; LeDoux, 2000; LeDoux i Phelps, 2005). Podobne specyfi czne uwrażliwienie tej struktury wykazano także w odniesieniu do procesów różnicowania ekspresji emocjonalnej. Warto w tym miejscu zaznaczyć, iż największym szlakiem doprowadzającym informacje do ciała migdałowatego w mózgach naczelnych są połączenia z częścią układu wzrokowego zlokalizowaną w płacie skroniowym, gdzie znajdują się także moduły wyspecjalizowane w przetwarzaniu twarzy (Amaral, Behniea i Kelly, 2003; Price, 2002). Wykazano ponadto, że w obrębie tej struktury można znaleźć grupy neuronów selektywnie wrażliwe na ekspozycję twarzy oraz obiektów innych niż twarz (Amaral i in., 1992; Leonard i in., 1985). Na tej podstawie można sądzić, iż do pewnego stopnia podział funkcjonalny ciała migdałowa-tego przypomina ten obserwowany dla kory wzrokowej. Obustronne uszkodzenie ciała migdałowatego może prowadzić do zmian w efektywności rozpoznawania ekspresji negatywnych, głównie strachu i złości. Taki obraz przedstawili Adolphs i jego współpracownicy, przedstawiając wyniki obserwacji pacjentki S.M., u której dzięki zastosowaniu neuroobrazowania strukturalnego stwierdzono obustronną atrofię ciała migdałowatego wywołaną chorobą Urbacha-Wiethego (Adolphs, Tranel, Damasio i Damasio, 1994). Pacjentka ta wykazywała głębokie deficyty w rozpoznawaniu ekspresji strachu, ponadto myliła często zaskoczenie ze strachem. Mniejsze problemy miała w przypadku ekspresji złości. Co ważne, wydaje się, iż taki wzorzec zaburzeń może występować tylko w wyniku obustronnej lezji ciała migdałowatego. Jak bowiem wskazują wyniki uzyskane przez tę samą grupę badaczy, osoby, u których uszkodzenie dotyczy ciała migdałowatego wyłącznie po jednej stronie mózgu, radzą sobie z rozpoznawaniem różnych form ekspresji podobnie jak pacjenci z uszkodzeniami w innych częściach mózgu oraz osoby zdrowe (Adolphs, Tranel, Damasio i Da-masio, 1995). Co jednak istotne, nie u wszystkich osób z obustronnym uszkodzeniem ciała migdałowatego można obserwować identyczne deficyty. W innym badaniu przeprowadzonym przez grupę Adolphsa (Adolphs i in., 1999) testowano dziewięciu pacjentów z uszkodzeniami po obu stronach mózgu. W dwóch przypadkach nie zanotowano żadnych różnic w rozpoznawaniu sześciu podstawowych ekspresji w porównaniu z grupą kontrolną. Ponadto wzorzec zaburzeń u pozostałych był bardzo różnorodny. Dwie osoby wykazywały wybiórcze defi -cyty w percepcji ekspresji złości, jedna osoba nie potrafi ła prawidłowo zidentyfikować zaskoczenia, u trzech kolejnych zanotowano deficyty w przypadku kilku ekspresji. W tej ostatniej grupie najsilniejsze zaburzenia dotyczyły ekspresji strachu, złości i zaskoczenia, a stosunkowo słabsze odnosiły się do wstrętu i smutku. Nawet jednak u tych osób wzorzec był bardzo zróżnicowany. Tylko jedna osoba (notabene pacjentka S.M.) wykazywała wysoce specyfi czne deficyty w zakresie identyfikacji strachu i zaskoczenia. W podobnym badaniu przeprowadzonym przez Caldera i jego współpracowników (Calder i in., 1996) opisano dwoje pacjentów (D.R. oraz S.E.) wykazujących deficyty wyłącznie w odniesieniu do rozpoznawania strachu. Rezultaty te należy więc interpretować z dużą ostrożnością. Z jednej strony sugerują one, iż nie wszyscy pacjenci z obustronną lezją ciał migdałowatych mają problemy z różnicowaniem emocjonalnej ekspresji mimicznej (zob. także Ha-mann i Adolphs, 1999; Hamann i in., 1996). Z drugiej, osoby z uszkodzeniami ciał migdałowatych wykazują deficyty w odniesieniu do różnych rodzajów ekspresji (zob. także Anderson i Phelps, 2000). Ponadto pacjenci tacy są w stanie rozpoznawać ekspresję emocjonalną wyrażaną przez postawę ciała na poziomie porównywalnym z osobami zdrowymi, szczególnie wówczas gdy twarz nie jest widoczna i niemożliwa jest bezpośrednio identyfikacja ekspresji mimicznej (Adolphs i Tra-nel, 2003; Atkinson, Heberlein i Adolphs, 2007). Wydaje się więc, iż obustronna lezja ciał migdałowatych nie może być jednoznacznie łączona z defi cytami w rozpoznawaniu ekspresji emocjonalnej. Hamann i jego współpracownicy (Ha-mann i in., 1996) opisali dwa przypadki pacjentek z takim właśnie uszkodzeniem, u których zdolność od oceny sześciu podstawowych ekspresji nie różniła się od poziomu zanotowanego dla grupy kontrolnej. Te same dwa przypadki testowane ponownie w innym paradygmacie wykazywały normalny wzorzec identyfi ka-cji ekspresji, nawet z użyciem wysoce subtelniejszych metod pomiaru (Hamann i Adolphs, 1999). Na tej podstawie sugerowano, że samo zniszczenie ciał migdałowatych nie prowadzi do zaburzeń różnicowania ekspresji mimicznych. Wyjątkiem może być dopiero lezja powstała na wczesnym etapie życia. Taka sugestia pojawiająca się w pracach Hamanna oparta jest na porównaniu wyników pacjentki S.M. cierpiącej na wrodzoną dysfunkcję ciał migdałowatych spowodowaną chorobą Urbacha--Wiethego oraz osób, u których uszkodzenie tej struktury powstało w okresie dorosłości. W przypadku tej drugiej grupy pacjentów stwierdzano zazwyczaj normalne wzorce rozpoznawania ekspresji mimicznej. Co więcej, również nie wszystkie osoby, u których stwierdza się chorobę Urbacha-Wiethego, wykazują podobny wzorzec co pacjentka S.M. badana przez grupę Adolphsa. Siebert, Markowitsch i Bartel (2003) opisali dziewięć dalszych przypadków tej choroby, w których zanotowano umiarkowane różnice w porównaniu z grupą kontrolną tylko dla ekspresji złości. W odniesieniu do pozostałych sześciu podstawowych ekspresji nie zanotowano żadnych deficytów u tych pacjentów. Teza ta byłaby jednak niezgodna ze wspomnianymi wcześniej wynikami uzyskanymi przez grupę Caldera (Cal-der i in., 1996). Badacze ci wykazali deficyty u dwojga pacjentów z obustronnymi zmianami w ciałach migdałowatych spowodowanymi chorobami (epilepsja oraz opryszczkowe zapalenie mózgu), które dotknęły te osoby w okresie dorosłości. Wyniki te są zaskakujące i niezgodne z powszechną wśród psychologów opinią, iż ciało migdałowate stanowi główny element układu limbicznego warunku-jący normalne funkcjonowanie afektywne. Warto w tym miejscu zauważyć, że także w przypadkach eksperymentalnego uszkadzania ciał migdałowatych u małp uzyskiwane są niezgodne dane. Z jednej strony wskazuje się na klasyczne badania Klüvera i Busy’ego (1939) świadczące o głębokich zmianach w funkcjonowaniu społecznym wynikających z lezji ciał migdałowatych (por. także Ono i Noshijo, 2000). Z drugiej, skutki uszkodzenia tej struktury u makaków mogą nie powodować żadnych zmian w relacjach między osobnikami w grupie, a w przypadku emocji strachu paradoksalnie można obserwować silniej wyrażone reakcje (Bauman i in., 2004). O ile jednak ciało migdałowate – niezależnie od obserwowanych w różnych badaniach niejasności – nadal pozostaje główną strukturą podkorową związaną z rozpoznawaniem ekspresji strachu, o tyle w przypadku innych form emocji mimicznych sugeruje się udział innych elementów układu limbicznego. Wyniki badań z wykorzystaniem technik neuroobrazowania wskazują, iż w rozpoznawaniu ekspresji wstrętu bierze udział kora wyspy. Wzrost aktywacji w obrębie tej struktury obserwowano, porównując wzorce pobudzenia układu nerwowego uzyskane w odpowiedzi na ekspozycję twarzy wyrażających tę emocję w porównaniu z twarzami neutralnymi (Phillips i in., 1997; 1998; Sprengelmeyer i in., 1998). Do podobnych wniosków prowadzą także nieliczne badania pacjentów z uszkodzeniami tej okolicy mózgu, u których deficyt w zakresie różnicowania ekspresji mimicznych dotyczył wyłącznie wstrętu (Calder i in. 2000). Warto zaznaczyć w tym miejscu, że jest to część mózgu związana z przetwarzaniem wrażeń smakowych oraz doznań ze strony układu pokarmowego (Kalat, 2006). Jednak również w tym przypadku istnieje wiele niejasności. Wyniki badań pacjentów z chorobą Huntingtona lub osób, u których stwierdzono występowanie wzorców genów determinujących występowanie tej choroby, wciąż jednak bez wyraźnych objawów schorzenia, wskazują na rolę jąder podstawy w procesach oceny mimicznego wyrazu wstrętu (Sprengelmeyer i in., 1996; Hennenlotter i in., 2004; Gray i in., 1997). Jądra podstawy kresomózgowia wiąże się również z rozpoznawaniem ekspresji złości. Sugestia ta opiera się na wynikach uzyskanych u chorego z uszkodzeniem brzusznej części prążkowia (Calder, Keane, Lawrence i Manes, 2004). Natomiast już badania osób zdrowych wykorzystujące fMRI wskazują raczej na zakręt obręczy (Sprengelmeyer i in., 1998). Jednak ponieważ badania te są stosunkowo nieliczne, trudno wyciągać jednoznaczne wnioski na ich podstawie. Podsumowując więc opisane powyżej badania, dotyczące udziału struktur podkorowych w procesach różnicowania ekspresji emocjonalnej, należy stwierdzić, iż dostępne dane nie pozwalają na jednoznaczne określenie roli pełnionej przez te części mózgu w odniesieniu do interesującego nas problemu. Z jednej strony sugeruje się udział ciała migdałowatego w rozpoznawaniu wszelkich syg-nałów świadczących o zagrożeniu, w tym ekspresji mimicznej strachu i złości. Z drugiej jednak deficyty obserwowane u pacjentów z obustronnym uszkodzeniem tej części mózgu są bardzo zróżnicowane, począwszy od zupełnego braku oznak zaburzeń, poprzez problemy w rozpoznawaniu strachu, aż po niespecyfi czną niezdolność do identyfikacji niemal wszystkich podstawowych ekspresji. Mała liczba danych dotyczących skutków uszkodzeń innych części układu limbicznego również nie pozwala na jednoznaczną ocenę ich roli w procesie przetwarzania ekspresji emocjonalnej. Przedstawione w tej części pracy dane sugerują ponadto, iż mózgowy system będący podłożem procesu rozpoznawania ekspresji emocjonalnej jest w rzeczywistości układem wysoce złożonym. W jego skład wchodzą zarówno części kory wzrokowej wyspecjalizowane w przetwarzaniu twarzy, jak i struktury mózgu nie-związane bezpośrednio z analizą informacji w tej modalności. W tym drugim przypadku mamy więc do czynienia z częściami systemu nerwowego, których funkcje mają dużo bardziej złożony charakter i nie są ograniczone do identyfi kacji mimiki emocjonalnej. Takimi strukturami są elementy podkorowe układu limbicznego, jak ciało migdałowate, lub jego fragmenty położone na poziomie kory kresomózgowia, jak wyspa, zakręt obręczy czy brzuszno-przyśrodkowa część pła-ta czołowego. Wszystkie wymienione części mózgu komunikują się z sobą za pomocą dwustronnych połączeń, więc istotnym problemem dla zrozumienia procesu przetwarzania ekspresji emocjonalnej jest charakter wzajemnych oddziaływań między tymi strukturami. 5.2. Jak szybko pojawia się efekt ekspresji emocjonalnej? Zastosowanie technik opartych na pomiarze aktywności elektrycznej (EEG) lub magnetycznej (MEG) mózgu stanowi jedyny nieinwazyjny sposób na określenie tempa procesu różnicowania ekspresji emocjonalnej. Wyłącznie te techniki, dzięki swojej wysokiej rozdzielczości czasowej, umożliwiają rejestrację zmian w aktyw-ności układu nerwowego z dokładnością do milisekund. Uzupełnieniem danych uzyskiwanych w ten sposób może być analiza rezultatów osiągniętych poprzez śródczaszkowy pomiar aktywności określonych części układu nerwowego. Należy jednak pamiętać, iż metoda ta stosowana jest wyłącznie w przypadku pacjentów przygotowywanych do operacji neurochirurgicznych. Ograniczenia w możliwo-ści pomiaru szybkości, z jaką system nerwowy różnicuje mimikę emocjonalną, pociągają za sobą wiele istotnych problemów merytorycznych. Należy bowiem mieć na uwadze, iż aktywność elektryczna mierzona z wykorzystaniem EEG obrazuje przede wszystkim zmiany w potencjałach postsynaptycznych neuronów korowych, w małym tylko stopniu odzwierciedla aktywność struktur podkorowych. Istotną wadą pomiaru za pomocą MEG jest niska czułość na pola magnetyczne wytwarzane przez neurony, których dipole są prostopadłe do powierzchni kory. Jak wskazują Nunez i Srinivasan (2006), oznacza to, iż MEG nie pozwala na wykrycie dużej części aktywności neuronalnej pojawiającej się na poziomie kory, głównie w obrębie niektórych zakrętów (zob. także Jaśkowski, 2009). Również wnioskowanie na podstawie danych uzyskiwanych w wyniku śródczaszkowego pomiaru aktywności mózgu nie jest wolne od ograniczeń. Co prawda, z jednej strony umiejscowienie elektrod bezpośrednio na tkance mózgowej powoduje, iż sygnał jest uzyskiwany bez większych zniekształceń niezależnie od tego, czy dotyczy to lokalnych pól elektrycznych, czy potencjałów czynnościowych pojedynczych neuronów. Z drugiej jednak strony badania takie prowadzone są w grupach pacjentów neurologicznych, u których można oczekiwać zmian w szybkości aktywacji zarówno pojedynczych komórek, jak i całych struktur mózgu, będących wynikiem stosowania środków farmakologicznych. Biorąc pod uwagę wszystkie te ograniczenia, należy z dużą rezerwą podchodzić do uzyskiwanych wyników. Obszary kory potylicznej – komponent P1 Rezultaty eksperymentów wykorzystujących metody nieinwazyjne wskazują, że efekt ekspresji emocjonalnej może być rejestrowany w okolicach potylicznych już po około 100 ms od ekspozycji bodźca. Wyniki takie zostały uzyskane przez kilka grup badaczy stosujących zresztą odmienne paradygmaty. Halgren i jego grupa (Halgren i in., 2000), wykorzystując pomiar MEG w odpowiedzi na prezentację twarzy neutralnych oraz wyrażających radość lub smutek, uzyskali różnicę w przebiegu aktywności kory potylicznej pojawiającą się około 100 ms po bodźcu. Efekt ten był jednak krótkotrwały (20 ms) i obserwowano go, porówując zapis dla ekspresji radości oraz dwóch pozostałych wyrazów mimicznych. W podobnym oknie czasowym różnice w przebiegu potencjałów ERP uzyskali Pourtois i jego współpracownicy (Pourtois i in. 2004), wykorzystując paradygmat dot-probe. W zadaniach tego rodzaju w lewej i prawej połowie pola widzenia prezentowane są jednocześnie dwie twarze, przy czym jedna z nich przedstawia ekspresję neutralną, a druga wybraną emocję. Osoba badana ma za zadanie ignorować twarze i reagować na eksponowany krótko po nich bodziec, który często przybiera bardzo prostą formę. Pourtois i jego grupa zanotowali około 90 ms po ekspozycji twarzy wyższe wartości potencjału mierzonego w okolicach potylicznych w przypadku pary ekspresji strach–neutralna w porównaniu z parą radość–neutralna. Nieco później pojawiające się zróżnicowanie zanotowali Holmes, Kragh Nielsen i Green (2008). W tym przypadku stwierdzono wyższe wartości amplitudy komponentu P1 (około 130 ms) mierzonego w okolicach potylicznych w odpowiedzi na prezentację twarzy wyrażających strach w porównaniu z ekspresją neutralną. Podobnego rezultatu nie zaobserwowano dla twarzy przedstawiających radość. Warto jednak zwrócić uwagę, że istotne wyniki uzyskano wyłącznie dla grupy o wysokim poziomie lęku. W przypadku osób niskolękowych rezultaty wskazywały na brak zróżnicowania w wielkości amplitudy P1 mierzonej dla trzech testowanych ekspresji. Porównywalne wyniki uzyskano również w drugim badaniu tej grupy (Holmes i in., 2009). Wszystkie zaprezentowane w tej części wyniki odnoszą się do aktywności okolic potylicznych kory mózgowej, czyli rejonów obejmujących pierwszorzędową oraz elementy drugorzędowej kory wzrokowej. Wyniki te wskazują, iż w tej części mózgu można zaobserwować, zależne od emocjonalnego znaczenia sygnału mimicznego, zmiany w pobudzeniu pojawiające się około 90–130 ms po ekspozycji bodźca. Na tym etapie przetwarzania twarzy może dochodzić do analizy poszczególnych części twarzy i różnicowania twarzy od innych obiektów. Wówczas obserwowane zróżnicowanie może odzwierciedlać odmienne wzorce aktywności obszarów kory potylicznej, wyspecjalizowanych w analizie percepcyjnej twarzy (np. OFA), związane z różnicami na poziomie poszczególnych części twarzy (np. uśmiech z odsłoniętymi zębami vs ekspresja neutralna). Podobny wynik w przypadku strachu może odnosić się do wielkości białek oczu (Whalen i in., 2004). Jak wspomniano wcześniej, ekspozycja oczu wyrażających strach wywołuje wyższy poziom pobudzenia ciała migdałowatego w porównaniu z oczami przedstawiającymi stan neutralny. Podobną sugestię wysunęli Halgren i jego grupa (2000), interpretując w ten sposób efekt ekspresji emocjonalnej obserwowany w przypadku ekspresji radości. Co jednak istotne z punktu widzenia niniejszej pracy, autorzy ci wskazują jednocześnie, iż uzyskane przez nich zróżnicowanie, pojawiające się około 100 ms po bodźcu, pojawia się wcześniej niż w przypadku ciała migdałowatego, dla którego ci sami badacze w innym eksperymencie zanotowali efekty ekspresji emocjonalnej około 20 ms później (Halgren i in., 1994). Obszary kory skroniowej – komponent N170 W nieco późniejszym oknie czasowym uzyskiwane są również efekty ekspresji emocjonalnej w przypadku okolic kory skroniowej lub potyliczno-skroniowej. Te obszary obejmują zakręt wrzecionowaty oraz zakręty skroniowe, będąc głównymi źródłami dla komponentu N170 (por. rozdział 4). Najwcześniej zaobserwowane w tym obszarze zróżnicowanie aktywności mierzonej za pomocą MEG i związane z prezentacją odmiennych form ekspresji emocjonalnej pojawia się około 130 ms po bodźcu (Liu, Ioannides i Streit, 1999). Wynik ten uzyskano dla zakrętu wrzecionowatego w przypadku ekspresji radości, smutku, wstrętu, zaskoczenia i złości. Nieco później zanotowano różnice dla ekspresji strachu (około 200 ms po bodźcu). Jednocześnie rejestrowana aktywność ciała migdałowatego wykazywała zróżnicowanie w wielu krótkotrwałych oknach czasowych. Ponadto te okna czasowe były istotnie różne dla sześciu testowanych ekspresji, co wywołuje wątpliwości co do rzetelności pomiaru. Przykładowo, wyniki te w przypadku lewego ciała mig-dałowatego uzyskano pomiędzy 110 a 120 ms dla radości, 150–180 ms dla strachu oraz 230–240 ms dla złości. Stąd trudno o jednoznaczne wnioski dotyczące szyb-kości, z jaką obserwowano specyficzną odpowiedź ciała migdałowatego. Wydaje się również, iż wynik uzyskany dla zakrętu wrzecionowatego odzwierciedla proces generowania komponentu N170, gdyż zróżnicowanie dla tej struktury notowano między 130 a 200 ms po bodźcu. W innym badaniu tej samej grupy, również wykorzystującym pomiar MEG, zanotowano efekt ekspresji w tylnej części STS pojawiający się około 140–170 ms po bodźcu. W tym przypadku zróżnicowana reakcja ciała migdałowatego została zarejestrowana dopiero 220 ms po ekspozycji twarzy (Streit i in., 1999). Również w tym przypadku można przypuszczać, iż wczesny efekt w obrębie STS odnosi się do procesu wywoływania N170. Jak bowiem wskazują Itier i Taylor (2004b), aktywność tego rejonu jest jednym ze źródeł tego komponentu. Wynik ten jest zgodny z rezultatami innych badań wskazujących na modulację amplitudy N170 związanej z prezentacją różnych rodzajów ekspresji emocjonalnej. Batty i Taylor (2003) uzyskały wyższe wartości amplitudy N170 w przypadku prezentacji twarzy wyrażających strach w porównaniu z twarzami neutralnymi. Co jednak istotne, analiza czasów latencji N170 wykazała, iż komponent ten pojawiał się szybciej (około 138–139 ms) w przypadku twarzy przedstawiających radość i stan neutralny w porównaniu z ekspresją smutku, strachu i wstrętu (około 141–142 ms). Wyższą amplitudę N170 wywołanego ekspozycją twarzy przedstawiających ekspresję strachu w porównaniu z bodźcami neutralnymi uzyskano również w badaniu Blau i jej grupy (Blau i in., 2007). Silniej wyrażony w przypadku twarzy emocjonalnych komponent N170 rejestrowany był także w innych badaniach (Miyoshi, Katayama, i Morotomi, 2004; Rigato, Farroni, i Johnson, 2010; Vlamings, Goffaux, i Kemner, 2009). Również wyniki eksperymentu przeprowadzonego przez nasz zespół wskazują na podobną zależność (Wronka i Wa-lentowska, 2011). W eksperymencie tym uzyskaliśmy istotnie wyższe wartości amplitudy komponentu N170 mierzonej dla prawej półkuli mózgu w odpowiedzi na ekspozycję twarzy emocjonalnych w porównaniu z bodźcami neutralnymi. Ponadto zróżnicowanie w zakresie tego komponentu można zaobserwować także wówczas, gdy porównamy warunki z zastosowaniem ekspresji o różnej intensyw-ności. Rezultat taki obserwowali Sprengelmeyer oraz Jentzsch (2006), wskazując, iż im silniej wyrażona jest ekspresja, tym silniej wyrażony jest komponent N170. Warto zwrócić w tym miejscu uwagę, że poza badaniem przeprowadzonym przez Batty i Taylor (2003) żaden z zespołów nie zanotował istotnych różnic w przypadku czasów latencji N170. Podsumowując, można stwierdzić, iż w przypadku obszarów kory potyliczno-skroniowej efekt ekspresji emocjonalnej pojawia się wraz z aktywnością struktur wyspecjalizowanych w przetwarzaniu twarzy będącą źródłem komponentu N170. Obszary kory czołowej – komponent AP Zróżnicowanie we wzorcach przebiegu potencjałów ERP wywołanych ekspozycją twarzy wyrażających różne stany emocjonalne można także zarejestrować w okolicach czołowych. W tym przypadku wielokrotnie uzyskiwano efekt w postaci dodatkowej fali dodatniej mierzonej dla twarzy ekspresywnych w porównaniu z neutralnymi (komponent AP opisany w poprzednim rozdziale). Różnica ta nie dotyczy zazwyczaj pojedynczego komponentu, lecz obserwowana jest przez przynajmniej kilkadziesiąt milisekund. Czas latencji tego efektu jest jednak odmienny w różnych badaniach. W trzech eksperymentach zanotowano go około 100–120 ms po ekspozycji bodźca (Holmes, Vuilleumier i Eimer, 2003; Eimer i Holmes, 2002; Holmes, Kragh Nielsen i Green, 2008). W innych pojawiał się około 40–60 ms później (Ashley, Vuilleumier i Swick, 2004; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Wronka i Walentowska, 2011). Ze względu na fakt, iż zróżnicowanie w zapisie potencjałów ERP jest rejestrowane dla wielu elektrod w okolicach czołowych i centralnych, jak również długość efektu, trudno wskazać precyzyjnie, jakie struktury mózgowe mogą być źródłem tej fali. Badania z wykorzystaniem technik neuroobrazowania wskazują na udział brzuszno-przyśrodkowej kory czołowej oraz rejonów zakrętu obręczy i przyśrodkowego zakrętu czołowego w procesie przetwarzania ekspresji emocjonalnej. Możliwe więc, że specyficzna odpowiedź uzyskiwana w okolicach czołowych dzięki rejestracji ERP odzwierciedla podobny proces. Ciało migdałowate Na koniec należy wspomnieć również o wynikach badań, w których bezpośrednio rejestrowano aktywność ciała migdałowatego. We wspomnianym powyżej eksperymencie grupy Halgrena uzyskano zróżnicowanie w aktywności tej struktury pojawiające się około 120 ms po ekspozycji twarzy (Halgren i in., 1994). W badaniu tym wykorzystano technikę śródczaszkowej rejestracji aktywności neuronów. W eksperymencie przeprowadzonym przez Krolak-Salmona i jego współpracowników (Krolak-Salmon i in., 2004), również wykorzystującym bezpośredni pomiar aktywności ciała migdałowatego u pacjentów neurologicznych, uzyskano efekt ekspresji emocjonalnej dopiero około 200 ms po prezentacji twarzy. Co ważne, zróżnicowanie pobudzenia amygdali zanotowano, porównując rezultaty dla ekspresji strachu oraz twarzy neutralnych. W przypadku radości oraz wstrętu struktura ta nie wykazywała odmiennego wzorca aktywacji w porównaniu z bodźcami neutralnymi. Warto w tym kontekście wspomnieć o innym badaniu tej samej grupy, w którym mierzono aktywność kory wyspy (Krolak-Salmon i in., 2003). W tym przypadku również uzyskano specyficzną reakcję tej struktury pojawiającą się około 300 ms po bodźcu i ograniczoną wyłącznie do ekspresji wstrętu. Rezultaty te są zgodne z hipotezą sugerującą, iż ciało migdałowate jest częścią systemu limbicznego szczególnie ważną w procesie oceny bodźców zagrażających (Adolphs, 2002; LeDoux, 2000; LeDoux i Phelps, 2005), podczas gdy kora wyspy jest związana z emocją wstrętu (Kalat, 2006). Zarazem jednak wyniki te nie odpowiadają obserwacjom wspomnianych badań z użyciem MEG (Liu, Ioannides i Streit, 1999). Jak pamiętamy, najwcześniej rejestrowano w nich efekt dla ekspresji radości, a dopiero nieco później dla twarzy wyrażających strach oraz złość. Niezależnie jednak od niezgodności w wynikach tych badań uzyskiwane rezultaty nie pozwalają na stwierdzenie, że związany z ekspresją emocjonalną efekt rejestrowany w przypadku ciała migdałowatego wyprzedza zróżnicowanie notowane dla struktur korowych. Przytoczone badania wskazywałyby raczej na odwrotną zależność. Okazuje się bowiem, iż wyniki uzyskiwane w badaniach z wykorzystaniem ERP wskazują na zróżnicowanie w czasie latencji krótszym (kora potyliczna) lub zbliżonym (kora potyliczno-skroniowa) do obserwowanego dla podkorowych części mózgu. Oznacza to, że brak jest potwierdzenia tezy, iż przetwarzanie ekspresji emocjonalnej zachodzące przy udziale ciała migdałowatego jest szybsze w porównaniu z analizą dokonywaną przez układy korowe. Należy również w tym miejscu zaznaczyć, iż wniosek ten ma także silne uzasadnienie w wynikach badań z udziałem naczelnych. Opisane w rozdziale 2 badania grupy Perretta (Perret, Rolls i Caan, 1982; Perret i in., 1985) sugerują, że specyficzna aktywność neuronów w rejonie STS, części mózgu związanej z przetwarzaniem ekspresji emocjonalnej, może być obserwowana po około 80 ms po ekspozycji twarzy. Wynik ten jest zgodny z uzyskanym przez Batty i Taylor (2003), które wykorzystując jedną z technik lokalizacji źródeł potencjałów ERP, stwierdziły, iż aktywacja rejonów wokół STS wywołana przez prezentację twarzy rozpoczyna się około 90 ms po bodźcu. Oznaczałoby to, że przetwarzanie informacji w strukturach korowych naczelnych cechuje niezwykła szybkość. Jeśli weźmie-my też pod uwagę wyniki badań makaków wskazujące, iż pierwszorzędowa kora wzrokowa wykazuje istotny wzrost pobudzenia, począwszy od około 40 ms po ekspozycji bodźca, a w innych częściach kory wzrokowej czas latencji aktywacji neuronów nie przekracza 80–100 ms (Bullier, 2001; Schmolesky i in., 1998; por. także Foxe i Simpson, 2002), wówczas będziemy zmuszeni stwierdzić, iż hipoteza mówiąca o tym, że przekazywanie informacji o ekspresji emocjonalnej z wykorzystaniem połączeń podkorowych wyprzedza przetwarzanie korowe, nie ma żadne-go uzasadnienia empirycznego. 5.3. Czy mimika emocjonalna może zostać zarejestrowana poza świadomością? Bezdyskusyjny wydaje się obecnie fakt, iż nie wszystkie informacje docierające do naszych zmysłów oraz wywołujące aktywność w pierwszorzędowych obszarach korowych osiągają poziom świadomych wrażeń. Wielu badaczy sądzi, że tego rodzaju przetwarzanie informacji można określać mianem automatycznego, o ile wywołuje zmiany w aktywacji struktur mózgu dokonujących bardziej złożonych form analizy lub prowokuje zmiany w sposobie reagowania osoby badanej, mimo braku świadomych doznań (Öhman, 2002; Murphy i Zajonc, 1993; Ohme, 2003; Ohme, Augustynowicz i Kukliński, 2001). W przypadku procesów związanych z odbiorem informacji dotyczących twarzy można wskazać wiele przykładów świadczących o tym, że jej analiza może być dokonywana bez udziału świadomości lub w warunkach jej ograniczenia. Paradygmat poprzedzania z maskowaniem wstecznym Jedną z procedur eksperymentalnych najczęściej wykorzystywanych w badaniach dotyczących problemu nieświadomego przetwarzania ekspresji mimicznej jest maskowanie wsteczne w paradygmacie poprzedzania (Ohme, Pochwatko i Błasz-czak, 1999; Ohme, Kukliński i Sweklej, 2001). Technika ta polega na ekspozycji na bardzo krótki czas, najczęściej nie dłużej niż 15–20 ms, zdjęć twarzy prezentujących różne formy ekspresji oraz pojawiającej się natychmiast potem prezentacji bodźców maskujących. W przypadku bodźca maskującego ekspozycja zazwyczaj trwa wielokrotnie dłużej. Osoby badane najczęściej nie są w stanie określić, czy oraz jakie rodzaje bodźców były prezentowane przed bodźcem maskującym. W badaniach wykorzystujących tę technikę uzyskano wyniki wskazujące, że ekspresja mimiczna wpływa na ocenę neutralnych obiektów lub symboli wykorzystywanych w charakterze maski, przy czym wpływ ten zależy od rodzaju ekspresji emocjonalnej. W przypadku ekspozycji twarzy wyrażających radość uzyskiwano wzrost pozytywnych ocen bodźców maskujących, natomiast dla twarzy przedstawiających złość obserwowana zmiana może mieć charakter przeciwny (Murphy i Zajonc, 1993; Rotteveel, de Groot, Geutskens i Phaf, 2001; Wong i Root, 2003; patrz także: Ohme, 2003; Ohme, Augustynowicz i Kukliński, 2001). W badaniach wykorzystujących różne techniki pomiaru aktywności układu nerwowego wykorzystuje się często podobne procedury eksperymentalne. Również w tym przypadku osoby badane nie są świadome prezentacji twarzy. Co jednak ważne, wyniki tych badań jednoznacznie wskazują na możliwość nieuświadomionego różnicowania mimiki emocjonalnej. Dimberg, Thunberg i Elmehed (2000) zarejestrowali wyraźnie odmienne wzorce reakcji EMG wywoływanych przez ekspozycję maskowanych wstecznie ekspresji radości i złości. W przypadku podprogowej ekspozycji twarzy wyrażających radość obserwowano istotnie silniejszą aktywność mięśnia jarzmowego (zygomaticus major) w porównaniu z prezentacją twarzy wyrażających złość. Odwrotny wzorzec uzyskano dla mięśnia marszczące-go brwi (corrugator supercilii). Co ważne, podobną charakterystykę zróżnicowania aktywności obu tych mięśni można obserwować w trakcie przeżywania stanów emocjonalnych radości i złości. Wyniki te sugerują możliwość skutecznego różnicowania oraz imitacji sygnałów mimicznych odbieranych bez udziału świadomości. Wykorzystując procedurę warunkowania, Esteves, Dimberg i Öhman (1994) zanotowali istotny wzrost amplitudy reakcji elektrodermalnej (skin conductance response – SCR) w przypadku zdjęć przedstawiających ekspresję złości. W innych podobnych badaniach wykazano, iż efektywność procedury warunkowania jest wyższa w przypadku ekspresji złości w porównaniu z twarzami wyrażającymi radość (Mineka i Öhman, 2002). Należy jednak pamiętać, że badania z zastosowaniem pomiaru aktywności autonomicznej sugerują możliwość różnicowania nieświadomie odbieranych ekspresji emocjonalnych, lecz jednocześnie nie wskazują na mechanizm leżący u podłoża tego zjawiska. Badania grupy Morrisa Podobne badania prowadzone z użyciem technik neuroobrazowania lub pomiaru ERP umożliwiają lepsze zrozumienie procesów zachodzących w trakcie przetwarzania ekspresji emocjonalnej poza świadomością. Szczególnie ważne wydają się w tym kontekście badania grupy Morrisa (Morris, Öhman i Dolan, 1998; 1999; Morris, De Gelder, Weiskrantz i Dolan, 2001), które stały się podstawą dla hipotezy wskazującej na możliwość przekazywania informacji dotyczących ekspresji mimicznej do ciała migdałowatego z ominięciem struktur korowych. Z tego względu badania te zostaną przedstawione dokładniej niż pozostałe. W eksperymencie Morrisa, Öhmana i Dolana (1998; 1999) stwierdzono zróżnicowaną aktywację ciała migdałowatego w odpowiedzi na prezentację twarzy przedstawiających złość i radość. Przed pomiarem PET przeprowadzono sesję warunkowania, kojarząc jedną z twarzy wyrażających złość z silnym dźwiękiem. Następnie bodziec ten wraz z inną twarzą prezentującą tę samą ekspresję oraz dwiema przedstawiającymi stan neutralny wykorzystano w procedurze maskowania wstecznego, gdzie bodźcami prezentowanymi podprogowo były zarówno twarze neutralne, jak i okazujące złość. Uzyskane rezultaty wskazują, iż skojarzony wcześniej z silnym dźwiękiem bodziec w postaci twarzy przedstawiającej złość (bodziec warunkowy) wywoływał silniejsze reakcje ciała migdałowatego w porównaniu z twarzą przedstawiającą tę samą ekspresję, ale nieskojarzoną z bodźcem bezwarunkowym. Ponadto ten sam bodziec warunkowy prezentowany podprogowo wywoływał silniejsze odpowiedzi ciała migdałowatego niż w warunkach ekspozycji ponadprogowej. Jednocześnie rejestrowano wyższy poziom pobudzenia zakrętu wrzecionowatego dla ponadprogowo prezentowanego bodźca warunkowego w porównaniu z ekspozycją podprogową. Co ważne, aktywacja tej struktury uzyskana dla twarzy wyrażającej złość i wcześniej skojarzonej z bodźcem bezwarunkowym była podobna do zarejestrowanej dla twarzy nieskojarzonej z dźwiękiem, niezależnie od sposobu jej prezentacji. Oznacza to, że przetwarzanie w obszarze korowym charakteryzował podobny poziom pobudzenia niezależnie od długości ekspozycji bodźca, jeśli ten wcześniej nie został poddany procedurze warunkowania. Należy jednak też zauważyć, iż niektóre rezultaty uzyskane w tym eksperymencie można wyjaśniać, odwołując się do procesów uczenia się. Dotyczy to głównie zróżnicowania reakcji ciała mig-dałowatego. Zanotowano istotnie różny poziom aktywacji tej struktury w przypadku dwóch twarzy prezentujących tę samę ekspresję (skojarzonej wcześniej z bodźcem bezwarunkowym oraz nieskojarzonej z nim), co oznacza, że różnic tych nie można wiązać wyłącznie z charakterystyką sygnału mimicznego, a raczej z tożsamością twarzy. Interesujące rezultaty uzyskano w tym samym badaniu także dla innych struktur podkorowych. Okazało się bowiem, iż poziom wzbudzenia jąder poduszki wzgórza oraz wzgórków górnych śródmózgowia dodatnio korelował z poziomem aktywacji ciała migdałowatego dla ekspozycji podprogowej bodźca warunkowego. Odwrotny kierunek współzmienności uzyskano dla prezentacji ponadprogowej dla tego samego rodzaju bodźca. Według autorów pozwala to sądzić, iż aktywność obu tych struktur jest wysoce podobna do poziomu aktywacji ciała migdałowatego. Wynik ten staje się jeszcze bardziej interesujący w świetle danych zebranych w innym eksperymencie Morrisa i jego zespołu (Morris, De Gelder, Weiskrantz i Dolan, 2001). W badaniu tym rejestrowano aktywność mózgu pacjenta G.Y. z rozległą lezją w okolicy potylicznej lewej półkuli. Osobie tej prezentowano zdjęcia przedstawiające strach i radość w jednej z połówek pola widzenia. Oczekiwano, iż ekspozycja bodźców w lewej połowie powinna wywoływać świadome wra-żenia w przeciwieństwie do prezentacji w prawej części pola widzenia. Co ważne, gdy bodźce były pokazywane prawej półkuli (lewe pole widzenia), zaobserwowano wyższy poziom pobudzenia w obszarze kory wzrokowej, w tym w zakręcie wrzecionowatym, oraz w korze czołowej, w porównaniu z ekspozycją w prawym polu widzenia. W drugim eksperymencie z udziałem tego samego pacjenta zastosowano procedurę warunkowania zbliżoną do użytej w poprzednich badaniach (Morris, Öhman i Dolan, 1998; 1999). W tym przypadku bodźcem warunkowym, skojarzonym z silnym dźwiękiem, była twarz kobiety, natomiast twarz mężczyzny nie była skojarzona wcześniej z bodźcem bezwarunkowym. Obie twarze były prezentowane do lewego lub prawego pola widzenia. W przypadku bodźca warunkowego eksponowanego do uszkodzonej lewej półkuli stwierdzono silniejszą odpowiedź ciała migdałowatego oraz wzgórków górnych śródmózgowia dla twarzy kobiety (bodziec warunkowy) w porównaniu z twarzą mężczyzny. Ponadto uzyskano podobny wzorzec współzmienności dla ciała migdałowatego i tylnej części wzgórza, obejmującej jądra poduszki, jak w przypadku poprzednich badań. Wyniki te, zdaniem autorów, wskazują, że istnieje możliwość przekazywania informacji o ekspresji emocjonalnej poprzez połączenia na poziomie struktur podkorowych. Miałoby to wynikać z faktu, iż prezentacja twarzy do uszkodzonej lewej półkuli nie wywoływała aktywacji zakrętu wrzecionowatego przy jednocześnie notowanym wzroście pobudzenia w ciele migdałowatym. Biorąc także pod uwagę współzmienność obserwowaną dla aktywacji ciała migdałowatego, wzgórków górnych śródmózgowia oraz jąder poduszki wzgórza, autorzy przypuszczają, iż ten zbiór struktur podkorowych stanowi układ umożliwiający przekazywanie informacji do układu limbicznego z ominięciem kory mózgowej. Autorzy wskazują jednocześnie na dane sugerujące istnienie połączeń z poziomu wzgórków górnych do jąder poduszki, a stamtąd do ciała migdałowatego. Warto również pamiętać, że jednym z ośrodków otrzymujących projekcje z komórek zwojowych siatkówki oka są właśnie wzgórki górne. Przedstawione powyżej wnioskowanie stało się podstawą popularnej tezy o istnieniu dwóch niezależnych kanałów przetwarzania ekspresji mimicznej. Jak wspomniano na początku rozdziału, jeden z tych kanałów, związany ze strukturami podkorowymi, ma umożliwiać błyskawiczne, wstępne określenie znaczenia bodźca i być podstawą procesów automatycznych, niewymagających udziału świadomości lub zaangażowania uwagi. Propozycja Morrisa i jego współpracowników była odpowiedzią na krytykę hipotezy LeDoux (2000), który na podstawie własnych badań prowadzonych na szczurach zaproponował istnienie podobnych połączeń między ciałami kolankowatymi i ciałem migdałowatym9. Jednakże nie wykazano istnienia takich połączeń w mózgach naczelnych (Pessoa, 2005), co stanowiło nie lada problem dla zwolenników tezy o istnieniu podkorowego mechanizmu oceny znaczenia bodźców, działającego bez udziału struktur korowych. Wyniki Morrisa i jego grupy wypełniały więc lukę w tej hipotezie dotyczącą potencjalnej sieci połączeń. Wydaje się jednak, iż propozycja ta powinna być traktowana z rezerwą z kilku powodów. Po pierwsze, badania z udziałem pacjenta G.Y. nie wykazały jednoznacznie, że lezja kory potylicznej lewej półkuli uniemożliwiała wykorzystanie struktur korowych. Co prawda Morris i jego współpracownicy podają, iż prezentacja twarzy do prawego pola widzenia nie wywołała odpowiedniej aktywacji kory wzrokowej, obserwowanej zresztą dla drugiej półkuli, lecz jednocześnie spostrzegawczy czytelnik zauważy, że badacze ci, stosując technikę fMRI, podają informację wyłącznie o tym, że określona grupa struktur była lub nie była silniej pobudzona w porównaniu z identyczną grupą w drugiej półkuli, bez wskazania innych szczegółów porównań. Tak przeprowadzona analiza umożliwia więc tylko stwierdzenie istnienia względnych różnic w poziomie pobudzenia obu półkul, lecz nie pozwala na wniosek, iż uszkodzona lewa część kory wzrokowej pacjenta G.Y. nie przetwarzała danych sensorycznych. Jak wiadomo, funkcjonalny rezonans magnetyczny oparty jest na pomiarze dystrybucji natlenowanej i nienatlenowanej krwi w obrębie układu nerwowego, stąd w każdych warunkach można oczekiwać aktywacji niemal całego mózgu. Pobudzenie to ma oczywiście różny poziom w przypadku różnych części mózgu. Jednak dopiero porównanie wzorca aktywacji uzyskanego w jednym przypadku ze wzorcem obserwowanym w innym umożliwia określenie struktur specyficznie związanych z interesującym nas zjawiskiem. Stąd na podstawie opisywanych danych trudno jednoznacznie stwierdzić, w jakim stopniu uszkodzona lewa półkula pacjenta G.Y. mogła być pobudzana przez prezentację twarzy i w rezultacie mogła tę twarz przetwarzać. Problem ten staje się istotny, biorąc pod uwagę wyniki behawioralne uzyskane przez tego pacjenta. W obu eksperymentach zadaniem pacjenta było okre-ślenie płci prezentowanej twarzy. Pomimo iż pacjent twierdził, że nie widział żadnej z eksponowanych w prawym polu widzenia twarzy, był w stanie w eksperymencie 1 wskazać poprawnie płeć twarzy w 76% prób odnoszących się do 9 Ze względu na złożoność problemu propozycja ta nie będzie przedstawiana szczegółowo w niniejszej pracy. Zainteresowany czytelnik znajdzie bez trudu opis hipotezy LeDoux w innych pozycjach (np. LeDoux, 2000). lewej, uszkodzonej półkuli. Wynik ten może więc sugerować, iż w rzeczywistości możliwe było przetwarzanie informacji o eksponowanym bodźcu także w tej półkuli. Warto zwrócić uwagę, iż pacjent ten uległ wypadkowi w wieku ośmiu lat, co może sugerować, iż doszło do znaczącej reorganizacji niektórych struktur systemu wzrokowego lewej półkuli. Argumentem świadczącym o możliwości relatywnie normalnego przebiegu procesów percepcyjnych w uszkodzonej lewej półkuli pacjenta G.Y. mogą być również wyniki badań z wykorzystaniem pomiaru ERP dokonywanego z jego udziałem (de Gelder i in., 1999). W badaniu tym prezentowano zdjęcia twarzy do lewego i prawego pola widzenia, uzyskując porównywalne wzorce aktywacji dla obszarów potylicznych w obu przypadkach. Zanotowano porównywalną amplitudę oraz czas latencji komponentu P1, a także porównywalne czasy latencji przy zróżnicowanej amplitudzie komponentu N1 wywoływanych przez prezentację bodźców do uszkodzonej oraz zdrowej półkuli. Oznacza to, iż w obu półkulach mózgu tego pacjenta mogły zachodzić procesy analizy prezentowanych mu bodźców wzrokowych (de Gelder, Pourtois i Weiskrantz, 2010). Tym samym interpretacja wyników eksperymentu Morrisa i jego grupy (2001) z udzia-łem tego samego pacjenta, wskazująca na możliwość pobudzenia ciała migdałowatego wyłącznie via struktury podkorowe, jest nadużyciem. Problem dodatkowo komplikuje fakt, iż metody neuroobrazowania nie pozwalają na określenie charakterystyki czasowej efektów uzyskiwanych za ich pomocą. Możliwe jest więc, że aktywacja ciała migdałowatego nie następuje po pobudzeniu wzgórków górnych i jąder poduszki, jak sugerowali Morris i jego współpracownicy, lecz je poprzedza. Wówczas istnieje możliwość, iż w rzeczywistości mamy do czynienia z zupełnie innym zjawiskiem. Alternatywne wyjaśnienie wyników uzyskanych we wspomnianym badaniu odwołuje się do roli, jaką wzgórki górne śród-mózgowia oraz jądra poduszki wzgórza pełnią w przypadku mechanizmu uwagi orientacyjnej (Ponser i Petersen, 1990; Wronka, 2004). Obie struktury biorą udział w kierowaniu uwagą, stąd ich aktywacja nie musi być związana z przesyłaniem informacji do ciała migdałowatego, lecz może raczej odzwiercielać wpływ ciała mig-dałowatego na funkcjonowanie mechanizmu uwagi, w sytuacji gdy w otoczeniu pojawia się obiekt o dużym znaczeniu afektywnym (Vuilleumier, 2000; Vuilleumier i Schwartz, 2001). W tym miejscu warto zaznaczyć, iż wskazane powyżej niedociągnięcia metodologiczne oraz błędy interpretacyjne pojawiające się w pracy Morrisa nie oznaczają jeszcze, że niemożliwe jest wywołanie aktywacji układu limbicznego w warunkach podprogowej prezentacji ekspresji emocjonalnej. O tym, iż takie zjawisko zachodzi, świadczą przecież wyniki wielu innych badań. Aktywacja ciała migdałowatego w warunkach przetwarzania nieświadomego W eksperymencie grupy Whalena (Whalen i in., 1998) uzyskano dane wskazu-jące na istotnie wyższą aktywację ciała migdałowatego w odpowiedzi na maskowaną wstecznie ekspresję strachu w porównaniu ze zdjęciami przedstawiającymi radość. Wyniki te sugerują możliwość przetwarzania informacji dotyczących emocjonalnego znaczenia twarzy pomimo silnie ograniczonej świadomości ich ekspozycji. Problem komplikuje jednak fakt, iż zanotowana różnica w poziomie pobudzenia wynikała przede wszystkim z odmiennego wzorca reakcji ciała migdałowatego w przypadku strachu i radości. Badanym eksponowano zdjęcia twarzy w dwóch blokach różniących się kolejnością ekspozycji testowanych ekspresji. Zmianę w aktywacji ciała migdałowatego mierzono w porównaniu z pobudzeniem uzyskanym dla momentu prezentacji punktu fiksacji. Jak wynika z opisu wyników tego eksperymentu, w bloku pierwszym zanotowano wzrost pobudzenia ciała migdałowatego dla ekspresji strachu oraz spadek dla ekspresji radości, przy czym pierwsza z wymienionych reakcji była wyraźnie słabsza. W bloku drugim natomiast ponownie uzyskano spadek dla ekspresji radości oraz brak zmiany poziomu pobudzenia dla twarzy wyrażających strach. Jak sami autorzy zauważają, oznacza to, że reakcja ciała migdałowatego w odpowiedzi na prezentacje twarzy wyrażających strach ulegała habituacji, jednakże podobnej zmiany nie obserwowano dla twarzy pozytywnych. Wynik ten wskazuje więc, iż zróżnicowane pobudzenie ciała migdałowatego może być obserwowane także wówczas, gdy badani nie są świadomi eksponowanych ekspresji mimicznych. Ciekawe wyniki uzyskano w innym eksperymencie tej samej grupy (Whalen i in., 2004). Prezentowano w nim podprogowo zdjęcia przedstawiające wyłącznie oczy wyrażające strach lub radość, które były maskowane wstecznie przez twarze neutralne. Bodźce podprogowe uzyskano, zaczerniając całe zdjęcie twarzy wyrażającej strach lub radość, z wyjątkiem białek oczu i źrenicy. Ponadto przygotowano podobne zestawy twarzy w negatywie. Bodźce te, eksponowane przez 17 ms, wywoływały odmienny poziom pobudzenia ciała migdałowatego. Struktura ta była aktywowana silniej w przypadku naturalnej kolorystyki białek oczu wyraża-jących strach w porównaniu z pozostałymi rodzajami bodźców, w tym z oczami prezentującymi stan neutralny w kolorystyce naturalnej oraz z oczami w negatywie prezentującymi obie testowane ekspresje. W przypadku trzech ostatnich rodzajów bodźców obserwowano zresztą porównywalny poziom pobudzenia ciała migdałowatego. Jeśli weźmiemy pod uwagę fakt, iż oczy prezentujące strach są wyraźnie większe w porównaniu z ekspresją radości, na co wskazywali autorzy badania, wówczas możemy uznać, że jednym z mechanizmów umożliwiających bardzo szybkie rozpoznanie wyrazu mimicznego, zachodzące poza świadomością, jest analiza wskaźników wystąpienia określonej ekspresji poprzez analizę pojedynczych elementów twarzy. Taka analiza mogłaby zachodzić bardzo wcześnie w procesie przetwarzania ekspresji emocjonalnej, poprzedzając nawet analizę w obrębie STS, która – jak wykazano wcześniej – rozpoczyna się około 100 ms po prezentacji bodźca. Miejscem, w którym taka wstępna analiza mogłaby zostać przeprowadzona, jest rejon kory potylicznej, być może obszar OFA. W innym badaniu (Liddell i in., 2005) również stwierdzono wyższy poziom aktywacji ciała migdałowatego w odpowiedzi na podprogową ekspozycję ekspresji strachu w porównaniu z twarzami neutralnymi. Co ciekawe, podobny wzorzec uzyskano także dla wielu innych struktur podkorowych, w tym jąder poduszki wzgórza, wzgórków górnych śródmózgowia i miejsca sinawego. Jednocześnie jednak obserwowano zróżnicowanie na poziomie korowym. W tym przypadku szczególnie interesujący jest rezultat uzyskany dla rejonu wokół STS. W innych badaniach uzyskiwano również efekty w obrębie ciała migdałowa-tego dla innych ekspresji. Przykładowo, Killgore i Yurgelun-Todd (2004) opisali różnicę w poziomie aktywacji tej struktury oraz przedniej części zakrętu obręczy, porównując wzorce aktywacji zarejestrowane dla podprogowo eksponowanych twarzy przedstawiających radość i smutek. Wyższy poziom pobudzenia obu części mózgu zanotowano dla ekspresji pozytywnej. Dannlowski z zespołem (2007) zarejestrowali ponadto istotną negatywną korelację między poziomem aktywacji ciała migdałowatego rejestrowanej w odpowiedzi na ekspozycję twarzy wyrażających złość i smutek a oceną afektywną neutralnych bodźców maskujących. Niestety, nie jest jasne, jak zależność ta przedstawiałaby się osobno dla tych ekspresji, gdyż autorzy przedstawili wyłącznie rezultaty analiz łącznych. Ciekawych rezultatów dostarczyła też praca Mary Phillips i jej współpracowników (2004). W badaniu tym prezentowano maskowane wstecznie twarze wyrażające strach i wstręt, stosując dwa czasy ekspozycji bodźców, podprogowy (30 ms) – uniemożliwiający ich świadome spostrzeżenie – oraz ponadprogowy (170 ms) – wywołujący w pełni świadome wrażenia. Oczekiwano, iż ekspresja strachu wywoła wyższy poziom aktywacji ciała migdałowatego w porównaniu ze wstrętem oraz jednocześnie, iż wzorzec dla kory wyspy będzie odwrotny. Wynik taki udało się rzeczywiście zarejestrować dla ponadprogowej ekspozycji. W przypadku prezentacji podprogowej nie stwierdzono istotnego zróżnicowania między testowanymi ekspresjami zarówno dla ciała migdałowatego, jak i kory wyspy. Może to oznaczać, że pobudzenie obserwowane przy bardzo krótkiej prezentacji bodźca jest na tyle słabe, iż nie powoduje pojawienia się specyficznych wzorców aktywacji systemu limbicznego charakterystycznych dla poszczególnych rodzajów stanów afektywnych. Co jednak ciekawe, zarówno dla ekspozycji podprogowej, jak i ponadprogowej uzyskano dane wskazujące na aktywację rejonów wokół STS. Podobny rezultat wskazujący na wpływ do-stępności percepcyjnej bodźca na poziom zróżnicowania aktywacji ciała mig-dałowatego w warunkach maskowania wstecznego został uzyskany w badaniu Pessoa, Japee, Sturmana i Ungerleider (2006). Badacze ci zastosowali zdjęcia ekspresji radości, strachu oraz neutralnej prezentowane przez 33 lub 67 ms. Wykorzystując dane behawioralne, podzielili grupę na osoby, które prawidłowo rozpoznawały ekspresje przy długiej ich prezentacji i losowo odpowiadały przy krótkiej ekspozycji, oraz te, które w obu przypadkach uzyskiwały wyniki wskazujące na prawidłowe rozpoznawanie10. W obu grupach zaobserwowano wyższy poziom pobudzenia zarówno ciała migdałowatego, jak i zakrętu wrzecionowatego dla ekspresji strachu w porównaniu z ekspresją neutralną. Taki sam wynik uzyskano również przy podprogowej ekspozycji dla osób, które równocześnie względnie prawidłowo udzielały odpowiedzi w zadaniu różnicowania tych ekspresji. Podobnego rezultatu nie stwierdzono dla osób, które w tych warunkach odpowiadały losowo. Ponadto zróżnicowanie w odpowiedziach ciała migda-łowatego oraz równoległy efekt dla zakrętu wrzecionowatego zaobserwowano wyłącznie dla prób zakończonych poprawną odpowiedzią. Wyniki te sugerują, iż efekty ekspresji emocjonalnej obserwowane w postaci specyfi cznego pobudzenia struktur układu limbicznego wywołanych podprogową ekspozycją twarzy mogą zależeć w rzeczywistości od efektywności przetwarzania na poziomie kory mózgowej. Jak wskazują autorzy, klasyczne testy świadomości w małym stopniu odzwierciedlają rzeczywisty poziom efektywności przetwarzania, gdyż osoby, które relacjonują brak uświadomienia bodźca, mogą jednocześnie udzielać prawidłowej odpowiedzi (por. także Pessoa, Japee i Ungerleider, 2005). Możliwość przetwarzania ekspresji emocjonalnej poza świadomością testowano także przy wykorzystaniu zjawiska rywalizacji obuocznej (binocular rivalry). W paradygmacie tym prezentowane są odpowiednio „nałożone” na siebie obrazy dwóch obiektów, przy czym dzięki wykorzystaniu odpowiednich fi ltrów w okularach jeden z obiektów jest odbierany przez lewe oko, a drugi przez prawe. W rezultacie wywołuje się pojedyncze wrażenie zmysłowe, opierając się na zjawisku różnicy między okiem dominującym i niedominującym. Obiekt odbierany przez oko dominujące jest percypowany świadomie, podczas gdy obiekt odbierany przez oko niedominujące nie wywołuje świadomego wrażenia, gdyż proces jego powstawania jest blokowany (Blake i Logothetis, 2002; Tong, Nakayama, Vaughan i Kanwisher, 1998; Tong, Ming i Blake, 2006). Wyniki tych badań wskazują, iż ciało migdałowate reaguje z podobną siłą niezależnie od tego, czy ekspresja strachu jest świadomie odbierana, czy też percept jest blokowany w wyniku rywalizacji obuocznej (Williams i in., 2004). Jak sugerują wyniki eksperymentu Pasleya, Mayes i Schultza (2004), zablokowanie perceptu w odniesieniu do ekspresji strachu wywołuje wyższy poziom aktywacji ciała migdałowatego w porównaniu z sytuacją, w której blokowany per-cept dotyczył obiektu neutralnego. Jak wskazują jednak Tong, Ming i Blake (2006), należy pamiętać, iż blokowanie w procedurze rywalizacji obuocznej silnie wpływa na aktywność na poziomie kory pierwszorzędowej oraz w rejonach brzusznych kory potyliczno-skroniowej niemal całkowicie tłumiąc specyficzne reakcje tych części mózgu wywoływane prezentacją określonych bodźców. Jednakże w innych częściach kory wzrokowej efektywność blokowania jest dużo niższa, a w niektórych rejonach można czasem obserwować paradoksalnie wzrost pobudzenia. 10 Należy zwrócić uwagę na to, iż autorzy nie twierdzą, że osoby badane świadomie rozpoznają ekspresję przy krótkiej ekspozycji, lecz raczej pomimo braku świadomego rozpoznania reagują pra-widłowo na poziomie istotnie odbiegającym od losowego. Badania z wykorzystaniem rejestracji ERP Na koniec warto również wspomnieć o nielicznych badaniach wykorzystujących pomiar ERP i koncentrujących się na problemie przetwarzania ekspresji emocjonalnej w warunkach ograniczonej świadomości ich prezentacji. W badaniach tych również jest stosowany paradygmat maskowania wstecznego. Przykładem takiego badania może być eksperyment przeprowadzony przez grupę Belindy Liddell (Liddell i in., 2004), w którym eksponowano twarze z ekspresją strachu lub neutralne przez 10 lub 170 ms, po czym były one maskowane przez zdjęcie neutralnej twarzy innej osoby prezentowanej przez kolejne 100 ms. Wyniki uzyskane przez tych badaczy sugerują, iż nawet warunkach podprogowej prezentacji twarzy możliwe jest zarejestrowanie specyficznej zmiany w przebiegu potencjałów ERP, związanej z procesem różnicowania poza świadomością mimiki emocjonalnej, która ma postać pogłębionego ujemnego komponentu N2. Zjawisko to rejestrowane jest około 200–300 ms po bodźcu w okolicach czołowo-centralnych. Podobny wynik został zarejestrowany przez Balconi i Lucchiariego (2007), którzy także zanotowali wyższą amplitudę ujemnego komponentu N2 w odpowiedzi na prezentację twarzy emocjonalnych w porównaniu z neutralnymi. W swoim eksperymencie prezentowali oni twarze przedstawiające strach, radość, smutek, złość oraz stan neutralny przez 10 ms. Wyniki sugerują, iż w przypadku wszystkich testowanych wzorców mimicznych efekt ekspresji emocjonalnej ma podobny charakter. Jednakże wątpliwości w przypadku tego badania budzi fakt, iż autorzy nie wspominają nic o maskowaniu eksponowanych twarzy. Tym samym istnieje możliwość, że w rzeczywistości bodźce były w mniejszym lub większym stopniu przetwarzane świadomie. Problem charakterystyki przetwarzania ekspresji mimicznej w warunkach ograniczających jej świadomą percepcję podjęli w swoim eksperymencie również Eimer, Kiss i Holmes (2008). Prezentowali oni twarze wyrażające strach oraz twarze neutralne przez 17, 50 lub 200 ms, umożliwiając w ten sposób porównanie efektów ekspresji emocjonalnej w trzech różnych warunkach odnoszących się do podprogowej, okołoprogowej oraz ponadprogowej percepcji mimiki emocjonalnej. W każdym z warunków twarze były maskowane za pomocą zdjęcia neutralnej twarzy innej osoby eksponowanego przez 150 ms. Warto także wspomnieć, iż osoby badane były informowane przed eksperymentem o charakterystyce eksponowanych im bodźców, a zadanie polegało na różnicowaniu maskowanych wstecznie ekspresji. Wyniki sugerują, iż w warunkach ponadprogowej ekspozycji bodźca (200 ms) ekspresja emocjonalna wywołuje dwa specyficzne efekty. Pierwszym jest dodatkowa dodatnia fala rejestrowana w okolicach czołowo-centralnych w przypadku twarzy przedstawiających strach w porównaniu z twarzami neutralnymi (komponent AP). Zróżnicowanie to pojawiało się około 130–160 ms po bodźcu i było obserwowane przez kolejne kilkaset milisekund. Drugi to dodatkowa fala ujemna uzyskiwana między 200 a 350 ms po bodźcu w odpowiedzi na prezentację twarzy emocjonalnych w porównaniu z neutralnymi (komponent EPN). W tym przypadku efekt jest notowany w okolicach potylicznych. W wyniku prezentacji okołoprogowej uzyskano podobne zróżnicowanie, lecz tylko w przypadku poprawnie rozpoznanych twarzy wyrażających strach. Zarówno charakterystyka czasowa, jak i lokalizacja efektów były porównywalne dla tego warunku i prezentacji ponadprogowej. Co ciekawe, także dla podprogowej ekspozycji twarzy przedstawiających strach udało się zanotować podobne rezultaty, choć różnice były zdecydowanie mniejsze. Niemniej twarze z ekspresją strachu, które zostały poprawnie zidentyfikowane, generowały równocześnie oba opisane powyżej komponenty. Ci sami badacze opublikowali w tym samym roku jeszcze jeden raport z podobnego eksperymentu (Kiss i Eimer, 2008). Stosując ponownie twarze z ekspresją strachu oraz neutralne, prezentowali je przez 8 lub 200 ms i maskowali za pomocą zniekształconego komputerowo zdjęcia twarzy. Osoby badane ponownie proszono o różnicowanie prezentowanych im ekspresji. W przypadku ponadprogowej ekspozycji twarzy zanotowano ponownie charakterystyczną dodatnią falę w odpowiedzi na ekspresję strachu w porównaniu z neutralną (komponent AP). Efekt pojawiał się w okolicach czołowych około 140 ms po bodźcu. Dla podprogowej ekspozycji uzyskano podobną, lecz wysoce zredukowaną różnicę, widoczną między 140–180 ms po bodźcu. Jednakże w tej sytuacji zanotowano także silniej wyrażony w przypadku ekspresji strachu komponent N2 pojawiający się około 200 ms po bodźcu. Efektu tego nie zanotowano dla długiej ekspozycji twarzy. Ponownie więc zanotowano wynik sugerujący, iż pomimo braku świadomego perceptu prezentowanych bodźców można zaobserwować specyficzne zróżnicowanie w przebiegu aktywności mózgu wywołanej przez podprogowo eksponowane twarze. W innym badaniu Pegna, Landis i Khateb (2008) skoncentrowali się na charakterystycznym dla przetwarzania twarzy komponencie N170. Twarze przedstawiające ekspresję radości, strachu i stan neutralny prezentowano podprogowo (16 i 33 ms), okołoprogowo (66 ms) oraz ponadprogowo (133 i 266 ms) i maskowano za pomocą zdjęcia twarzy neutralnej. Użyte fotografie zostały odpowiednio spreparowane komputerowo tak, aby uwydatnić charakterystyczne elementy, takie jak oczy, brwi, nos i usta. Zadaniem osób badanych było określenie, czy eksponowana twarz prezentowała strach, czy też nie. Wyniki sugerują, iż niezależnie od długości prezentacji twarze z ekspresją strachu wywoływały silniej wyrażony komponent N170 w porównaniu z twarzami neutralnymi i przedstawiającymi radość. Zróżnicowanie to było widoczne przede wszystkim w prawej półkuli mózgu. Podsumowując przedstawiony powyżej krótki przegląd badań dotyczących problemu przetwarzania ekspresji emocjonalnej poza świadomością, należy stwierdzić, że uzyskiwane rezultaty wskazują na możliwość rejestracji specyfi cz-nych wzorców aktywności mózgu świadczących o tym, iż nawet jeśli bodziec nie jest odbierany świadomie, jego analiza zachodzi w sposób mniej lub bardziej nie-zakłócony w systemie nerwowym. Na tej podstawie można więc wnioskować, iż udział procesów świadomych nie jest niezbędny, aby układ nerwowy mógł rozróżniać znaczenie emocjonalnych sygnałów mimicznych. Oznacza to także możliwość wywoływania specyficznych procesów motywacyjnych oraz wpływania na zachowanie pomimo braku świadomości przyczyny zmian zachodzących w systemie. Nie jest jednak jasne, do jakiego stopnia procesy odbioru ekspresji emocjonalnej zachodzące bez udziału świadomości mają podobną charakterystykę w porównaniu z wzorcami przetwarzania mimiki emocjonalnej w sposób uświadomiony. Badania z wykorzystaniem ERP sugerują, iż siła efektów rejestrowanych w czasie przetwarzania z udziałem i bez udziału świadomości jest istotnie różna. Warto jednak zwrócić uwagę, że w tych samych badaniach zadanie wykonywane przez uczestników eksperymentu polegało na różnicowaniu ekspresji emocjonalnej, co oznacza, iż system uwagowy był nakierowany na wykrywanie charakterystycznych dla sygnałów mimicznych zmian na twarzy. Tym samym przyczyną wielu rezultatów uzyskiwanych w tych badaniach może być paradoksalnie wpływ uwagi o charakterze dowolnym. Poprzez modulację działania systemu percepcyjnego mechanizm uwagi może zwiększyć możliwość wykrycia charakterystycznych wzorców percepcyjnych. Istnieje więc możliwość, że rzeczywistym źródłem wyników obserwowanych w niektórych badaniach jest zaangażowanie uwagi w przetwarzanie twarzy. Pomimo jednak nasuwających się wątpliwości, do-tyczących interpretacji uzyskiwanych wyników, można również stwierdzić, że rejestracja potencjałów ERP może stanowić bardzo użyteczne narzędzie badawcze umożliwiające lepsze poznanie procesów przetwarzania ekspresji emocjonalnej o charakterze mimowolnym. 5.4. Jak uwaga wpływa na przetwarzanie ekspresji emocjonalnej? Jedną z charakterystyk przetwarzania ekspresji emocjonalnej postulowaną przez wielu badaczy jest automatyczność tego procesu (LeDoux, 2000, LeDoux i Phelps, 2005; Öhman, 2002; Ohme, 2003; Ohme, Augustynowicz i Kukliński, 2001). Twierdzi się więc, że ekspresja emocjonalna może być rozpoznawana mimowolnie, nieintencjonalnie, przeduwagowo11. Rozumiane to jest w kategoriach niezależności rozpoznawania wyrazu mimicznego od wpływu mechanizmu uwagi. Hipoteza sugerująca taką możliwość jest oparta w dużej mierze na wynikach ba 11 Terminologia stosowana przez poszczególnych badaczy jest bardzo zróżnicowana. Problematyczne jest szczególnie nazywanie przetwarzania ekspresji procesem przeduwagowym. Sugeruje to bowiem, że identyfikacja mimiki twarzy może zachodzić na etapie, na którym uwaga nie wpływa jeszcze na procesy przetwarzania informacji. Jest to całkowicie niezgodne ze współczesną wiedzą o działaniu mechanizmu uwagi, którego oddziaływanie obserwuje się na bardzo wczesnych etapach przesyłania impulsów nerwowych z poziomu receptorów do układów je analizujących. Stąd autor pracy postanowił wykorzystywać w kolejnych częściach wyłącznie określenia mimowolny lub nieintencjonalny. dań wykorzystujących paradygmat poprzedzania (Ohme, Pochwatko i Błaszczak, 1999; Ohme, Kukliński i Sweklej, 2001). W tego rodzaju badaniach zazwyczaj nie manipuluje się ukierunkowaniem uwagi oraz stopniem jej zaangażowania w wykonywanie zadania. Stwierdzenie stopnia, w jakim uwaga może modulować proces identyfi kacji ekspresji emocjonalnej, jest możliwe wyłącznie poprzez porównanie wzorców reagowania lub aktywności mózgu w warunkach, gdy uwaga jest oraz nie jest uwikłana w przetwarzanie ekspresji. W badaniach wykorzystujących rejestrację aktywności układu nerwowego zakłada się, że w przypadku gdy uwaga jest oraz nie jest związana z rozpoznawaniem ekspresji mimicznej, mamy do czynienia z podobnym zróżnicowaniem reakcji mózgu, to wówczas przetwarzanie ekspresji emocjonalnej ma charakter w pełni mimowolny. W sytuacji gdy efekty ekspresji emocjonalnej uzyskiwane w obu warunkach różnią się istotnie, wówczas można stwierdzić, że różnicowanie emocjonalnych sygnałów mimicznych jest częściowo mimowolne. Jeśli jednak różnice w przetwarzaniu twarzy neutralnych oraz wyrażających emocje rejestrowane są tylko wtedy, gdy ich różnicowanie ma charakter kontrolowany, wówczas oznacza to, iż ekspresja emocjonalna nie jest przetwarzana mimowolnie. W przypadku bodźców o tak dużym znaczeniu jak twarze, można oczekiwać, że ich przetwarzanie ma charakter mimowolny. Wskazują na taką możliwość wyniki obserwacji chorych z uszkodzeniami prawej okolicy ciemieniowej, u których obserwowano klasyczne objawy pomijania stronnego (unilateral neglect). W zaburzeniu tym pacjent ma duże problemy z detekcją obiektów prezentowanych w jego lewym polu widzenia. Szczegółowy opis tego zaburzenia można znaleźć w pracy Domańskiej (2004). Jak jednak wskazują badania Vuilleumier (2000), zjawisko to jest dużo mniej wyraźne w przypadku twarzy w porównaniu z innymi bodźcami. Ponadto twarze wyrażające specyficzne stany emocjonalne, takie jak radość, strach lub złość, pacjenci zauważają w części przestrzeni dotkniętej zaburzeniem dużo łatwiej niż twarze neutralne (Vuilleumier i Schwartz, 2001). 5.4.1. Wpływ uwagi na przetwarzanie ekspresji emocjonalnej – badania wykorzystujące techniki neuroobrazowania Wydaje się jednak, że procesy przetwarzania twarzy nie są w pełni niezależne od działania mechanizmu uwagi. W wielu badaniach obserwowano bowiem, iż pobudzenie rejestrowane w FFA może być modulowane przez poziom zaangażo-wania uwagi (Ishai i in., 1999; McCarthy, 2000; O’Craven, Downing i Kanwisher, 1999; Wojciulik, Kanwisher i Driver, 1998). Podobnie jest w przypadku komponentów N170 oraz M170, które uzyskują wyższe amplitudy w odpowiedzi na twarze wymagające przetwarzania z udziałem uwagi w porównaniu z tymi samymi bodźcami, gdy są ignorowane (Downing, Liu i Kanwisher, 2001; Eimer, 2000d, Holmes, Vuilleumier i Eimer, 2003). Jeśli zaś chodzi o wpływ uwagi na proces przetwarzania ekspresji emocjonalnej, badacze koncentrują się nie tylko na ośrodkach mózgowych wyspecjalizowanych w analizie twarzy, takich jak FFA, ale obserwowana jest jednocześnie aktywność innych struktur biorących udział w ocenie znaczenia afektywnego twarzy, jak ciało migdałowate. Dzięki temu możliwe jest stwierdzenie, czy uwaga wywiera porównywalny wpływ na poziom aktywności obu struktur oraz ewentualnie określenie, jaki charakter ma modulacja uwagowa, gdy obserwowane zmiany mają odmienny charakter. Eksperyment Patrika Vuilleumiera i jego współpracowników (2001) Takie ujęcie zastosowali w swoim eksperymencie Vuilleumier, Armony, Driver i Dolan (2001), wykorzystując pomiar fMRI. Bodźce były eksponowane w taki sposób, że dwa z nich zajmowały miejsca poniżej i powyżej punktu fi ksacji, natomiast dwa dalsze były pokazywane po lewej i po prawej stronie ekranu. Prezentowali oni osobom badanym zdjęcia twarzy przedstawiających ekspresję neutralną lub ekspresję strachu oraz zdjęcia domów, przy czym jeśli dwa zdjęcia domów pojawiały się w układzie pionowym (powyżej i poniżej punktu fiksacji), to zdjęcia twarzy eksponowane były w układzie poziomym (po lewej i po prawej stronie). Położenie obu kategorii bodźców było losowo zmieniane w kolejnych próbach. Zadaniem badanych było porównywanie podobieństwa dwóch bodźców tej samej kategorii, przy czym w kolejnych próbach mogły one być dobierane losowo, a pozycję porównywanych zdjęć wyznaczała wcześniej prezentowana wskazówka. W ten sposób twarze neutralne oraz wyrażające strach mogły być w kolejnych próbach zarówno bodźcem, na który skierowana była uwaga, jak i bodźcem nieistotnym. Uzyskane wyniki sugerują, iż uwaga w sposób istotny moduluje aktywność w zakręcie wrzecionowatym, gdzie umiejscowione jest FFA, gdyż poziom pobudzenia tej struktury w sytuacji, gdy istotnym bodźcem były twarze, okazał się wyższy w porównaniu z próbami wymagającymi porównywania domów. Odwrotny wzorzec stwierdzono dla zakrętu przyhipokampalnego związanego z przetwarzaniem obiektów i miejsc (por. także rozdział 2). Co ważne, efekt modulacji uwagowej obserwowano dla obu rodzajów prezentowanej na zdjęciach ekspresji, co sugeruje, iż uwaga może istotnie wpływać na przetwarzanie zarówno twarzy neutralnych, jak i wyrażających konkretne emocje. Z kolei jednak uzyskano wyższe wskaźniki pobudzenia dla twarzy przedstawiających strach w porównaniu z neutralnymi. W tym przypadku rezultat był obserwowany niezależnie od tego, czy twarze były istotnym, czy nieistotnym bodźcem dla wykonywanego zadania. Jak sugerują autorzy, te dwa niezależne efekty mogą wskazywać na istnienie dwóch niezależnych mechanizmów modulujących aktywność kory wzrokowej. Jeden z nich, związany z poziomem zaangażowania uwagi, miałby swe źródło w aktywności systemu uwagowego ulokowanego w płacie czołowym i ciemieniowym (Corbetta i in., 1995; 1998; Posner i Petersen, 1990; por. także Wronka, 2004). Drugi natomiast można wiązać z aktywnością ciała migdałowatego, które – jak wskazuje wiele badań – ma możliwość wpływania na poziom pobudzenia systemów percepcyjnych (Sugase i in., 1999). Ponadto stwierdzono, że samo cia-ło migdałowate wykazywało istotnie wyższy poziom aktywności dla twarzy wy-rażających strach w porównaniu z ekspresją neutralną. Co ważne, efekt ten był widoczny w obu warunkach różniących się zaangażowaniem uwagi. Co więcej, w przypadku tej struktury stwierdzono brak wpływu uwagi. Według autorów wynik taki oznacza, iż ocena ekspresji emocjonalnej dokonywana przez ciało migda-łowate zachodzi relatywnie niezależnie od zmian w ukierunkowaniu uwagi. Tym samym struktura ta może być źródłem modulacji obserwowanej na poziomie kory wzrokowej, która ma charakter równoległy do wpływu wywieranego przez uwagę dowolną. Jak sugerują Vuilleumier i jego współpracownicy, taki mechanizm umożliwia priorytetowe przetwarzanie bodźców o dużym znaczeniu emocjonalnym, wpływając odgórnie na procesy zachodzące w systemach percepcyjnych równolegle do oddziaływań systemu czołowo-ciemieniowego. Wydaje się jednak, że interpretacja taka byłaby trafna, gdyby nie kilka niejas-ności w wynikach samego eksperymentu. Po pierwsze, związana z ekspresją emocjonalną różnica w poziomie pobudzenia ciała migdałowatego była obserwowana wyłącznie dla lewej półkuli mózgu, podczas gdy efekt tego samego czynnika dla zakrętu wrzecionowatego uzyskano tylko dla półkuli prawej. Oznacza to, iż te dwa efekty są niezależne i nie mogą one stanowić podstawy dla sugestii, że to właśnie ciało migdałowate jest źródłem związanej z ekspresją emocjonalną modulacji w FFA. Jeśli byłoby tak, jak wnioskują autorzy, wówczas należałoby oczekiwać efektu ekspresji emocjonalnej także w FFA w lewej półkuli. Po drugie, efekty interakcyjne zanotowane dla FFA okazały się różne dla lewej i prawej półkuli. Wyniki sugerują niezależny wpływ uwagi i ekspresji emocjonalnej na aktywność tej struktury w prawej półkuli. W przypadku FFA w półkuli lewej uzyskano istotny wpływ uwagi, podczas gdy efekt ekspresji emocjonalnej był ograniczony do sytuacji, w której badani porównywali twarze. Oznacza to, iż niezależne efekty uwagi oraz ekspresji emocjonalnej uzyskano dla tej samej półkuli, której ciało migda-łowate nie wykazywało wrażliwości na samą ekspresję. Natomiast w przypadku lewej połowy mózgu, gdzie ciało migdałowate było istotnie różnie aktywowane przez twarze neutralne i wyrażające strach, efekt ekspresji emocjonalnej w FFA był obecny tylko wówczas, gdy badani różnicowali twarze. Eksperyment Luiza Pessoa i jego współpracowników (2002) Wyniki uzyskane w opisanym powyżej badaniu oraz ich interpretacja zostały podane w wątpliwość przez Luiza Pessoa, który wraz ze swoimi współpracownikami (Pessoa, McKenna, Gutierrez i Ungerleider, 2002) przeprowadził podobny eksperyment, stosując jednak odmienną procedurę. W badaniu tym twarze wyrażające radość, strach lub stan neutralny były eksponowane w centralnej części pola widzenia. Równocześnie w dwóch górnych rogach ekranu pokazywano również dwie linie o różnym nachyleniu. Zadaniem osoby badanej było określenie płci osoby przedstawionej na zdjęciu lub porównanie orientacji linii. Wyniki tego badania wskazują na silny efekt ekspresji emocjonalnej uzyskany dla ciała mig-dałowatego oraz zakrętu wrzecionowatego. Pobudzenie w tych strukturach było wyższe dla twarzy emocjonalnych w porównaniu z neutralnymi. Warto również zauważyć, że w przypadku ciała migdałowatego w lewej półkuli reakcja na twarze wyrażające strach i radość była porównywalna, natomiast w prawej półkuli ta sama struktura była istotnie silniej aktywowana w odpowiedzi na twarze prezentujące strach w porównaniu z radością. W przypadku FFA zaobserwowano istotnie wyższą aktywację dla twarzy przedstawiających strach w porównaniu z pozostałymi rodzajami ekspresji. Ponadto wyraźny efekt ekspresji uzyskano także dla okolicy STS w prawej półkuli. Porównując wzorce pobudzenia w różnych warunkach, stwierdzono silny efekt poziomu zaangażowania uwagi w odniesieniu do wszystkich wymienionych struktur mózgu. Co więcej, we wszystkich przypadkach uzyskano także istotny efekt interakcji obu czynników. Innymi słowy, efekt ekspresji był obserwowany wyłącznie wtedy, gdy osoby badane kierowały swą uwagę na twarze, i zanikał, gdy porównywały one orientację linii. Taki wynik zanotowano dla ciała migdałowatego, zakrętu wrzecionowatego, rejonu wokół STS oraz brzuszno-przyśrodkowej kory czołowej. Jak twierdzą autorzy, rezultaty ich eksperymentu świadczą wyraźnie, iż przetwarzanie ekspresji emocjonalnej wymaga zaangażowania uwagi i tym samym nie może przebiegać automatycznie. Stoi to w sprzeczności z wynikami uzyskanymi przez Vuilleumiera i jego grupę. Jak jednak sugeruje Pessoa, przyczyną różnic może być różna trudność zadania wykonywanego przez osoby badane w obu wspomnianych eksperymentach, i co za tym idzie, różny poziom zasobów uwagi, które nie będąc wykorzystywane w trakcie przetwarzania kontrolowanego, mogły być mimowolnie zużytkowane do dekodowania sygnałów mimicznych. Wskazywać ma na to różny poziom poprawności wykonania zadań w obu eksperymentach, jak również wskaźniki szybkości reagowania. Eksperyment Adama Andersona i jego współpracowników (2003) Jeszcze inny wzorzec wyników uzyskali Anderson i jego grupa (Anderson i in., 2003). W swoim eksperymencie prezentowali w centralnej części pola widzenia obraz powstały z nałożenia zdjęcia twarzy oraz zdjęcia budynków lub pomieszczeń. Zadaniem osoby badanej w losowo dobranych próbach było różnicowanie płci osoby na zdjęciu lub określenie, czy na zdjęciu przedstawiono pomieszczenie wewnątrz budynku czy budynek widziany z zewnątrz. Poprzez wykorzystanie ekspresji strachu oraz wstrętu i porównanie wzorców aktywacji uzyskanych dla tych ekspresji z ekspresją neutralną autorzy zamierzali określić zarówno charakterystykę wpływów wywieranych przez mechanizm przetwarzania ekspresji emocjonalnej oraz mechanizm uwagi, jak i ewentualne różnice lub podobieństwa w odniesieniu do ciała migdałowatego i kory wyspy. Uzyskane wyniki sugerują, iż efekt ekspresji emocjonalnej jest w różny sposób modyfikowany przez uwagę dowolną w zależności od typu ekspresji i testowanej struktury mózgu. W przypadku ciała migdałowatego zanotowano wyższy poziom aktywacji dla ekspresji strachu w porównaniu z ekspresją neutralną. Co ważne, wielkość tego zróżnicowania była porównywalna w obu warunkach różniących się ukierunkowaniem przetwarzania bodźca. Oznaczałoby to, iż przetwarzanie ekspresji emocjonalnej nie wymaga zaangażowania uwagi i tym samym może przebiegać niemal automatycznie. W przypadku jednak kory wyspy uzyskano wynik sugerujący, że uwaga jest uwikłana w analizę wyrazu mimicznego. W przypadku kory wyspy obserwowano wyższą aktywację w odpowiedzi na prezentacje twarzy wyrażającej wstręt w porównaniu z twarzami neutralnymi. Wielkość tego efektu była jednak wyraźnie większa, gdy twarze stanowiły bodziec, na który należało reagować. Gdy zadaniem osoby badanej była ocena zdjęcia budynku lub pomieszczeń, wówczas zanotowano spadek o ponad połowę aktywacji kory wyspowej wywołanej ekspresją wstrętu. Co ciekawe, reakcja tej struktury na twarze neutralne była podobna w obu sytuacjach. Rezultaty te sugerują więc zgoła odmienny wzorzec interakcji między procesami uwagi i analizy ekspresji emocjonalnej w odniesieniu do sygnałów mimicznych strachu i wstrętu. Dodatkowo obraz komplikuje wynik obserwowany dla ciała migdałowatego uzyskany w przypadku ekspresji wstrętu. W sytuacji wymagającej oceny płci twarzy zarejestrowano porównywalną dla wstrętu i ekspresji neutralnej aktywację tej struktury. Jednakże gdy uwaga była zaangażowana w ocenę budynków, okazało się, że pobudzenie ciała migdałowatego w odpowiedzi na twarze przedstawiające wstręt wzrosło tak znacznie, iż było wyższe nawet w porównaniu z ekspresją strachu. Natomiast w przypadku kory wyspowej podczas oceny płci twarzy wyraźnie najwyższe wskaźniki pobudzenia rejestrowano dla wstrętu, pośrednie dla strachu i najniższe dla ekspresji neutralnej. Jednak gdy uwaga nakierowana była na przetwarzanie budynków, wówczas pobudzenie dla strachu i wstrętu w obrębie tej samej struktury zrównało się, lecz wciąż było wyższe niż notowane dla twarzy neutralnych. Biorąc więc pod uwagę wszystkie wyniki uzyskane w tym badaniu, trudno o jednoznaczną konkluzję. Z jednej strony bowiem sugerują one w pełni automatyczne przetwarzanie strachu w obrębie ciała migdałowatego, z drugiej wskazują na wpływ uwagi na procesy odbioru sygnałów mimicznych wstrętu w przypadku kory wyspy. Ponadto niespecyficzne reakcje ciała migdałowatego obserwowane dla wstrętu wydają się jeszcze trudniejsze do interpretacji. Warto jednak zauwa-żyć, że w badaniu tym prezentowano twarze oraz obiekty, które twarzami nie są, w tej samej lokalizacji, podczas gdy w poprzednich badaniach (Pessoa oraz Vuilleumier) manipulowano uwagą w przestrzeni poprzez umieszczenie różnych rodzajów bodźców w różnych częściach pola widzenia. Oznacza to, iż w badaniach tych mieliśmy do czynienia z odmiennym wzorcem wpływu mechanizmu uwagi. Elektrofizjologiczne korelaty wpływu uwagi mają odmienny charakter wówczas, gdy manipulujemy nią w przestrzeni, oraz wtedy, gdy manipulacja dotyczy różnych charakterystyk tego samego bodźca przetwarzanego odmiennie w różnych warunkach eksperymentalnych (Hillyard i Anllo-Vento, 1998; Hillyard, Vogel i Luck, 1998; Munneke, Heslenfeld i Theeuwes, 2008; Bestmann i in., 2007; Duncan, 2006). Ponadto można oczekiwać, iż ze względu na znaczenie, jakie twarz ma w odniesieniu do funkcjonowania społecznego, bodziec ten, niezależnie zresztą od prezentowanej ekspresji mimicznej, silniej angażuje system poznawczy w porównaniu ze zdjęciami budynków lub pomieszczeń. Z tego względu w bodźcu spreparowanym poprzez nałożenie na siebie zdjęć twarzy i budynków łatwiej rozpoznać twarz i prawdopodobnie silniej angażuje ona, zupełnie mimowolnie, dostępne zasoby uwagi. Innymi słowy, całkiem możliwe jest, że w sytuacji, w której od osób badanych wymagano oceny zdjęć budynków, zdjęcia twarzy w sposób zupełnie mimowolny angażowały uwagę i tym samym uzyskanie wyniku sugerującego jej wpływ na proces przetwarzania ekspresji był niemożliwy. Jeśli do tego weźmie-my pod uwagę, że większość badaczy zgodziłaby się z tezą, iż twarz wyrażająca strach silniej mimowolnie angażuje system poznawczy w porównaniu ze wstrętem, wówczas możemy wyjaśnić uzyskane w badaniu rezultaty, nie odwołując się do hipotezy mówiącej, iż ekspresja emocjonalna jest przetwarzana automatycznie. W eksperymencie przeprowadzonym przez Andersona i jego grupę efekt ekspresji emocjonalnej obserwowany w sytuacji wymagającej oceny twarzy wynikał z dowolnego zaangażowania mechanizmu uwagi w przetwarzanie ekspresji emocjonalnej, w sytuacji zaś gdy osoby badane oceniały budynki lub pomieszczenia, uwaga była mimowolnie angażowana przez prezentowane twarze i stąd obecny również wtedy efekt ekspresji mimicznej, wyraźniejszy dla strachu w porównaniu ze wstrętem. Jednak taka interpretacja wyników pozostaje wyłącznie spekulacją. Eksperyment Laetitii Silvert i jej współpracowników (2007) Wydaje się jednak, że jeśli manipulacja zasobami uwagi jest wystarczająco intensywna, to efekt ekspresji emocjonalnej może być nieobecny. Świadczą o tym wyniki badania przeprowadzonego przez Silvert i jej współpracowników (Silvert i in., 2007), w którym wykorzystano procedurę zbliżoną do stosowanej wcześniej przez grupę Vuilleumiera. Osobom badanym prezentowano jednocześnie dwa zdjęcia domów i dwa zdjęcia twarzy (neutralnych i wyrażających strach) w czterech rogach ekranu, przy czym wszystkie zdjęcia były lekko przechylone w jedną ze stron. Zadaniem uczestników eksperymentu była ocena przechylenia zdjęć przedstawiających domy lub twarze w warunku łatwiejszym lub ocena podobieństwa domów lub twarzy w warunku trudniejszym. Stąd uwaga była angażowana w przetwarzanie dwóch kategorii bodźców w dwóch sytuacjach różniących się poziomem trudności, a co za tym idzie obciążeniem poznawczym i wielkością zasobów uwagi wykorzystywanych do wykonania zadania. Wyniki behawioralne potwierdziły, iż zadanie polegające na ocenie podobieństwa było istotnie trudniejsze. Zaobserwowano również wyraźny efekt ukierunkowania uwagi zarówno w przypadku zakrętu wrzecionowatego, jak i dla rejonu wokół STS. Aktywacja w tych rejonach była wyższa w przypadku oceny twarzy w porównaniu z domami. Odwrotny kierunek zależności zarejestrowano dla zakrętu przyhipokampalnego. Zróżnicowanie to było silniejsze dla trudniejszego zadania, co dodatkowo potwierdziło skuteczność manipulacji wielkością alokowanych w zadanie zasobów uwagi. W przypadku ciała migdałowatego uzyskano wyższą aktywację dla twarzy wy-rażających strach w porównaniu z neutralnymi w zadaniu łatwym, gdy uwaga była skierowana na twarze. Podobny wynik uzyskano także w sytuacji, gdy dokonywano oceny domów, jednakże wówczas siła pobudzenia dla twarzy emocjonalnych była równa sile pobudzenia dla twarzy neutralnych w warunku wymagającym oceny twarzy. Oznacza to też, iż uzyskano wyraźny efekt wpływu uwagi dla tej struktury. Jeszcze wyraźniejszy był on dla trudniejszego zadania, gdzie efekt ekspresji emocjonalnej był obserwowany wyłącznie wówczas, gdy uwaga była skierowana na twarze i zupełnie niewidoczny, gdy ocenie podlegały zdjęcia domów. Co więcej, obserwowany w trudniejszym zadaniu efekt ekspresji był wyraźnie silniejszy w porównaniu z zadaniem łatwym, więc zanotowano także wpływ trudności zadania i wiele efektów interakcyjnych. Autorzy badania, wnioskując na podstawie uzyskanych wyników, stwierdzili, iż przetwarzanie ekspresji emocjonalnej wymaga zaangażowania uwagi w ten proces, a im więcej zasobów uwagi wykorzystamy podczas oceny ekspresji, tym silniejsze zróżnicowanie aktywacji struktur układu limbicznego, co oznacza pewniejszą ocenę znaczenia afektywnego spostrzeganego bodźca. Eksperyment Thomasa Straube i jego współpracowników (2004) Warto na koniec wspomnieć także badania wykorzystujące inne rodzaje manipulacji uwagą. W eksperymencie przeprowadzonym przez Th omasa Straube i współpracowników (Straube i in., 2004) w centralnej części prezentowano zdjęcia twarzy wyrażających złość i ekspresję neutralną oraz schematyczne rysunki twarzy przedstawiające te same stany emocjonalne. Zadaniem uczestników w jednym z warunków było określenie, czy prezentowany bodziec był zdjęciem realnej twarzy, czy tylko jej schematycznym przedstawieniem, podczas gdy w drugim dokonywali oceny ekspresji emocjonalnej. W ten sposób kierowano uwagę na podstawowe fizyczne charakterystyki bodźców lub angażowano w analizę mimiki emocjonalnej. Co ważne, w badaniu brały udział dwie grupy osób, o wysokim i niskim poziomie fobii społecznej. Gdy zadaniem badanych była ocena ekspresji emocjonalnej, w obu badanych grupach zanotowano istotnie wyższy poziom aktywacji wielu struktur mózgu w odpowiedzi na zdjęcia twarzy prezentujących złość w porównaniu z neutralnymi. Dotyczyło to rejonów kory wzrokowej, takich jak zakręt wrzecionowaty, rejon STS oraz, co zaskakujące, zakrętu przyhipokampalnego. Ponadto efekt ekspresji obserwowano dla ciała migdałowatego, kory wyspy oraz rejonów grzbietowo-przyśrodkowej kory czołowej, zlokalizowanej w bliskości zakrętu obręczy. Odmienny wzorzec aktywacji związanej z różnicowaniem ekspresji emocjonalnej uzyskano dla zadania wymagającego oceny fizycznych cech bodźca (twarz vs schemat twarzy). W tym przypadku dla grupy osób z wysokim poziomem fobii społecznej uzyskano niemal identyczne rezultaty w odniesieniu do kory wzrokowej (FFA, STS i PPA) oraz ciała migdałowatego i kory wyspy, jak w przypadku zadania oceny ekspresji mimicznej. Brak efektu zanotowano jednak dla kory czo-łowej. Natomiast wśród osób wykazujących niski poziom fobii społecznej efekt ekspresji emocjonalnej w tym zadaniu ograniczony był wyłącznie do części kory wzrokowej (FFA, STS i PPA). Oznacza to, iż charakterystyczne cechy indywidualne osób badanych mogą w istotny sposób modyfikować obserwowane wzorce różnic w aktywności mózgu wywołanej przez twarze wyrażające różne stany emocjonalne. Ponadto rezultaty te sugerują, że w niektórych sytuacjach obszary kory wzrokowej mogą być dużo wrażliwsze na różnice w sygnałach mimicznych w porównaniu ze strukturami podkorowymi. Podsumowanie Przedstawione w tej części pracy wyniki badań z wykorzystaniem technik neuro-obrazowania dotyczących problemu wpływu uwagi na przetwarzanie ekspresji emocjonalnej nie pozwalają na postawienie jednoznacznych wniosków. Co prawda, wpływ uwagi obserwuje się konsekwentnie w odniesieniu do ośrodków korowych wyspecjalizowanych w analizie twarzy (np. FFA lub STS), jednak mniej jasne są rezultaty uzyskiwane dla podkorowych części układu limbicznego (ciało migdałowate). W przypadku więc procesów przetwarzania twarzy emocjonalnych, zachodzących w obrębie kory wzrokowej, możemy uznać, że proces ten nie jest automatyczny i wymaga zaangażowania zasobów uwagi. W koncepcji zakładającej automatyczność przetwarzania ekspresji mimicznej sugerowano jednak raczej, iż proces o takim charakterze angażuje struktury podkorowe, takie jak ciało migdałowate lub kora wyspy. W odniesieniu do tych struktur możliwe jest zarówno uzyskanie wyników świadczących o silnym wpływie mechanizmu uwagi na ich aktywność w trakcie analizy komunikatów mimicznych (Pessoa, McKenna, Gutierrez i Ungerleider, 2002; Silvert i in., 2007; Straube i in., 2004), jak i sugeru-jące, w mniejszym lub większym stopniu, brak takiego oddziaływania (Anderson i in., 2003; Vuilleumier, Armony, Driver i Dolan, 2001). Trudno więc jednoznacznie stwierdzić, czy i w jakim stopniu różnicowanie ekspresji emocjonalnej na poziomie podkorowym jest uzależnione od funkcjonowania mechanizmu uwagowego. Tym samym problem automatyczności przetwarzania ekspresji emocjonalnej w tym zakresie pozostaje nierozstrzygnięty. Jednak należy równocześnie zauważyć, że techniki neuroobrazowania charakteryzują się słabą rozdzielczością czasową, co utrudnia określanie związków przyczynowo-skutkowych w odniesieniu do problemu wzajemnych relacji między przetwarzaniem ekspresji emocjonalnej a funkcjonowaniem mechanizmu uwagi. Jak sugerowano już wcześniej, ciało migdałowate może oddziaływać zwrotnie na poziom aktywacji korowej części systemu wzrokowego (Sugase i in., 1999). Można zresztą oczekiwać, iż tego rodzaju wpływ jest wyraźniejszy w przypadku bodźców o du-żym znaczeniu afektywnym. Z kolei ciało migdałowate podlega oddziaływaniu z poziomu kory mózgowej, szczególnie silnemu ze strony systemu wzrokowego. Możliwe jest więc, że oba rodzaje oddziaływań, zachodzące w różnym czasie, w odmienny sposób są modyfikowane przez uwagę dowolną. 5.4.2. Wpływ uwagi na przetwarzanie ekspresji emocjonalnej – badania wykorzystujące rejestrację ERP Rejestracja odpowiedzi hemodynamicznej, jak w przypadku fMRI, pojawiającej się kilka sekund po ekspozycji bodźca, nie jest z pewnością metodą najlepiej dopasowaną do obserwacji czasowej charakterystyki interakcji między procesami rozpoznawania ekspresji mimicznej oraz oddziaływania uwagi. Stąd ostateczne rozstrzygnięcie interesującego nas problemu automatyczności przetwarzania wymaga uwzględnienia także danych uzyskiwanych za pomocą technik elektrofi zjo-logicznych, charakteryzujących się odpowiednio wysoką rozdzielczością czasową. Eksperymenty Martina Eimera i jego współpracowników Pomiar potencjałów ERP wywołanych przez ekspozycję twarzy przedstawiających strach oraz ekspresję neutralną został zastosowany w badaniu przeprowadzonym przez Holmes, Vuilleumiera i Eimera (2003). Wykorzystali oni identyczną procedurę eksperymentalną jak ta użyta wcześniej w opisanym powyżej badaniu Vuilleumierra i jego grupy (Vuilleumier, Armony, Driver i Dolan, 2001). Prezentowano więc jednocześnie dwa zdjęcia twarzy oraz dwa zdjęcia domów w układzie pionowym i poziomym oraz manipulowano zaangażowaniem uwagi w analizę podobieństwa twarzy lub domów poprzez odpowiednie bodźce poprzedzające. Porównując zapis potencjałów zarejestrowanych w przypadku obu ekspresji, stwierdzono dodatkową falę dodatnią w okolicach czołowych uzyskaną dla twarzy przedstawiających strach w porównaniu z neutralnymi (komponent AP). Efekt ten pojawiał się około 100–120 ms po ekspozycji bodźców i jego wczesna faza była ograniczona do odprowadzeń czołowych. Autorzy zaobserwowali także, iż komponent ten jest widoczny także w okolicach centralnych i ciemieniowych od około 180 ms po ekspozycji twarzy. Co ważne jednak, wspomniane zróżnicowanie w przebiegu potencjałów ERP było nieobecne w sytuacji wymagającej porównania zdjęć domów, co sugeruje silny wpływ ukierunkowania uwagi na procesy przetwarzania ekspresji emocjonalnej. Co ciekawe, nie zanotowano żadnych różnic związanych z ekspresją mimiczną w odniesieniu do komponentu N170. Na tej podstawie autorzy sugerowali, iż proces analizy mimiki emocjonalnej przebiega niezależnie i najprawdopodobniej równolegle do przetwarzania strukturalnego twarzy. Jak zostało to przedstawione wcześniej w części poświęconej badaniom z wykorzystaniem podprogowej prezentacji twarzy, podobny do pewnego stopnia rezultat może być obserwowany także przy ograniczonej świadomości ekspozycji bodźca (Eimer, Kiss i Holmes, 2008; Kiss i Eimer, 2008). Zbliżone zróżnicowanie, przybierające postać dodatniej fali rejestrowanej w odpowiedzi na twarze z ekspresją strachu, było notowane także w innych eksperymentach grupy Eimera (Eimer i Holmes, 2002) oraz Vuilleumiera (Ashley, Vuilleumier i Swick, 2004). W pierwszym z tych badań prezentowano twarze neutralne oraz przedstawiające strach w pozycji normalnej i odwróconej. Specyfi czna zmiana w przebiegu potencjałów ERP w postaci dodatniej fali wywołanej przez twarze z ekspresją strachu była rejestrowana niezależnie od orientacji bodźca, przy czym dla normalnie eksponowanych twarzy pojawiała się w oknie czasowym 110–200 ms po bodźcu w okolicach czołowych, a później była widoczna także w innych częściach kory, natomiast dla twarzy inwertowanych podobne zróżnicowanie było widoczne około 50–60 ms później i ograniczone do elektrod czołowych. W badaniu Ashley, Vuilleumiera i Swick (2004) wykorzystano cztery różne ekspresje emocjonalne (strach, radość, wstręt oraz ekspresję neutralną), stosując niemal identyczną procedurę jak Eimer i Holmes (2002). Analizując amplitudę komponentu VPP, rejestrowanego w okolicach czołowo-centralnych między 100 a 250 ms po bodźcu, autorzy stwierdzili wyższe wartości dla ekspresji strachu w porównaniu z twarzami neutralnymi i wyrażającymi radość. Oznacza to podobny rezultat jak ten obserwowany w eksperymentach grupy Eimera przedstawionych powyżej. Dla pozostałych dwóch rodzajów ekspresji nie zanotowano podobnego zróżnicowania. Co ważne, efektu ekspresji emocjonalnej w odniesieniu do komponentu VPP nie zanotowano dla prezentacji w pozycji odwróconej. Również amplituda N170 okazała się porównywalna dla wszystkich rodzajów ekspresji. Podobny efekt ekspresji emocjonalnej, mający postać dodatkowej fali dodatniej rejestrowanej w okolicach czołowo-centralnych w przypadku twarzy emocjonalnych w porównaniu z neutralnymi, zanotowano także w badaniu Eimera, Holmes i McGlone’a (2003). W tym eksperymencie zastosowano zdjęcia przedstawiające sześć podstawowych ekspresji mimicznych, wykorzystując zmodyfi kowaną procedurę eksperymentalną oraz manipulując odpowiednio uwagą. Ponownie prezentowano jednocześnie dwie twarze, tym razem zawsze po lewej i po prawej stronie od punktu fiksacji. Ponadto w pobliżu punktu fi ksacji eksponowano także dwie krótkie linie pionowe o bardzo zbliżonej lub wręcz identycznej długości. Zastosowano dwa zadania – w pierwszym badani dokonywali oceny podobieństwa długości pionowych linii, natomiast w drugim wymagano od nich oceny podobieństwa ekspresji przedstawionej przez dwie twarze. Tym samym uwaga mogła być ukierunkowana na obszar w centralnej części pola widzenia, by dokonać analizy linii, lub skierowana na peryferia pola widzenia, aby porównać ekspresje twarzy. Podobnie jak w poprzednich badaniach zarejestrowano zróżnicowanie w okolicach czołowo-centralnych dla twarzy emocjonalnych w porównaniu z neutralnymi wyłącznie w sytuacji wymagającej zaangażowania uwagi w przetwarzanie twarzy. Efekt ten był zupełnie nieobecny, gdy zadaniem badanych było porównanie długości linii. Co ważne, wielkość tej różnicy oraz czas, w jakim się pojawiała, były porównywalne dla wszystkich testowanych ekspresji. W odróżnieniu jednak od wcześniej uzyskanych wyników tym razem dodatnią falę wiązaną z procesem różnicowania mimiki emocjonalnej zarejestrowano dopiero około 180 ms po bodźcu. Poza nieznacznym opóźnieniem efektu ekspresji wyniki zanotowane w tym badaniu były zgodne z uzyskiwanymi w poprzednich eksperymentach. Uwaga dowolna czy mimowolna? Na podstawie wyników przedstawionych powyżej można jednoznacznie stwierdzić, iż proces różnicowania ekspresji emocjonalnej podlega wpływom mechanizmu uwagi. Jeśli bowiem mechanizm ten jest nakierowany na przetwarzanie twarzy, nawet wówczas, gdy są one porównywane pod kątem innego niż ekspresja emocjonalna jej aspektu, przebieg zapisu potencjałów ERP rejestrowanych dla twarzy neutralnych oraz emocjonalnych jest wyraźnie odmienny, począwszy od około 100–120 ms po ekspozycji bodźca. Jeśli jednak zasoby uwagi są anga-żowane w procesy analizy i oceny innych bodźców, wówczas aktywność mózgu odzwierciedlona w postaci potencjału ERP jest podobna niezależnie od ekspresji emocjonalnej twarzy. Rezultaty uzyskane w opisanych powyżej badaniach wykorzystujących zapis ERP stanowią mocny argument na rzecz tezy, iż proces rozpoznawania ekspresji emocjonalnej nie przebiega niezależnie od działania systemu uwagowego, tym samym nie jest procesem automatycznym. Warto jednak zwrócić uwagę, że zadania stosowane w tych eksperymentach, poza ostatnim, nie wymagały explicite różnicowania wyrazu mimicznego, lecz dotyczyły oceny fizycznego podobieństwa dwóch zdjęć twarzy lub detekcji powtórzenia bodźca w dwóch kolejnych próbach. Tym samym efekt ekspresji obserwowany w tych przypadkach niekoniecznie jest związany z przetwarzaniem dowolnym, lecz raczej może odzwierciedlać zjawisko mimowolnego angażowania systemu uwagi w przetwarzanie bodźców o dużym znaczeniu emocjonalnym. Warunkiem determinującym taką możliwość, jak wskazują uzyskane wyniki, jest dostępność zasobów uwagi. Jeśli zasoby te zostaną alokowane do wykonania innego zadania, wówczas nie są obserwowane specyficzne korelaty różnicowania ekspresji emocjonalnej w postaci dodatniej fali rejestrowanej w okolicach czołowych. Warto w tym miejscu przypomnieć, iż podobną sugestię przedstawił Luiz Pessoa, wyjaśniając różnice w wynikach własnego eksperymentu (Pessoa, McKenna, Gutierrez i Ungerleider, 2002) oraz przeprowadzonego przez grupę Vuilleumiera (Vuilleumier, Armony, Driver i Dolan, 2001). Wśród pozostałych opisanych wcześniej badań wykorzystujących techniki neuroobrazowania tylko eksperyment Andersona i jego współpracowników (Anderson i in., 2003) przyniósł rezultaty niesugerujące jednoznacznie wpływu uwagi na proces różnicowania ekspresji emocjonalnej. Jednak należy także zauważyć, iż procedura zastosowana w tym badaniu znacząco różniła się od wykorzystanych w innych pracach. Przypomnijmy, że badanym prezentowano centralnie bodźce powstałe przez nałożenie na siebie dwóch zdjęć: twarzy oraz budynku. Zadaniem uczestników była ocena płci osoby na zdjęciu lub określenie, czy przedstawiony został budynek z zewnątrz, czy pomieszczenie wewnątrz budynku. Można również dodać, że zdjęcia twarzy i budynków były wcześniej przetworzone komputerowo w taki sposób, iż czarno-białe fotografie przekształcono w czerwono-białe dla twarzy oraz zielono-białe dla budynków. Biorąc pod uwagę tę cechę zdjęć użytych w badaniu oraz różnicę w proporcjach (twarze wyglądały na gigantyczne na tle budynków), można oczekiwać, iż osobom badanym niezmiernie trudno było ignorować obecność twarzy w sytuacji wymagającej oceny zdjęć budynków. Jeśli taka teza byłaby prawdziwa, wówczas należałoby stwierdzić, że manipulacja zastosowana w badaniu Andersona była nieskuteczna, gdyż uwaga nie była symetrycznie angażowana wyłącznie w przetwarzanie twarzy lub analizę budynku. Jeśli tak, to częściowo zasoby uwagi mogły być mimowolnie angażowane w przetwarzanie ekspresji emocjonalnej także wtedy, gdy badani dokonywali oceny zdjęć budynków. Wyjaśniałoby to wówczas brak modulacji uwagowej na poziomie ciała migdałowatego i kory wyspy. Niestety, możliwość taka pozostaje wyłącznie w sferze spekulacji. Z kolei należy też zauważyć, że procedury stosowane przez grupę Eimera wykorzystywały zazwyczaj ekspozycję zdjęć twarzy poza centralnym obszarem pola widzenia. Nie jest więc do końca jasne, czy efekt mimowolnego zaangażowania uwagi w analizę ekspresji emocjonalnej nie byłby obserwowany także w pozostałych eksperymentach wykorzystujących zapis ERP, gdyby twarz była eksponowana w części centralnej. Hipoteza taka została przetestowana przez zespół Eimera w jednym z późniejszych badań (Holmes, Kiss i Eimer, 2006), w którym twarze, przedstawia-jące strach lub stan neutralny, były prezentowane centralnie jednocześnie z dwoma lateralnie eksponowanymi pionowymi liniami o różnej lub identycznej długości. Osoby badane miały za zadanie reagować w sytuacji powtórzenia bodźca eksponowanego w poprzedniej próbie, identycznej twarzy lub identycznego układu linii. Zanotowano, podobnie jak w poprzednich badaniach, dodatnią falę charakterystyczną dla twarzy przedstawiających strach w porównaniu z neutralnymi w sytuacji wymagającej zaangażowania uwagi w ocenę twarzy (komponent AP). Efekt ten był widoczny przez kilkaset milisekund. Co ważne, podobne zjawisko zanotowano także, gdy badani oceniali pionowe linie. W tym jednak przypadku dodatnia fala związana z ekspozycją twarzy wyrażających strach była widoczna tylko dla okna między 160 a 220 ms po bodźcu. Z jednej strony wynik ten sugeruje, iż przetwarzanie ekspresji emocjonalnej wymaga zaangażowania uwagi. Wniosek ten wspiera obserwacja podobieństwa rezultatów uzyskanych w tym oraz poprzednich eksperymentach grupy Eimera. Z drugiej jednak strony rezultat ten wskazuje, że zasoby uwagi mogą być mimowolnie angażowane w analizę mimiki emocjonalnej, o czym świadczy słabszy, lecz wyraźnie widoczny efekt ekspresji zanotowany w zadaniu, w którym uwaga była skierowana na inne niż twarze obiekty prezentowane w odmiennej lokalizacji. Taka możliwość była zresztą wielokrotnie testowana z wykorzystaniem różnych paradygmatów, wśród których jednym z lepiej znanych jest zadanie dot-probe, opisane pokrótce już wcześniej. Zakłada się, iż twarze, które stanowią nieistotny dla wykonania zadania bodziec poprzedzający, ze względu na swe znaczenie afektywne będą wywoływać mimowolne zaangażowanie pewnej części zasobów uwagi, co w rezultacie wpłynie na charakterystykę reakcji behawioralnej na bodziec właściwy. W wielu badaniach wykorzystujących zadanie dot-probe wskazywano na szybsze i poprawniejsze reakcje, w sytuacji gdy bodziec właściwy był eksponowany w tej samej lokalizacji, co poprzedzająca go twarz emocjonalna w porównaniu z twarzą neutralną. W pomiarze elektrofizjologicznym obserwuje się specyfi czny komponent nazywany N2pc12, mający postać subtelnej fali ujemnej rejestrowanej w okolicy ciemieniowej w półkuli kontralateralnej do miejsca prezentacji twarzy emocjonalnej. Ze względu na fakt, iż w procedurze tej jednocześnie eksponowane są dwie twarze, neutralna i emocjonalna, ma on odzwierciedlać proces mimowolnego angażowania większych zasobów uwagi w przetwarzanie twarzy o większym znaczeniu. Uzyskiwane wyniki wskazują, że proces ten może być obserwowany około 160–180 ms po ekspozycji bodźca i trwa około 100–120 ms (Holmes, Bradley, Kragh Nielsen i Mogg, 2009; Eimer, 1996; Eimer i Kiss, 2007; Wronka, Walentowska i Asanowicz, 2010). Co ważne w kontekście niniejszych rozważań, komponent ten może być wywoływany także przez proste bodźce neutralne, których znaczenie jest związane wyłącznie z instrukcją eksperymentalną (Luck i Hillyard, 1994; Woodman i Luck, 1999), więc nie należy go utożsamiać w żadnym razie z procesami percepcji twarzy, a raczej z działaniem mechanizmu uwagi. Jak wynika jednak z badań Eimera i Kiss (2007), komponent N2pc może być skutecznie blokowany, gdy zasoby uwagi są silnie angażowane przez jednoczesną ekspozycję istotnego dla wykonania zadania, lecz neutralnego emocjonalnie bodźca oraz pary twarzy (neutralnej i wyrażającej strach). Warto wspomnieć, iż prezentacja takiej samej pary twarzy eksponowanych jednak bez bodźca wymagającego re 12 Nazwa komponentu bierze się stąd, że jest on rejestrowany w obrębie typowego N2, natomiast dodatkowe litery pc oznaczają posterior contralateral, czyli wskazują na miejsce występowania, tylne rejony kory przeciwległej do połowy pola widzenia, w której eksponowano bodziec, tu – twarz emocjonalną. akcji powoduje pojawienie się wyraźnego komponentu N2pc. Podobne zmiany w procesie generowania tego komponentu związane z rywalizacją o zasoby uwagi w warunkach jednoczesnej prezentacji różnych rodzajów bodźców uzyskane zostały także przez innych badaczy (Jolicoeur i in., 2006a; 2006b). 5.5. Podsumowanie Wśród psychologów stosunkowo popularna jest opinia, iż ekspresja emocjonalna jest przetwarzana w obrębie systemu nerwowego z wykorzystaniem dwóch niezależnych kanałów przesyłania informacji (Damasio, 1999; LeDoux, 2000; LeDoux i Phelps, 2005). W jednym przypadku wykorzystywane są drogi nerwowe prowa-dzące z siatkówki poprzez wybrane struktury podkorowe do układu limbicznego, co ma umożliwiać niedokładną, lecz szybką ocenę znaczenia stymulacji wzrokowej. Drugim kanałem przekazywania tej samej informacji byłyby elementy kory wzrokowej, której przypisywano możliwość dokładnej analizy zbieranych danych zmysłowych, jednocześnie wskazując na małą szybkość procesów tam zachodzących. Taki podział pozwalał również na postawienie licznych hipotez dotyczących sposobu przetwarzania mimiki emocjonalnej. Postulowano, iż analiza taka przebiega bardzo szybko przy wykorzystaniu struktur podkorowych i relatywnie wolniej, gdy przetwarzanie odbywa się na poziomie kory. Ponadto sugerowano, że wykorzystanie elementów podkorowych może prowadzić do odbioru sygna-łów mimicznych poza świadomością. Uznawano także, iż gdy ten sam sygnał jest rozpoznawany świadomie, to oznacza jego dokładną analizę przy udziale kory. Co więcej, przetwarzanie poza systemem korowym kwalifikowano jako proces automatyczny, czyli niezależny od zaangażowania uwagi i przeciwstawiano to analizie na poziomie kory, która mogła być związana z modulującym wpływem mechanizmu uwagi. Przedstawione powyżej dane empiryczne sugerują, iż taka wizja, przynajmniej w części, jest fałszywa. Biorąc bowiem pod uwagę rezultaty badań, należy stwierdzić, że nie ma jednoznacznych przesłanek wskazujących na możliwość wykorzystania połączeń podkorowych w procesie przetwarzania ekspresji emocjonalnej. Sugestia wskazująca na udział wzgórków górnych śródmózgowia oraz jąder poduszki wzgórza w trakcie przekazywania danych sensorycznych z siatkówki do ciała migdałowatego jest oparta na wskaźnikach korelacyjnych uzyskiwanych dla poziomu aktywacji tych struktur metodami neuroobrazowania (Morris, Öhman i Dolan, 1998; 1999; Morris, De Gelder, Weiskrantz i Dolan, 2001). Wyklucza to wskazywanie kierunku oddziaływań pomiędzy tymi elementami systemu nerwowego, przynajmniej w odniesieniu do procesu analizy mimiki emocjonalnej. Ponadto wyniki badań sugerują, iż sygnały mimiczne silnie angażują mechanizm uwagi. Jest to całkowicie zrozumiałe, zważywszy, że sygnały te są informacją o zmianie stanu emocjonalnego innej jednostki, która może być bardzo istotna dla funkcjonowania w grupie społecznej. Stawia się przy tym często hipotezę, że taka właściwość procesów przetwarzania ekspresji emocjonalnej jest swoistą adaptacją będącą wynikiem presji ewolucyjnej. Wyższa jakość funkcjonowania społecznego miała prowadzić do efektywniejszego rozprzestrzeniania zestawu genów jednostki posiadającej wyższe zdolności do prawidłowej oceny ekspresji emocjonalnej. Jednak przytoczone wyniki wskazują na silną zależność między zaangażowaniem zasobów uwagi w przetwarzanie sygnałów mimicznych a efektywnością ich rozpoznawania (Pessoa, McKenna, Gutierrez i Ungerleider, 2002; Pessoa, 2005; Silvert i in., 2007). Bez zaangażowania mechanizmu uwagi system nerwowy nie różnicuje prawidłowo mimiki emocjonalnej. Nakierowanie uwagi na istotne dla identyfikacji ekspresji charakterystyki twarzy umożliwia prawidłowe i szybkie rozpoznanie stanu emocjonalnego innej jednostki. Jeśli jednak uwaga jest silnie zaangażowana w przetwarzanie innych informacji, wówczas sygnał mimiczny może pozostać niezauważony i nie wywo-łuje żadnych specyficznych zmian w aktywności systemu nerwowego. Wydaje się jednak również, że jeśli w podobnej sytuacji pewna część zasobów uwagi pozostaje niezagospodarowana, to twarz wyrażająca charakterystyczną ekspresję może spowodować mimowolnie przebiegające procesy uruchamiania wolnych zasobów i przeznaczania ich do wykorzystania w procesie oceny znaczenia takiego bodźca. Oznacza to, iż uwaga może zarówno modulować przebieg procesów rozpoznawania ekspresji mimicznej, jak i być mimowolnie angażowana w ten proces, pod warunkiem że w tym samym czasie nie jest silnie wykorzystywana przez inny proces (Lavie, 1995). Co ciekawe, nie oznacza to, że proces ten musi przebiegać z udziałem świado-mości. Działanie mechanizmu uwagi nie musi bowiem implikować jednocześnie udziału świadomości z przyczyn zresztą dość oczywistych. Zakłada się, iż dzia-łanie systemu uwagowego w przypadku większości ssaków opiera się na podobnych zasadach (Beck i Kastner, 2009; Duncan, 2006; Kastner i Ungerleider, 2001; Posner i Petersen, 1990; Wronka, 2004). Nie znaczy to jednak, że we wszystkich tych przypadkach mamy do czynienia z procesami świadomymi. Stąd nic dziwnego, że wyniki badań przedstawione w tym rozdziale wskazują, iż świadomość nie musi być angażowana, aby poprawnie różnicować ekspresję mimiczną. Biorąc pod uwagę wszystkie wspomniane powyżej charakterystyki procesu przetwarzania ekspresji emocjonalnej, można stwierdzić, że rezultaty uzyskiwane w badaniach wykorzystujących rejestrację aktywności systemu nerwowego nie potwierdzają jednoznacznie, iż przebiega on z wykorzystaniem dwóch nie-zależnych kanałów. Należałoby więc przyjąć, że jedyną możliwą drogą przesyłania informacji o mimice emocjonalnej jest system korowy (Pessoa, 2005). Pod tym względem przetwarzanie sygnałów mimicznych nie różni się od procesów obserwowanych w przypadku innych obiektów wzrokowych. Podlegać więc może podobnym wpływom ze strony mechanizmu uwagi. Pozostaje jednak kwestią otwartą, jaką formę przybiera ten rodzaj wpływu oraz jakie są mózgowe korelaty tego procesu. Jak można stwierdzić na podstawie zaprezentowanych powyżej badań, zasoby uwagi mogą być angażowane w przetwarzanie ekspresji emocjonalnej zarówno w przebiegu procesów kontrolowanych, jak i w wyniku procesów mimowolnych. Stąd istotne wydaje się określenie wzajemnych relacji między tymi dwoma rodzajami aktywowania mechanizmu uwagi w trakcie analizy mimiki emocjonalnej. Konieczne jest również wyróżnienie mózgowych korelatów obu typów procesów wraz z opisem warunków determinujących ich występowanie. Opierając się na obserwacjach poczynionych przez innych badaczy we wcześniej-szych pracach, możliwe jest określenie kilku rodzajów efektów obserwowanych w badaniach stosujących pomiar EEG. We wszystkich przeprowadzonych eksperymentach własnych, które zostaną przedstawione w kolejnym rozdziale pracy, zastosowano właśnie tę metodę rejestracji aktywności mózgu. Rozdział 6 Wpływ uwagi na przetwarzanie ekspresji emocjonalnej – eksperymenty 1–3 Przedstawione w poprzednich rozdziałach wyniki uzyskiwane przez innych badaczy sugerują, iż proces różnicowania ekspresji emocjonalnej charakteryzuje wiele korelatów widocznych w zapisie EPR. Nie we wszystkich przypadkach istnieje jasność co do znaczenia funkcjonalnego obserwowanych w zapisie ERP różnic między odpowiedziami systemu nerwowego wywoływanymi przez twarze emocjonalne i neutralne. Pierwszym z takich korelatów może być zmiana amplitudy komponentu P1 rejestrowanego w okolicach potylicznych około 100 ms po bodźcu (Pourtois i in., 2004; Holmes, Kragh Nielsen i Green, 2008; Holmes i in., 2009). Komponent ten jest uważany za wskaźnik aktywności wyższorzędowych części kory wzrokowej, w szczególności jej brzusznych fragmentów (Hillyard, Vogel i Luck, 1998; Hilly-yard i Anllo-Vento, 1998; Sams i in., 1997). Efekty ekspresji emocjonalnej obserwowane w odniesieniu do amplitudy komponentu P1 mogą więc wskazywać, iż różnicowanie mimiki emocjonalnej rozpoczyna się na bardzo wczesnym etapie przetwarzania twarzy. Kolejnym efektem często wykazywanym w badaniach dotyczących procesu rozpoznawania sygnałów mimicznych jest modulacja amplitudy komponentu N170 (Batty i Taylor, 2003; Blau i in., 2007; Miyoshi, Katayama i Morotomi, 2004; Rigato, Farroni i Johnson, 2010; Sprengelmeyer i Jentzsch, 2006; Vlamings, Goff -aux i Kemner, 2009; Wronka i Walentowska, 2011). W odpowiedzi na ekspozycję twarzy emocjonalnych rejestruje się silniej wyrażony komponent N170 w porównaniu z mimiką neutralną. Warto w tym miejscu przypomnieć, że N170 jest traktowany przez wielu badaczy jako korelat analizy strukturalnej twarzy (Eimer, 2000a; 2000b; Bentin i Deouell, 2000; zob. także rozdział 4). W przypadku N170, którego czas latencji wynosi 140–200 ms po ekspozycji twarzy, wskazuje się na grupę struktur mózgu uczestniczących w jego generowaniu, w tym zakręt wrzecionowaty oraz obszary wokół górnej bruzdy skroniowej (Rossion, Joyce, Cottrell i Tarr, 2003; Deffke i in., 2007; Henson i in., 2007; Schweinberger i in., 2002; Itier i Taylor, 2004b; Shibata i in., 2002; Watanabe, Kakigi i Puce, 2003). Warto także zauważyć, że w wielu pracach sugeruje się, iż komponent ten jest raczej niewrażliwy na ekspresję emocjonalną (Eimer i Holmes, 2007). Kolejnym korelatem procesu różnicowania sygnałów mimicznych jest dodatnia fala pojawiająca się w okolicach czołowych w odpowiedzi na twarze emocjonalne w porównaniu z neutralnymi. W tym przypadku nie mamy więc do czynienia z jednym konkretnym załamkiem potencjałów ERP, ale z pewną relatywną zmianą w zapisie widoczną przez dłuższy lub krótszy czas (Ashley, Vuilleumier i Swick, 2004; Holmes, Vuilleumier i Eimer, 2003; Eimer, Kiss i Holmes, 2008; Eimer i Holmes, 2002; Kiss i Eimer, 2008; Eimer i Holmes, 2007; Wronka i Walentowska, 2011; zob. także rozdziały 4 oraz 5). Fala ta jest w literaturze przedmiotu określana nazwą fronto-central positivity lub anterior positivity. Moment, od którego efekt ten jest obserwowany, zależy najprawdopodobniej od warunków eksperymentalnych, gdyż czas latencji waha się między 100 a 180 ms po ekspozycji twarzy. Czas, przez jaki komponent ten jest widoczny w zapisie ERP, również jest bardzo zróżnicowany i waha się od kilkudziesięciu do kilkuset milisekund. Ostatnią z często rejestrowanych zmian w zapisie potencjałów ERP związanych z rozpoznawaniem znaczenia emocjonalnego mimiki jest ujemna fala mierzona w okolicach potylicznych około 200 ms po bodźcu (Eimer, Kiss i Holmes, 2008; Sato i in., 2001; Schupp i in., 2004b; Wronka i Walentowska, 2011; Leppänen i in., 2007). Również w tym przypadku mamy do czynienia raczej z relatywną zmianą w zapisie ciągnącą się od kilkudziesięciu do kilkuset milisekund. Wskazuje się, że twarze emocjonalne powodują, iż wartości mierzone w tym oknie czasowym przybierają niższe wartości w porównaniu z neutralnymi. Efekt ten nazywany jest early posterior negativity. Wydaje się więc, że aby w pełni opisać cały proces przetwarzania ekspresji emocjonalnej, należy brać pod uwagę wszystkie wymienione powyżej efekty. Problem dodatkowo komplikuje fakt, iż pojawienie się w zapisie ERP tych charakterystycznych komponentów jest często warunkowane działaniem mechanizmu uwagi. Na taki wpływ wskazuje wiele badań prowadzonych przez grupę Eimera (Holmes, Vuilleumier i Eimer, 2003; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Eimer i Holmes, 2007). Wpływ uwagi dotyczył głów-nie komponentu AP rejestrowanego, gdy uwaga była nakierowana na przetwarzanie twarzy, oraz nieobecnego, gdy uwaga była zaangażowana w przetwarzanie innych bodźców. Jednak ponieważ manipulacja uwagą w tych badaniach dotyczyła zarówno rodzaju bodźca, jaki był analizowany w sposób kontrolowany, jak i jednocześnie lokalizacji ogniska uwagi, trudno jednoznacznie stwierdzić, który z tych czynników bardziej przyczynił się do uzyskania wspomnianego rezultatu. Z jednej strony możliwe jest, iż – niezależnie od umiejscowienia w przestrzeni ogniska uwagi, sam fakt nakierowania jej na przetwarzanie innych bodźców w dwóch różnych sytuacjach mógł wywołać lub nie wywoływać efektu ekspresji emocjonalnej w postaci komponentu AP. Z drugiej strony możliwe jest również, że głównym czynnikiem była manipulacja uwagą w przestrzeni. By rozstrzygnąć ten problem, należałoby zaplanować eksperyment, w którym manipulacja uwagą byłaby ograniczona do rodzaju informacji przetwarzanej w sposób kontrolowany. Taki cel miały pierwsze trzy eksperymenty. We wszystkich zastosowano zbliżoną manipulację eksperymentalną. Wyniki pierwszego badania zostały wcześniej opublikowane (Wronka i Walentowska, 2011), stąd zostanie on przedstawiony mniej szczegółowo. Opis rezultatów tego badania oraz dodatkowej analizy lokalizacyjnej, która została przeprowadzona na ich podstawie, pojawi się w dalszej części niniejszego rozdziału, podobnie jak dwa pozostałe eksperymenty, stanowiące dalszy ciąg tego samego programu badawczego. Uzyskane rezultaty pozwoliły na wyróżnienie dwóch grup elektrofi zjologicznych korelatów przetwarzania ekspresji emocjonalnej. Pierwszą grupę stanowiła modulacja komponentu N170, która – jak wykazały rezultaty naszych pierwszych trzech eksperymentów – konsekwentnie może być obserwowana wyłącznie w sytuacji, gdy mechanizm uwagi jest w sposób kontrolowany zaangażowany w analizę mimiki emocjonalnej. Drugą grupę tworzyły komponenty AP oraz EPN, w przypadku których podejrzewano związek z procesami o charakterze mimowolnym. Problem stopnia, w jakim te komponenty mogą rzeczywiście odzwierciedlać nieintencjonalne przetwarzanie ekspresji emocjonalnej, został podjęty w kolejnych trzech eksperymentach (zob. rozdział 7). Wyniki tych badań potwierdziły, że przynajmniej jeden z tych komponentów rzeczywiście odpowiada procesom mózgowym łączonym z mimowolnie przebiegającym różnicowaniem mimiki emocjonalnej. Przyniosły one również potwierdzenie, że mechanizm uwagi silnie wpływa także na tego rodzaju procesy. Ponadto wyniki zebrane w tych eksperymentach sugerowały, że znaczenie poszczególnych części twarzy w przebiegu analizy ekspresji emocjonalnej może być odmienne. Ten problem stał się tematem dwóch ostatnich eksperymentów, opisanych w rozdziale 7. Zanim jednak wszystkie wspomniane badania zostaną przedstawione, konieczne jest zaprezentowanie ogólnego opisu zastosowanej metody pomiaru aktywności mózgu. W całym cyklu podstawową wykorzystaną techniką był pomiar potencjałów skorelowanych ze zdarzeniem (ERP). 6.1. Opis metody wykorzystanej w badaniach Ogólna charakterystyka uczestników eksperymentów We wszystkich eksperymentach brały udział zdrowe, młode osoby rekrutowane spośród studentów krakowskich uczelni poprzez ogłoszenia lub elektroniczny system rekrutacji osób do badań, działający na Uniwersytecie Jagiellońskim. Osoby te we wszystkich przypadkach charakteryzowały się normalną sprawnością manualną oraz zadeklarowały dobry stan zdrowia, w tym normalną lub odpowiednio skorygowaną ostrość wzroku. Żadna z osób biorących udział w badaniach nie mogła w momencie uczestnictwa stosować żadnych medycznych środków farmakologicznych, mogących w istotny sposób wpływać na aktywność ośrodkowego układu nerwowego. Z badań wykluczono również osoby, które w przeszłości miały problemy natury neurologicznej lub psychiatrycznej. Przed rozpoczęciem eksperymentu każdorazowo uczestnicy zostali zapewnieni o anonimowości badania i wyrażali pisemną zgodę na udział w nim. Jedynym wynagrodzeniem, jakie osoby badane uzyskiwały, były punkty ECTS. Materiał bodźcowy i procedury eksperymentalne W badaniach wykorzystano trzy standaryzowane zestawy zdjęć twarzy, przedstawiające w każdym przypadku twarze kobiet lub mężczyzn rasy białej. W pierwszych dwóch eksperymentach wykorzystano czarno-białe zdjęcia z zestawu Pictures of Facial Affect (POFA; Ekman i Friesen, 1976). W większości następnych użyto kolorowych zdjęć pobranych z zestawu NimStim Set of Facial Expressions (Tottenham i in., 2009; http://www.macbrain.org/resources.htm). Kolejnym zestawem kolorowych zdjęć, który zastosowano w eksperymencie 5, była Radboud Fa-ces Database RaFD (Langner i in., 2010; www.rafd.nl). W zestawach tych zebrane są zdjęcia prezentujące kilka ekspresji emocjonalnych. W przypadku wszystkich opisanych w niniejszej monografii badań wykorzystywano zdjęcia tych samych osób w wersjach ukazujących różne ekspresje emocjonalne. W pierwszym eksperymencie były to ekspresja radości, złości oraz ekspresja neutralna. W kolejnych użyto zdjęć twarzy przedstawiających ekspresję radości, strachu oraz neutralną. Zdjęcia obiektów innych niż twarze (domy i ciężarówki) zostały pobrane z różne-go rodzaju witryn internetowych. We wszystkich eksperymentach prezentacja materiału bodźcowego oraz rejestracja odpowiedzi behawioralnych uczestników badania była kontrolowana przez program komputerowy DMDX (http://www.u.arizona.edu/~kforster/ dmdx/dmdx.htm). Bodźce prezentowano w centralnej części ekranu komputerowego o wysokich parametrach odświeżania obrazu (100 Hz). Reakcje osób badanych wymagane przez instrukcję eksperymentalną rejestrowano za pomocą standardowej klawiatury komputerowej. Rejestracja elektroencefalograficzna i analiza danych Rejestracja aktywności mózgu odbywała się w laboratorium Zakładu Psychofizjologii Instytutu Psychologii Uniwersytetu Jagiellońskiego. We wszystkich opisanych eksperymentach wykorzystano 32-kanałowy wzmacniacz EEG (BioSemi Active Two System; http://www.biosemi.com). Elektrody były umieszczane na głowie osób badanych za pomocą odpowiednich czepków. Zapisu dokonywano z grupy 32 elektrod (AF3, AF4, F7, F3, Fz, F4, F8, FC5, FC1, FC2, FC6, T7, C3, Cz, C4, T8, CP5, CP1, CP2, CP6, P7, P3, Pz, P4, P8, PO7, PO3, PO4, PO8, O1, Oz, O2) rozmieszczonych zgodnie z rozszerzoną wersją Międzynarodowego Systemu 10-20 (Nuwer i in., 1998). Wykorzystano również dwie dodatkowe elektrody – CMS (common mode sense, w lokalizacji C1) oraz DRL (driven right leg, w lokalizacji C2) pełniące rolę elektrod odniesienia w czasie zapisu EEG (www. biosemi.com/faq/cms&drl.htm). Ponadto rejestrowano aktywność z dwóch elektrod umieszczonych na lewym i prawym mastoidzie. Poziome i pionowe ruchy oczu monitorowano za pomocą czterech elektrod umieszczonych nad i pod prawym okiem oraz w zewnętrznych kącikach prawego i lewego oka. Sygnał EEG rejestrowano z częstotliwością próbkowania 512 Hz. Dane zbierane w czasie eksperymentów poddano analizie z wykorzystaniem programu Brain Vision Analyzer. Dane uzyskane w eksperymentach i przedstawione w niniejszej pracy poddawano procedurze fi ltrowania off -line z zastosowaniem zakresu 0,016–45 Hz (24 dB). Następnie wyodrębniano z zapisu fragmenty odpowiadające określonym bodźcom. Fragmenty te zawierały 100 ms przed ekspozycją bodźca oraz 600 ms po jego prezentacji. W każdym przypadku dokonywano również korekcji artefaktów wywołanych przez ruchy oczu (Gratton, Coles i Donchin, 1983). Ostatecznie za pomocą oprogramowania dokonywano zmiany elektrod odniesienia, wykorzystując uśredniony sygnał zarejestrowany na mastoidach. Wyjątkiem były eksperymenty 7 oraz 8, w których zastosowano inną metodę, używając śred-niej z zapisu wszystkich 32 elektrod jako wartości referencyjnej. Zabieg zmiany elektrod referencyjnych związany był z faktem, iż w czasie pomiaru sygnał był referowany do elektrody CMS (umieszczonej w lokalizacji C1 nad lewą półkulą), co powodowało, że wielce prawdopodobne stawało się uzyskanie silnego efektu lateralizacyjnego. Aby tego uniknąć, należało, zgodnie z sugestiami producenta aparatury (http://www.biosemi.com/faq/cms&drl.htm), dokonać zmiany w układzie elektrod referencyjnych. Następnym krokiem w każdym przypadku była dokładna inspekcja zarejestrowanych danych oraz odrzucenie prób, w których zanotowano artefakty wywołane przez nadmierną aktywność mięśniową badanych, ruchy oczu lub mrugnięcia. Dodatkowo odrzucano próby, w których zanotowano sygnał przekraczający wybrane kryterium (± 70 μV), na co najmniej jednym z rejestrowanych kanałów. Uśrednieniu podlegały próby wolne od artefaktów w zapisie EEG, w których jednocześnie osoby badane udzieliły prawidłowych odpowiedzi. Odpowiednie komponenty potencjałów ERP były definiowane po dokładnej inspekcji zarejestrowanych danych. Informacje o przedziałach czasowych, w których mierzono poszczególne komponenty, zostały podane przy okazji przedstawiania procedur w kolejnych eksperymentach. Wielkość poszczególnych komponentów zawsze była obliczana w odniesieniu do poziomu podstawowego zapisu EEG (średnia 100 ms zapisu przed prezentacją bodźca). Komponent P1, rejestrowany jako dodatnia fala pojawiająca się około 100 ms po ekspozycji bodźca na odprowadzeniach potylicznych, był analizowany Ryc. 3. Lokalizacja elektrod wykorzystanych w przeprowadzonych eksperymentach. Na rycinie oznaczono symbolami te elektrody, z których zarejestrowane potencjały ERP zostały poddane analizie statystycznej. W obszarach czołowych były to elektrody F3, Fc1, Fz, Fc2 oraz F4 (górna część ryciny). W rejonie potylicznym oraz potyliczno--skroniowym były to elektrody O1, Oz, O2 oraz PO7, PO3, PO4 i PO8 (dolna część ryciny) z uwzględnieniem zapisu uzyskanego dla trzech elektrod (O1, Oz, O2). Komponent N170, mający postać ujemnej fali pojawiającej się w okolicach potyliczno--skroniowych około 150–170 ms po ekspozycji bodźca, analizowano, wykorzystując zapis dla 4 elektrod (PO7, PO3, PO4 oraz PO8). Elektrody PO7 oraz PO8 zostały wybrane ze względu na to, że w tych lokalizacjach uzyskuje się największe amplitudy komponentu N170 (Bentin i Deouell, 2000; Jacques i Rossion, 2004; Sagiv i Bentin, 2001; Yovel, Levy, Grabowecky i Paller, 2003). Analizy amplitudy N170 dokonano również dla elektrod PO3 i PO4 umiejscowionych blisko tylnej części górnego zakrętu skroniowego, jednego z domniemanych źródeł N170 (Itier i in., 2007; Itier i Taylor, 2004b). Analizę statystyczną w przypadku komponentu AP przeprowadzano dla danych z pięciu elektrod zlokalizowanych w okolicach czołowych (F3, FC1, Fz, FC2, F4). Grupę tych elektrod wybrano ze względu na fakt, że w tym rejonie rejestrowano efekt ekspresji emocjonalnej w badaniach grupy Eimera (Eimer i Holmes, 2002; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Holmes, Vuilleumier i Eimer, 2003). Analizy efektów w odniesieniu do komponentu EPN dokonywano dla pięciu potylicznych elektrod (PO7, O1, Oz, O2 oraz PO8). Również w tym przypadku dokonano wyboru tych elektrod na podstawie wcześniejszych doniesień (Schupp i in., 2003a; Schupp i in., 2004a; 2004b). Lokalizację elektrod, z których dane zostały uwzględnione w przeprowadzonych eksperymentach, przedstawiono na ryc. 3. 6.2. Eksperyment 1 6.2.1. Opis metody Osoby badane i procedura eksperymentalna W badaniu uczestniczyło 29 osób, z czego wyniki siedmiu zostały odrzucone z powodu dużej liczby artefaktów. Wśród osób, których wyniki poddano analizie, znalazło się 12 kobiet i 10 mężczyzn (średnia wieku: 20,76 roku; SD = 1,58). W badaniu wykorzystano zdjęcia czterech kobiet i czterech mężczyzn przedstawiające trzy różne ekspresje mimiczne (złość, radość, ekspresja neutralna) wybrane z zestawu POFA (Ekman i Friesen, 1976). Procedura eksperymentalna składała się z dwóch zadań, z których każde zawierało cztery bloki oddzielone od siebie przerwą. W zadaniu wymagającym Rozpoznawania Ekspresji Twarzy (RET) osoby badane różnicowały ekspresję mimiczną prezentowaną na ekranie komputera, wskazując przy użyciu klawiatury komputera, czy twarz była neutralna, czy też wyrażała konkretny stan emocjonalny. W zadaniu wymagającym Rozpoznawania Płci Twarzy (RPT) osoby badane rozpoznawały płeć osób przedstawionych na zdjęciach, wskazując za pomocą klawiatury, czy twarz należała do kobiety, czy do mężczyzny. Każda próba eksperymentalna rozpoczynała się od trwającej 500 ms ekspozycji punktu fiksacji w centralnej części ekranu. Przez kolejne 750 ms ekran pozostawał pusty, po czym rozpoczynała się trwająca 300 ms prezentacja twarzy. W tym momencie zadaniem osoby badanej była ocena tej twarzy i udzielenie wybranej odpowiedzi. Po zareagowaniu następowała krótka przerwa i po 1200 ms rozpoczynano następną próbę (dokładny opis procedury zob. Wronka i Wa-lentowska, 2011). Komponenty N170, AP oraz EPN mierzono odpowiednio dla okien czasowych 140–185 ms, 160–300 ms oraz 240–340 ms po bodźcu. Schemat procedury przedstawiono na ryc. 4. Analiza statystyczna wyników behawioralnych uwzględniała dwa czynniki wewnątrzobiektowe: rodzaj ekspresji (twarze emocjonalne i twarze neutralne) oraz rodzaj zadania (RET i RPT). Amplitudy poszczególnych komponentów zo + 500 ms 750 ms 300 ms 2500 ms punkt fiksacji pusty ekran prezentacja reakcja osoby twarzy badanej CZAS Ryc. 4. Schematyczna ilustracja procedury zastosowanej w eksperymencie 1. W oryginale wykorzystano czarno-białe zdjęcia twarzy z zestawu Pictures of Facial Affect (POFA; Ekman i Friesen, 1976) stały poddane analizie wariancji z powtarzanymi pomiarami. W przypadku komponentów N170, AP oraz EPN wykorzystano dwa czynniki wewnątrzobiektowe, jakimi były rodzaj ekspresji (twarze emocjonalne i twarze neutralne) oraz rodzaj zadania (RET i RPT). 6.2.2. Opis wyników Wyniki behawioralne Reakcje zarejestrowane w zadaniu wymagającym identyfikacji płci osoby na zdjęciu (RPT) były istotnie szybsze w porównaniu z zadaniem polegającym na ocenie ekspresji emocjonalnej (odpowiednio: 500,92 ms oraz 613,99 ms). W rezultacie zanotowano wysoce istotny efekt główny czynnika rodzaj zadania [F(1,21) = 52,77; p < 0,001]. Zaobserwowano również istotne zróżnicowanie szybkości oraz poprawności wykonania zadania RET w zależności od rodzaju ekspresji mimicznej prezentowanej na zdjęciach twarzy, przy jednoczesnym braku takich rezultatów w zadaniu RPT, co świadczy o odmiennym zaangażowaniu mechanizmu uwagi w wykonanie obu zadań. W przypadku zadania RET uzyskano szybsze reakcje dla twarzy emocjonalnych (576,51 ms) w porównaniu z czasami odpowiedzi na ekspozycję twarzy neutralnych (655,47 ms), co przełożyło się na istotny efekt czynnika rodzaj ekspresji [F(1,21) = 23,08; p < 0,001]. Podobnego zróżnicowania nie zanotowano dla zadania RPT. W tym przypadku czasy reakcji dla obu kategorii twarzy były podobne. Liczba poprawnych odpowiedzi w zadaniu RET była niższa w porównaniu z zadaniem RPT (odpowiednio 90,55% oraz 97,30%). W rezultacie zanotowano istotny efekt główny czynnika rodzaj zadania [F(1,21) = 37,39; p < 0,001]. W przypadku zadania RET stwierdzono mniejszą liczbę poprawnych reakcji w próbach z prezentacją twarzy neutralnych (87,93%) w porównaniu z twarzami emocjonalnymi (93,18%). Różnica ta okazała się istotna statystycznie [F(1,21) = 4,55; p = 0,045]. I znów podobnego rezultatu nie uzyskano dla zadania RPT, gdzie wskaźniki poprawności uzyskane dla obu kategorii twarzy pozostawały na zbliżonym poziomie. Na podstawie uzyskanych wyników analiz statystycznych można stwierdzić, iż manipulacja eksperymentalna przyniosła oczekiwany skutek. Istotne zróżnicowanie szybkości oraz poprawności wykonania zadania RET w zależności od rodzaju ekspresji mimicznej prezentowanej na zdjęciach twarzy, przy jednoczesnym braku takich rezultatów w zadaniu RPT, świadczy o odmiennym zaangażowaniu mechanizmu uwagi w wykonanie obu zadań. Zarejestrowane zróżnicowanie zilustrowano na ryc. 5. Wyniki elektrofizjologiczne Uzyskane wyniki pozwoliły stwierdzić, że ekspresja emocjonalna nie wpłynęła na przebieg wczesnych faz przetwarzania twarzy w zadaniu RPT. Zróżnicowanie w przebiegu potencjałów zarejestrowanych w odpowiedzi na prezentacje twarzy emocjonalnych i neutralnych było widoczne około 160 ms po ekspozycji bodźca w okolicach czołowo-centralnych [F(1,21) = 6,02; p = 0,023]. Efekt ten, mający postać dodatkowej fali dodatniej uzyskanej dla twarzy emocjonalnych (komponent AP), był obecny przez następne 140 ms. Zróżnicowanie związane z rodzajem ekspresji emocjonalnej pojawiło się również pomiędzy 240 a 340 ms po prezentacji twarzy na odprowadzeniach potylicznych (komponent EPN). W tym przypadku średnie wartości potencjałów ERP zanotowanych dla twarzy emocjonalnych posiadały niższe wartości w porównaniu z twarzami neutralnymi [F(1,21) = 10,23; p = 0,004]. Opisane wyniki zostały zilustrowane na ryc. 6 i 8. Emocjonalna Neutralna Emocjonalna Neutralna Rodzaj twarzy Rodzaj twarzy Ryc. 5. Ilustracja zróżnicowania reakcji behawioralnych obserwowanego w eksperymencie 1. Ciemne słupki obrazują wskaźniki zanotowane dla zadania RPT, jasne słupki przedstawiają wskaźniki zarejestrowane dla zadania RET PO3 PO4 [μV] [μV] N170 PO7 PO8 [μV] N170 twarze neutralne twarze emocjonalne Ryc. 6. Przebieg uśrednionych potencjałów ERP zarejestrowanych w zadaniu RPT uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy emocjonalnych (radość + złość). Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (140–185 ms), AP (160–300 ms) oraz EPN (240–340 ms) W przypadku jednak gdy zadanie wymagało kontrolowanego różnicowania ekspresji mimicznej (RET), stwierdzono wczesny, rozpoczynający się około 140 ms po ekspozycji bodźca, efekt w postaci bardziej ujemnych wartości uzyskanych na odprowadzeniach potyliczno-ciemieniowych w przypadku twarzy emocjonalnych. Zróżnicowanie to było jednak ograniczone wyłącznie do prawej półkuli mózgu [F(1,21) = 5,60; p = 0,028]. Odpowiada to oknu czasowemu, w którym jest rejestrowany komponent N170. W tym samym warunku stwierdzono różnicę w przebiegu potencjałów ERP w okolicach czołowo-centralnych (komponent AP), widoczną od około 160 do około 300 ms po prezentacji bodźca. Efekt ten jednak nie osiągnął poziomu istotności statystycznej [F(1,21) = 3,83; p = 0,064]. Ekspozycja twarzy emocjonalnych wywołała także komponent EPN zanotowany około 240–340 ms. Zapis przebiegu potencjałów ERP zarejestrowanych w tym oknie czasowym wskazuje na obecność dodatkowej ujemnej fali wywołanej przez ekspozycję twarzy emocjonalnych [F(1,21) = 30,59; p < 0,0001]. Opisane wyniki zostały zilustrowane na ryc. 7 i 8. 6.2.3. Dyskusja wyników uzyskanych w eksperymencie 1 Głównym celem zastosowanej manipulacji było potwierdzenie roli uwagi w procesie odbioru ekspresji emocjonalnej. Oczekiwano, że jeśli mechanizm uwagi wpły-wa istotnie na przetwarzanie mimiki twarzy, to różnica w przebiegu potencjałów ERP rejestrowanych w badaniu w odpowiedzi na twarze emocjonalne i neutralne będzie miała inną charakterystykę, gdy uwaga zostanie skierowana na te cechy twarzy, które są istotne dla rozpoznania komunikatu emocjonalnego, oraz wtedy, gdy uwaga zostanie zaangażowana w klasyfikację płci twarzy. Wydawało się, że umożliwi to wydzielenie tych etapów przetwarzania twarzy, na których zachodzi proces różnicowania emocjonalnych sygnałów mimicznych i określenie, w jaki sposób etapy ten są powiązane z aktywnością mechanizmu uwagi. Wszystkie bowiem różnice w przebiegu potencjałów ERP w próbach z ekspozycją twarzy emocjonalnych i neutralnych, które byłyby obserwowane wyłącznie w przypadku zadania wyma-gającego rozpoznania ekspresji, można wiązać z modulującym wpływem uwagi o charakterze dowolnym. Natomiast zróżnicowanie w zapisie ERP wywołane przez emocjonalne znaczenie twarzy i obserwowane jednocześnie w przypadku obu zastosowanych zadań można kojarzyć z procesami mimowolnymi. Uzyskane wyniki pozwalają stwierdzić, że oba typy procesów, związane z mimowolnym oraz dowolnym różnicowaniem ekspresji emocjonalnej, charakteryzują specyficzne korelaty w postaci komponentów ERP odmiennych pod względem ich topografii mózgowej oraz okna czasowego, w którym są obserwowane. Zanotowano, iż ekspozycja twarzy emocjonalnych wywołuje silniej wyrażony komponent N170 rejestrowany w okolicach potyliczno-skroniowych w porównaniu z twarzami neutralnymi (zob. ryc. 8). Jak przedstawiono to w części wstępnej, komponent ten jest traktowany jako specyficzny korelat procesu przetwarzania twarzy ze względu na fakt, iż ma wyższą amplitudę w odpowiedzi na ekspozycję twarzy w porównaniu z wieloma innymi obiektami (por. rozdział 4). Sugeruje się też jego związek z późnymi fazami analizy strukturalnej twarzy (Eimer, 2000a; 2000b; Bentin i Deouell, 2000). Biorąc pod uwagę, iż opisany efekt został PO3 PO4 twarze neutralne twarze emocjonalne Ryc. 7. Przebieg uśrednionych potencjałów ERP zarejestrowanych w zadaniu RET uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy emocjonalnych (radość + złość). Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (140–185 ms), AP (160–300 ms) oraz EPN (240–340 ms) zaobserwowany wyłącznie w zadaniu, w którym uwaga była explicite angażowana w rozpoznawanie ekspresji mimicznej, i był jednocześnie nieobecny, gdy zadanie polegało na klasyfikacji płci twarzy, można wysnuć wniosek, że odzwierciedla on wpływ, jaki mechanizm uwagi dowolnej wywiera na proces oceny emocjonalnych sygnałów mimicznych. Ryc. 8. Mapy potencjałów ERP prezentujące efekty ekspresji emocjonalnej uzyskane w zdaniu RPT oraz RET. Mapy przedstawiają różnicę w średnich wartościach uzyskanych dla trzech testowanych komponentów: N170 (140–185 ms), AP (160–300 ms) oraz EPN (240–340 ms). W każdym przypadku kolory wskazu-jące na wartości ujemne oznaczają, że w odpowiedzi na prezentację twarzy emocjonalnych uzyskano niższe średnie wartości w porównaniu z twarzami neutralnymi. Podobnie kolory wskazujące na wartości dodatnie oznaczają, że w odpowiedzi na prezentację twarzy emocjonalnych uzyskano wyższe średnie wartości w porównaniu z twarzami neutralnymi RPT RET RPT RET RPT RET Jednocześnie jednak wyniki eksperymentu wskazują, iż ekspresja emocjonalna, ze względu na swoje znaczenie dla funkcjonowania społecznego, może samoistnie zaangażować system uwagowy. Proces taki ma wówczas prawdopodobnie charakter mimowolny. Efekt takiego rodzaju został zaobserwowany w postaci dodatkowej fali dodatniej rejestrowanej w odpowiedzi na prezentację twarzy emocjonalnych w okolicach czołowych między 160 a 300 ms zapisu ERP (komponent AP). O mimowolnym charakterze tego procesu świadczy fakt, że rezultat ten został uzyskany w podobnej postaci w obu zastosowanych zadaniach (zob. ryc. 8), tym samym jego pojawienie się było niezależne od ukierunkowania uwagi. Podobną pod tym względem charakterystykę miał także, później występujący, komponent EPN, uzyskiwany w przedziale od 240 do 340 ms po prezentacji bodźca. W tym przypadku obserwowano w odpowiedzi na ekspozycję twarzy emocjonalnych pogłębioną falę ujemną rejestrowaną w okolicach potylicznych i potyliczno-skroniowych (zob. ryc. 8). Ten efekt również wykazywał podobne właściwości w obu zadaniach, co może świadczyć o jego związku z nieintencjonalnym różnicowaniem ekspresji emocjonalnej. Ze względu na różnice w czasie pojawiania się kolejnych efektów związanych z ekspresją emocjonalną oraz ich odmienną topografię mózgową uzasadnione jest przypuszczenie, iż mamy tu do czynienia z grupą procesów odrębnych na poziomie zarówno psychologicznym, jak i neurofi zjologicznym. Komponent N170 W sytuacji gdy uwaga była zaangażowana w różnicowanie ekspresji emocjonalnej, stwierdzono pogłębioną amplitudę ujemnego komponentu N170 dla twarzy emocjonalnych w porównaniu z neutralnymi. Rezultat ten jest zgodny z wynikami uzyskiwanymi przez innych badaczy wskazujących na zróżnicowanie w zakresie amplitudy tego komponentu w zależności od ekspresji mimicznej (Batty i Taylor, 2003; Blau i in., 2007; Miyoshi, Katayama i Morotomi, 2004; Rigato, Farroni i Johnson, 2010; Vlamings, Goffaux i Kemner, 2009). Warto jednak zauważyć, że w większości tych badań nie stosowano warunku kontrolnego pozwalającego jednoznacznie powiązać zmianę w wielkości komponentu N170 z modulującym wpływem uwagi. Zróżnicowanie w zakresie amplitudy N170 można zaobserwować także wówczas, gdy porównamy zapis ERP dla ekspresji o różnej intensyw-ności. Wynik taki obserwowali Sprengelmeyer oraz Jentzsch (2006), wskazując, że im silniej wyrażona jest emocja, tym wyższą amplitudę ma komponent N170. Zarówno wynik uzyskany w naszym badaniu, jak i rezultaty poprzednich eksperymentów wskazują, iż zmiana w aktywności mózgu związana z procesem różnicowania wyrazu mimicznego zaczyna być widoczna około 140–150 ms po ekspozycji bodźca i może być skutkiem modulującego wpływu uwagi. Uzyskany efekt był wyraźny w przypadku prawej półkuli mózgu i jednocześnie prawie zupełnie nieobecny w lewej jego połowie. Ta różnica może być związana z funkcjonalną lateralizacją procesów uwikłanych w przetwarzanie twarzy, a w szczególności ekspresji emocjonalnej. Amplituda komponentu N170 rejestrowanego po prawej stronie jest zazwyczaj istotnie wyższa w porównaniu z półkulą lewą (Bentin i in., 1996; Campanella i in., 2000; Rossion, Joyce, Cottrell i Tarr, 2003; Yovel i in., 2003). W przypadku badań z wykorzystaniem technik neuroobrazo-wania uzyskiwano wielokrotnie wyniki sugerujące, że umiejscowione po prawej stronie mózgu obszary specyficznie zaangażowane w przetwarzanie twarzy mają większe rozmiary w porównaniu z lewą połową mózgu (Kanwisher, McDermott i Chun, 1997; Kanwisher i Yovel, 2006). Co równie ważne w kontekście uzyskanych w opisywanym badaniu wyników, badania pacjentów z ogniskowymi uszkodzeniami mózgu wskazują, iż u osób z lezjami rejonów wokół STS w prawej półkuli obserwuje się deficyty w rozpoznawaniu ekspresji emocjonalnej o największym nasileniu (Adolphs, Damasio, Tranel i Damasio, 1996). Komponent AP Zróżnicowanie aktywności mózgu traktowane jako efekt ekspresji emocjonalnej pojawiło się również na późniejszym etapie w postaci wolno narastającej fali dodatniej rejestrowanej 160–300 ms po prezentacji twarzy. Wartości potencjału mierzonego w okolicach czołowo-centralnych w odpowiedzi na twarze emocjonalne były wyższe od tych uzyskanych dla twarzy neutralnych. Różnica ta okre-ślana mianem anterior positivity lub fronto-central positivity jest zbieżna z wynikami uzyskanymi przez innych badaczy (Ashley, Vuilleumier i Swick, 2004; Eimer i Holmes, 2002; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Holmes, Vuilleumier i Eimer, 2003). Zróżnicowanie to było obserwowane w przypadku obu zastosowanych zadań. Co więcej, efekt ten był nawet silniejszy wówczas, gdy osoby badane dokonywały klasyfikacji płci twarzy. Fakt, iż efekty obserwowane w obu zadaniach pojawiały się w porównywalnych oknach czasowych, oraz podobieństwo ich topografii mózgowej wskazują, że prawdopodobnie odzwierciedlają one podobny proces psychologiczny związany z wczesną fazą mimowolnego różnicowania sygnału mimicznego. Należy jednakże zauważyć, że taka interpretacja byłaby niezgodna z wnioskami przedstawionymi przez innych badaczy (Eimer, Holmes i McGlone, 2003; Holmes, Vuilleumier i Eimer, 2003). W swoich badaniach uzyskiwali oni efekt ekspresji emocjonalnej, o charakterze podobnym do obserwowanego w niniejszym eksperymencie, w sytuacji gdy uwaga osób badanych była ukierunkowana na prezentowane twarze. Jednocześnie notowali brak porównywalnego efektu, gdy uwaga była kierowana na inny obszar przestrzeni w celu analizy innego bodźca. Warto jednak zwrócić uwagę na to, że procedury eksperymentalne stosowane w badaniach grupy Eimera oraz procedura zastosowana w niniejszym badaniu różnią się przynajmniej w jednym istotnym elemencie. We wspomnianych badaniach Eimera i jego współpracowników w celu określenia wpływu uwagi na przetwarzanie ekspresji emocjonalnej manipulowano uwagą w przestrzeni poprzez prezentację twarzy oraz innych obiektów (np. zdjęć domów, pionowych linii) w odmiennych lokalizacjach przestrzennych. W takim przypadku rejestrowano zróżnicowanie w okolicach czołowo-centralnych, wówczas gdy uwaga była skupiona na twarzach oraz obserwowano często całkowity zanik tego efektu, gdy uwaga była skierowana na inny obiekt znajdujący się w innym obszarze przestrzeni. Takie zróżnicowanie może być wynikiem manipulacji przestrzennej. Co również warte podkreślenia, pomiędzy wspomnianymi powyżej badaniami przeprowadzonymi przez zespół Eimera istniały także dość szczególne różnice dotyczące zadania, jakie badani wykonywali. W jednym z eksperymentów (Eimer, Holmes i McGlone, 2003) uczestnicy oceniali twarze pod kątem ekspresji emocjonalnej, więc ich zadanie było zbliżone do jednego z wykorzystanych w naszym badaniu. W innym z badań (Holmes, Vuilleumier i Eimer, 2003) zastosowano odmienną instrukcję, nakazując uczestnikom dokonanie oceny stopnia, w jakim dwie prezentowane jednocześnie twarze są fizycznie identyczne. To zadanie nie wymagało więc explicite rozróżniania ekspresji. Tym samym procesy różnicowania ekspresji emocjonalnej mogły przebiegać w tym przypadku w sposób mimowolny, podobnie jak w zadaniu polegającym na klasyfikowaniu płci twarzy w naszym eksperymencie. W przeciwieństwie do metody stosowanej we wspomnianych powyżej badaniach Eimera i jego grupy procedura eksperymentalna wykorzystana w naszym badaniu zakładała manipulację w zakresie zaangażowania uwagi bez zmiany w lokalizacji przestrzennej istotnego bodźca. W każdym bowiem przypadku bodźcem tym była twarz i w każdej sytuacji była ona prezentowana centralnie. Biorąc więc pod uwagę wspomniane różnice w sposobie prezentacji bodźców i manipulacji eksperymentalnej, można postawić hipotezę, że brak w zapisie ERP efektu ekspresji emocjonalnej w okolicach czołowo-centralnych może być związany z prezentacją twarzy poza obszarem centralnego widzenia oraz przekierowaniem uwagi w stronę innego bodźca prezentowanego w innej niż twarz lokalizacji przestrzennej. Hipotezę tę częściowo wspierają wyniki uzyskane w badaniu Holmes, Kiss i Eimera (2006), w którym twarze neutralne oraz wyrażające strach były prezentowane centralnie, natomiast inne bodźce (dwie pionowe linie) były eksponowane po obu stronach zdjęcia twarzy. Efekt ekspresji emocjonalnej był widoczny w zapisie ERP rejestrowanym dla okolic czołowych w sytuacji wymagającej skupienia uwagi na twarzy. Efekt ten był osłabiony, lecz wciąż obecny, przynajmniej w swojej początkowej fazie, również podczas porównywania linii. Biorąc pod uwagę rezultaty badań Holmes i jej współpracowników (2006) oraz zanotowane w naszym badaniu, można stwierdzić, iż wczesny etap różnicowania ekspresji emocjonalnej, wyrażony w postaci komponentu AP, ma charakter mimowolny. Pierwszym z warunków determinujących jego wystąpienie jest ekspozycja twarzy w centralnej części pola widzenia, co umożliwia efektywną analizę informacji sensorycznych na wcześniejszych etapach. Drugim jest dostępność zasobów uwagi, obecna gdy uwaga nie jest silnie zaangażowana w przetwarzanie innych bodźców umiejscowionych w innych częściach pola widzenia. Komponent EPN Prezentacja twarzy emocjonalnych wywoływała również zróżnicowanie w zapisie ERP pojawiające się 240–340 ms po ekspozycji bodźca w okolicach potyliczno-skroniowych. Efekt ten określany mianem early posterior negativity (EPN) ma postać dodatkowej fali ujemnej rejestrowanej w przypadku twarzy emocjonalnych w porównaniu z neutralnymi. Co istotne ze względu na interpretację tego efektu, był on obserwowany w obu wykorzystanych zadaniach, co pozwala stwierdzić, iż odzwierciedla on modulację obszarów kory wzrokowej niezależną od charakteru zaangażowania mechanizmu uwagi w przetwarzanie bodźca. Wynik uzyskany w naszym badaniu jest zgodny z poprzednimi doniesieniami opisującymi podobne zróżnicowanie uzyskiwane w przypadku prezentacji materiału o odmiennej treści afektywnej. Przykładowo komponent EPN był rejestrowany w odpowiedzi na ekspozycję neutralnych oraz emocjonalnych obrazów z zestawu IAPS. W badaniach Schuppa i jego grupy (2003a; 2003b; 2004a) obserwowano konsekwentnie komponent EPN w przypadku obrazów wywołujących emocje zarówno pozytywne, jak i negatywne w podobnym oknie czasowym. Wyniki te blisko korespondują z danymi uzyskanymi w badaniach z wykorzystaniem fMRI, gdzie ekspozycja podobnych pozytywnych i negatywnych obrazów z zestawu IAPS wywoływała wzrost aktywacji obszarów kory wzrokowej w płacie potylicznym w porównaniu z obrazami neutralnymi (Junghöfer, Schupp, Stark i Vaitl, 2005). Modulację zapisu ERP o podobnym charakterze odnotowano również w badaniach z użyciem zdjęć twarzy. Sato i jego współpracownicy (2001) uzyskali komponent EPN rejestrowany 240–300 ms po ekspozycji bodźca w odpowiedzi na twarze wyrażające emocje negatywne i pozytywne. Podobny wynik został przedstawiony przez grupę Schuppa (2004b). W tym przypadku efekt ekspresji emocjonalnej był najlepiej widoczny około 280 ms po ekspozycji bodźca. Wiele wskazuje również na to, że im większe jest znaczenie afektywne prezentowanego materiału, tym wyraźniejszy jest komponent EPN. W badaniach Leppänena (Leppänen i in., 2007) obserwowano EPN w przypadku twarzy wyrażających silny strach w porównaniu z twarzami przedstawiającymi tę samą ekspresję o mniejszej intensywności. Wszystkie przywołane w tym miejscu wyniki sugerują, że bodźce o dużym znaczeniu emocjonalnym wywołują specyficzną aktywację w obrębie kory wzrokowej, która może być łączona z procesami dokładnej analizy danych sensorycznych zbieranych przez system wzrokowy. Co jednak ważne, efekt ten nie może być wiązany wyłącznie z ekspresją twarzy, gdyż można go otrzymać także dla innych rodzajów bodźców mających znaczenie emocjonalne. Podsumowanie uzyskanych wyników Podsumowując wyniki uzyskane w naszym eksperymencie, można stwierdzić, że ekspozycja ekspresji mimicznej wpływa na zapis potencjałów ERP na trzech odmiennych etapach przetwarzania twarzy. Trzy różne efekty uzyskane w opisanym pokrótce powyżej badaniu można wiązać z trzema różnymi procesami psychicznymi. Po pierwsze, uwaga zaangażowana w sposób dowolny w rozpoznawanie ekspresji mimicznej wpływa na aktywność rejonów wyższorzędowej kory wzrokowej. W ten sposób możliwe jest usprawnienie i przyspieszenie procesów detekcji istotnych charakterystyk twarzy i rozpoznania sygnału mimicznego. Efekt ten, mający postać modulacji o charakterze top-down, był obserwowany około 145–180 ms po ekspozycji twarzy. Po drugie, prezentacja ekspresji emocjonalnej prowadzi do mimowolnego za-angażowania systemu uwagowego, co uwidoczniło się w postaci dodatkowej fali dodatniej rejestrowanej w okolicach czołowych, począwszy od 160 ms po ekspozycji bodźca. Efekt ten może mieć charakter mimowolny, lecz ulega osłabieniu, w sytuacji gdy twarz pojawia się poza obszarem centralnego widzenia lub gdy uwaga jest skupiona w innej części przestrzeni niż ta, gdzie twarz jest eksponowana. Tym samym proces, którego korelatem elektrofizjologicznym jest komponent AP, zależy od efektywnego przetwarzania twarzy przez system wzrokowy oraz do-stępności wolnych zasobów uwagi. Po trzecie, jeśli prezentowana twarz wyrażająca określony stan emocjonalny wywoła mimowolne zaangażowanie mechanizmu uwagi, wówczas rezultatem może być wtórna modulacja obszarów kory wzrokowej, odpowiedzialnej za analizę dopływających w dalszym ciągu danych sensorycznych. Dodatkowe wzbudzenie w tym obszarze może skutkować dokładniejszym przetwarzaniem tych danych. Efekt ten był obserwowany około 240–340 ms po ekspozycji twarzy w postaci komponentu EPN, dodatkowej fali ujemnej pojawiającej się w przypadku twarzy emocjonalnych. Wiele również wskazuje na to, że proces ten ma charakter mimowolny, gdyż może być notowany niezależnie od wymagań zadania. Zastosowanie procedury eksperymentalnej wykorzystującej dwa odmienne zadania, różnie angażujące mechanizm uwagi, pozwoliło na uzyskanie danych sugerujących, iż proces przetwarzania ekspresji emocjonalnej podlega podobnym wpływom tego mechanizmu jak w przypadku innych procesów percepcyjnych (Beck i Kastner, 2009; Duncan, 2006; Kastner i Ungerleider, 2001). Można więc założyć, iż mechanizm uwagi moduluje aktywność poszczególnych części mózgowego systemu przetwarzania twarzy zależnie od zmieniających się wymagań otoczenia. W sytuacji gdy dla podmiotu szczególnie istotne staje się wyodrębnienie dynamicznych zmian pojawiających się na twarzy w postaci ekspresji emocjonalnej, mechanizm uwagi wywołuje wzrost pobudzenia tych części systemu, które są wyspecjalizowane w dekodowaniu mimiki twarzy. Natomiast w przypadku gdy relatywnie istotniejsze jest rozpoznanie stałych charakterystyk twarzy, jak przy rozpoznawaniu płci twarzy lub identyfikacji tożsamości jej właściciela, wówczas względnie silniejszemu pobudzeniu powinny podlegać elementy przeznaczone do takiej analizy. Co ważne, modulujący wpływ uwagi dowolnej, zaangażowanej w przetwarzanie ekspresji twarzy, na aktywność zakrętu wrzecionowatego obserwowano w dwóch eksperymentach (Vuilleumier, Armony, Driver i Dolan, 2001; Pessoa, McKenna, Gutierrez i Ungerleider, 2002). W obu badaniach wykorzystano manipulację uwagą w przestrzeni, ukierunkowując ją na przetwarzanie ekspresji mimicznej lub analizę innych obiektów, położonych w odmiennej części pola widzenia. W obu też przypadkach obserwowany był wyraźny spadek aktywności zakrętu wrzecionowatego, gdy uwaga nie była explicite zaangażowana w przetwarzanie twarzy. Na tej podstawie można sądzić, iż także rezultaty obserwowane w odniesieniu do amplitudy N170 mogą być również determinowane zmianą pobudzenia struktur mózgowych selektywnie angażowanych w przetwarzanie twarzy. Należy jednak mieć na uwadze, że wnioskowanie na podstawie wyników naszego badania powinno uwzględniać jego specyficzne ograniczenia. Pierwszym z nich było wykorzystanie jednej ogólnej kategorii twarzy wyrażających emocje i kontrastowanie ich z twarzami neutralnymi. Taka konstrukcja zadania była podyktowana koniecznością stworzenia procedury, w której prawdopodobieństwo pojawienia się bodźców zaliczanych do dwóch różnych kategorii, jednocześnie wymagających dwóch różnych reakcji, byłoby identyczne. Z taką sytuacją mamy do czynienia w przypadku zadania polegającego na identyfikacji płci twarzy, gdzie prezentowane bodźce należały do dwóch odrębnych kategorii i przypisano im dwa odmienne sposoby reagowania. W przypadku jednak zadania polegającego na identyfikacji ekspresji mimicznej stworzenie dwóch odrębnych kategorii bodźców byłoby możliwe albo przez wykorzystanie tylko dwóch rodzajów ekspresji (np. ekspresja radości oraz ekspresja neutralna), albo poprzez przeciwstawienie twarzom neutralnym całej gamy różnych ekspresji. Wykorzystanie pierwszej ewentualności ograniczałoby jednocześnie możliwość wnioskowania o zróżnicowaniu przetwarzania twarzy do wyłącznie jednej formy ekspresji. W przypadku ewentualności drugiej konieczne było zrównanie zsumowanej liczby prób dla prezentacji różnych ekspresji do wartości odpowiadającej liczbie prób dla twarzy neutralnych. Zastosowanie takiej procedury uniemożliwiło jednak bezpośrednie porównanie wszystkich użytych w badaniu rodzajów ekspresji mimicznej. Z tego względu nie można jednoznacznie stwierdzić, iż w przypadku twarzy wyrażających radość oraz złość mielibyśmy do czynienia z identycznymi efektami w zapisie potencjałów ERP, czy też obie formy ekspresji przetwarzane są w sposób odmienny na którymś z wyodrębnionych etapów. Ponadto na podstawie uzyskanych rezultatów nie było możliwe wnioskowanie o dokładnej mózgowej lokalizacji obserwowanych efektów. Zastosowana metoda, charakteryzująca się bardzo wysoką rozdzielczością czasową, jest jednakże relatywnie niedokładna w określaniu położenia źródła mierzonego potencjału. Precyzyjniejsze opisanie mózgowych struktur biorących udział w generowaniu efektu ekspresji emocjonalnej jest możliwe poprzez zastosowanie technik neuro-obrazowania, takich jak fMRI. Należy jednak pamiętać, że metodę tę, opartą na wolno powstającej reakcji hemodynamicznej, charakteryzuje relatywnie niska rozdzielczość czasowa uniemożliwiająca jednoznaczne określenie relacji między uzyskiwaną zróżnicowaną aktywacją struktur mózgowych a czasem, w jakim efekt jest generowany. Inną możliwością jest zastosowanie metod lokalizacji źródła potencjału, takich jak sLORETA (Standardized Low Resolution Electromagnetic Tomography). Pozwala ona na określenie struktur mózgu, które są zaangażowane w generowanie potencjału ERP, charakteryzując się przy okazji wysoką rozdzielczością czasową. Analizę z użyciem tej właśnie metody przedstawiono w następnej części pracy. Jej celem było określenie struktur mózgu podlegających wpływowi uwagi dowolnej. 6.3. Analiza lokalizacyjna efektów obserwowanych w eksperymencie 1 Biorąc pod uwagę rezultaty opisane powyżej, można założyć, iż mechanizm uwagi dowolnej w największym stopniu wpływa więc na wczesne etapy analizy twarzy, odpowiadające komponentowi N170. Jak wcześniej już wspomniano, część badaczy łączy ten komponent z końcowymi fazami analizy strukturalnej (Eimer, 2000a; 2000b; Bentin i Deouell, 2000). Niejasne jest wyłącznie to, do jakiego stopnia komponent N170 odzwierciedla procesy analizy stałych oraz zmiennych charakterystyk twarzy. Jednakże dane zebrane w badaniach wykorzystujących techniki lokalizacji źródła potencjału N170 lub jego odpowiednika rejestrowanego za pomocą MEG (M170) wskazują, że strukturami mózgu bezpośrednio związany-mi z generowaniem tych komponentów mogą być zarówno zakręt wrzecionowaty (Halgren i in., 2000; Itier, Latinus i Taylor, 2006; Rossion i in., 1999a; Rossion, Joyce, Cottrell i Tarr, 2003), jak i okolice STS (Itier i in., 2007; Itier and Taylor, 2004b). Z tego względu można przypuszczać, iż komponent N170 jest korelatem procesów istotnych dla identyfikacji tożsamości twarzy, ale także różnicowania ekspresji emocjonalnej. Koresponduje to blisko z wynikami wskazującymi na możliwość modulacji amplitudy tego komponentu przez ekspresję mimiczną (Batty i Taylor, 2003; Blau i in., 2007; Miyoshi, Katayama i Morotomi, 2004; Pegna, Landis i Khateb, 2008; Rigato, Farroni i Johnson, 2010; Sprengelmeyer i Jentzsch, 2006; Vlamings, Goff -aux i Kemner, 2009; Wronka i Walentowska, 2011). Rezultaty te sugerują, iż detekcja ekspresji mimicznej odbywa się na wczesnym etapie przetwarzania bodźca, co można wiązać ze zróżnicowaniem aktywności struktur kory wzrokowej. Sugestię tę wspierają wyniki nielicznych badań, w których podjęto próbę lokalizacji efektu ekspresji emocjonalnej obserwowanej w zapisie ERP. Pourtois i jego współpracownicy (2004) zarejestrowali zmianę w zapisie ERP pojawiającą się około 100 ms po bodźcu w odpowiedzi na prezentację ekspresji pozytywnych i negatywnych. Wyniki ich analizy lokalizacyjnej pozwalają wiązać ten wynik ze zmianą pobudzenia w obrębie zakrętu językowego (lingual gyrus) oraz klinka (cuneus). Batty i Taylor obserwowały istotne zróżnicowanie w amplitudzie N170 wywołane przez prezentację różnych ekspresji emocjonalnych i jednocześnie rejestrowały wyraźną obustronną aktywację w rejonie górnego oraz środkowego zakrętu skroniowego. Uwzględniając ponadto przywołane już wcześniej wyniki badań wskazujących na silny wpływ uwagi na procesy rozpoznawania ekspresji mimicznej (Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Holmes, Vuilleumier i Eimer, 2003; Eimer i Holmes, 2007; Pessoa, McKenna, Gutierrez i Ungerleider, 2002; Sil-vert i in., 2007), możemy postawić tezę, iż działanie mechanizmu uwagi może być jednym z głównych czynników determinujących przebieg procesów różnicowania ekspresji emocjonalnej poprzez odmienne wzorce pobudzenia struktur mózgu istotnych dla jej identyfi kacji. Wpływ uwagi na procesy percepcyjne jest bardzo dobrze udokumentowany. Mechanizm uwagi pozwala na zmianę procesów przetwarzania informacji, co powoduje, iż świadomie odbieramy tylko wybrane partie danych przetwarzanych pierwotnie przez narządy zmysłów. Wpływ ten można obserwować w zapisie potencjałów ERP rejestrowanych w odpowiedzi na bodźce wzrokowe (Hillyard i Anllo-Vento, 1998; Hillyard, Teder-Sälejärvi i Münte, 1998; Hillyard, Vogel i Luck, 1998; por. także Wronka, 2004). Manipulacja umiejscowieniem ogniska uwagi w przestrzeni powoduje, iż wzrasta amplituda wczesnych komponentów P1 oraz N1 mierzonych dla bodźców, na które uwaga jest skierowana w porównaniu z identycznymi bodźcami eksponowanymi poza ogniskiem uwagi. Wpływ mechanizmu uwagi może być również obserwowany, gdy manipulujemy charakterystykami cech kluczowych obiektu, takimi jak jego kolor i kształt (Anllo-Vento, Luck i Hillyard, 1998; Han, He i Woods, 2000; Taylor, 2002) lub nawet płeć twarzy (Mouchetant-Rostaing i in., 2000). Zróżnicowanie obserwuje się wówczas również w odniesieniu do komponentów P1 oraz N1 (N170). Zmiana amplitudy tych komponentów jest interpretowana jako przejaw wpływu o charakterze top-down (Beck i Kastner, 2009; Hillyard, Vogel i Luck, 1998; Kastner i Ungerleider, 2001; Pessoa, Kastner i Ungerleider, 2002). Dane pochodzące z badań wykorzystujących techniki neuroobrazowania wskazują, że wynik ten wiąże się z modulacją aktyw-ności dużych grup neuronów, zależną od ukierunkowania procesu przetwarzania informacji sensorycznych (Kastner i Ungerleider, 2000). Celem przeprowadzonej analizy lokalizacyjnej było określenie charakteru różnic w aktywacji struktur systemu wzrokowego w zależności od ukierunkowania procesu przetwarzania twarzy. Zakładano, że w zadaniu RPT mechanizm uwagi może wywołać relatywny wzrost aktywacji układu dekodującego stałe charakterystyki twarzy (zakręt wrzecionowaty), podczas gdy w zadaniu RET względnie silniejsze pobudzenie może być obserwowane w systemie wyspecjalizowanym w ocenie zmiennych charakterystyk twarzy (rejon STS). Takie zróżnicowanie wzorców aktywności mózgu byłoby zgodne z modelem Haxby’ego (Haxby, Hoff man i Gobbini, 2000; 2002). 6.3.1. Opis metody Analizę przeprowadzono na danych zgromadzonych w eksperymencie 1. Opis grupy uczestników eksperymentu oraz procedury czytelnik znajdzie w podrozdziale 6.2.1. sLORETA – Standardized Low Resolution Electromagnetic Tomography Źrodła aktywności bioelektrycznej, będące podłożem obserwowanych na powierzchni głowy potencjałów ERP, były estymowane z wykorzystaniem programu sLORETA w wersji z 2008 roku (program jest dostępny na stronie http://www. uzh/ch/keyinst/loreta.htm). Program ten umożliwia uzyskanie obrazu trójwymiarowego dystrybucji gęstości prądu (current density) w ludzkim mózgu. Wersja programu użyta w analizie wykorzystuje realistyczny model ludzkiej głowy z uwzględnieniem elektrycznych właściwości skóry głowy, kości czaszki oraz płynu mózgowego i opon mózgowych (Fuchs i in., 2002), a także przestrzennej lokalizacji elektrod (Jurcak i in., 2007). Wszystkie obliczenia przeprowadzono z wykorzystaniem modelu mózgu opracowanego przez Montreal Neurological Institute – MNI (Mazziotta i in., 2001). Nazewnictwo anatomiczne użyte w programie zostało opracowane przez MNI z uwzględnieniem korekcji dla przestrzeni Talairacha (Brett i in., 2002). Pełny opis tej metody przedstawiono w pracy Pascu-ala-Marqui (2002). Lokalizacja generatorów potencjałów ERP w tej metodzie jest ograniczona do obszarów korowych oraz struktur hipokampa (Lancaster i in., 2000). Rejony te są odwzorowane w postaci 6239 voxeli, co pozwala na ustalenie położenia źródła potencjału z dokładnością do 5 mm. Obrazy sLORETA korespondujące z komponentami P1 oraz N170 zostały zdefiniowane jako średnie wartości dla gęstości prądu dla interwałów pomiędzy 90 a 130 ms po prezentacji bodźca dla P1 oraz pomiędzy 140 a 185 ms dla N170. Analiza statystyczna dotycząca różnic we wzorach aktywności mózgu została przeprowadzona z użyciem testów nieparametrycznych (SnPM) dla prób zależnych z korekcją dla porównań wielokrotnych, będących częścią programu LORETA (Nichols i Holmes, 2002). 6.3.2. Opis wyników Wyniki elektrofizjologiczne Zapis potencjałów ERP uzyskany w obu zadaniach różnił się znacząco pomiędzy 110 a 170 ms po prezentacji bodźca, czyli w oknie czasowym obejmującym komponenty P1 oraz N170. Rezultat ten został przedstawiony na ryc. 9. W zapisie potencjałów rejestrowanych w zadaniu wymagającym rozpoznawania ekspresji emocjonalnej uzyskano charakterystyczną falę dodatnią w porównaniu z poten-cjałami obserwowanymi w zadaniu różnicowania płci twarzy. Efekt ten został zarejestrowany na odprowadzeniach potylicznych [F(1,21) = 6,28; p = 0,021] oraz potyliczno-skroniowych [F(1,21) = 4,25; p = 0,052], a jego wielkość była porównywalna po obu stronach mózgu. W rezultacie w zadaniu RET zanotowano wyższe wartości amplitudy komponentu P1 mierzonego w okolicach potylicznych w porównaniu z zadaniem RPT [F(1,21) = 10,92; p = 0,003]. W zadaniu różnicowania ekspresji emocjonalnej zanotowano również słabiej wyrażony komponent N170 w porównaniu z zadaniem RPT, lecz różnica ta okazała się nieistotna statystycznie [F(1,21) = 2,47; p = 0,131]. PO3 PO4 zadanie RPT zadanie RET Ryc. 9. Przebieg uśrednionych potencjałów ERP zarejestrowanych w zadaniu RPT oraz zadaniu RET uzyskanych dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno--skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w zadaniu RPT, linia w kolorze czerwonym ilustruje potencjały zarejestrowane w zdaniu RET. Okna czasowe dla poszczególnych komponentów oznaczono dla odpowiednich elektrod: P1 (90–130 ms) oraz N170 (140–185 ms) Podsumowując analizy przeprowadzone w odniesieniu do wczesnych faz przetwarzania informacji, zobrazowanych w postaci komponentów P1 oraz N170, możemy stwierdzić, iż uwaga w istotny sposób wpłynęła na proces analizy twarzy, wywołując różnice w charakterystykach obu komponentów ERP. Zróżnicowanie to ma postać charakterystycznej fali dodatniej rejestrowanej w zadaniu wymagającym od osób badanych różnicowania ekspresji mimicznej. W rezultacie uzyskano również odmienne wartości amplitud komponentu P1 oraz w mniejszym stopniu N170. Wyniki analizy lokalizacyjnej – sLORETA Komponent P1 Wyniki uzyskane za pomocą sLORETA pozwalają stwierdzić, że prezentacja twarzy wywoływała rozległą aktywację różnych fragmentów mózgu, gdy mierzono ją w oknie czasowym odpowiadającym komponentowi P1 (90–130 ms po ekspozycji bodźca). Wśród rejonów mózgu uważanych za elementy systemu odpowiedzialnego za przetwarzanie twarzy stwierdzono obustronną aktywację zakrętu wrzecionowatego, OFA oraz wokół STS. Silniejsze odpowiedzi zarejestrowano po prawej stronie mózgu w przypadku wszystkich tych rejonów. Stwierdzono również widoczne pobudzenie obszarów położonych w sąsiedztwie lub zaliczanych do wyższorzędowej kory wzrokowej. Wśród tych obszarów wymienić należy klinek, przedklinek, górny zakręt potyliczny, zakręt językowy, dolny i środkowy zakręt skroniowy, zakręt przyhipokampalny, zakręt kątowy oraz zakręt nadbrzeżny. Stwierdzono również aktywację kory w tylnych częściach górnego i dolnego płacika ciemieniowego oraz kory wyspy. Wzorce aktywacji uzyskane dla okna czasowego komponentu P1 w obu zadaniach zostały przedstawione na ryc. 10. Bezpośrednie porównanie wzorców aktywacji uzyskanych w obu zadaniach ujawniło wiele części mózgu, w których stwierdzono silniejsze pobudzenie, wówczas gdy zadaniem było rozpoznawanie ekspresji emocjonalnej w porównaniu z zadaniem wymagającym identyfikacji płci twarzy. Efekt taki obserwowano obustronnie w przypadku zakrętu obręczy, płacika okołośrodkowego, przedklin-ka oraz górnego płacika ciemieniowego. Ponadto stwierdzono istotnie silniejsze pobudzenie w obrębie górnego i dolnego zakrętu skroniowego oraz kory wyspy. W przypadku tych struktur mózgu efekt został zlokalizowany wyłącznie w prawej półkuli. Wszystkie obszary, dla których uzyskano istotne różnice w poziomie pobudzenia przy porównaniu obu zadań w oknie czasowym komponentu P1, zosta-ły przedstawione w tab. 1 oraz na ryc. 11. Komponent N170 W przypadku okna czasowego komponentu N170 (140–185 ms po prezentacji bodźca) również stwierdzono rozległą aktywację różnych fragmentów mózgu. Pobudzenie zlokalizowano w obrębie zakrętu wrzecionowatego, OFA oraz wokół STS. Stwierdzono też silniejszą aktywację tych części mózgu w prawej półkuli. ZADANIE RPT P1 N170 ZADANIE RET P1 N170 lewa półkulalewa półkulaprawa półkulaprawa półkulaobie półkulepowierzchnia boczna powierzchnia przyśrodkowa powierzchnia boczna powierzchnia przyśrodkowa powierzchnia brzuszna Ryc. 10. Obrazy sLORETA odzwierciedlające wzorce aktywacji mózgu wywołane przez ekspozycję twarzy (uśredniono wszystkie ekspresje) w oknach czasowych odpowiadających komponentom P1 oaz N170 (odpowiednio: 90–130 ms oraz 140–185 ms po bodźcu). W górnej części ryciny przedstawiono wyniki uzyskane dla zadania RPT, w dolnej dla zadania RET Widoczne pobudzenie zanotowano również w przypadku grupy struktur zaliczanych do wyższorzędowych elementów kory wzrokowej lub z nią sąsiadujących. Do tych części mózgu należą: klinek, przedklinek, środkowy i górny zakręt potyliczny, zakręt językowy, dolny i środkowy zakret skroniowy, zakręt przyhipokam-palny, zakręt kątowy, zakręt nadbrzeżny oraz kora wyspy. Ponadto stwierdzono obustronną aktywację obszarów pierwszorzędowych kory wzrokowej. Wynik ten może być związany z wtórnym pobudzeniem tego obszaru wywołanego przez połączenia wsteczne pochodzące z wyższorzędowych rejonów systemu wzrokowego. Wzorce pobudzenia uzyskane dla obu zadań zostały zilustrowane na ryc. 10. Bezpośrednie porównanie aktywności zarejestrowanej w obu zadaniach pozwoliło wyłonić struktury, których pobudzenie było silniejsze w zadaniu RET P1 (90–130 ms) RET > RPT N170 (140–185 ms) RET > RPT Ryc. 11. Ilustracja wyników analizy statystycznej przeprowadzonej za pomocą sLORETA, w której porównano wzorce aktywacji mózgu zarejestrowane w zadaniach RPT oraz RET w oknach czasowych odpowiadającym komponentom P1 oraz N170 (odpowiednio: 90–130 ms oraz 140–185 ms po bodźcu). Panel górny: kolorami (zob. skala) oznaczono obszary istotnie silniej pobudzone w zadaniu RET w porównaniu z RPT (próg dla testu t = 4,18; p = 0,05) w oknie czasowym komponentu P1. Panel dolny: kolorami (zob. skala) oznaczono obszary istotnie silniej pobudzone w zadaniu RET w porównaniu z RPT (próg dla testu t = 3,77; p = 0,05) w oknie czasowym komponentu N170. Skrótami oznaczono najważniejsze struktury mózgu: AG – zakręt kątowy, FG – zakręt wrzecionowaty, Ins – kora wyspy, IPL – dolny płacik ciemieniowy, ITG – dolny zakręt skroniowy, MTG – środkowy zakręt skroniowy, PCG – tylna część zakrętu obręczy, PCN – przedklinek, SPL – górny płacik ciemieniowy, STG – górny zakręt skroniowy Tabela 1. Najważniejsze struktury mózgu, w których stwierdzono istotnie wyższą aktywację w zadaniu RET w porównaniu z zadaniem RPT (t = 4,18 odpowiada p = 0,05; t = 5,52 odpowiada p = 0,01). Wszystkie statystyki odnoszą się do porównań w oknie czasowym komponentu P1 (90–130 ms po bodźcu). W tabeli podano koordynanty MNI dla voxeli o najwyższej wartości testu t w obrębie danej struktury Struktura mózgu Półkula mózgu Koordynanty MNI Wartość testu t (pole Brodmanna) x y z Płacik okołośrodkowy prawa BA 5 5 ‒45 50 6,72 Płacik okołośrodkowy lewa BA 5 ‒5 ‒45 50 6,45 Zakręt obręczy prawa BA 31 5 ‒50 45 6,97 Zakręt obręczy lewa BA 31 ‒5 ‒50 40 6,62 Zakręt przyhipokampalny prawa BA 30 10 ‒50 0 4,58 Zakręt przyhipokampalny lewa BA 30 ‒10 ‒50 0 4,22 Klinek prawa BA 7 5 ‒70 30 5,23 Klinek lewa BA 7 ‒5 ‒70 30 5,02 Zakręt językowy prawa BA 18 20 ‒55 5 4,66 Zakręt językowy lewa BA 18 ‒10 ‒55 0 4,22 Zakręt kątowy prawa BA 39 35 ‒65 35 5,03 Dolny płacik ciemieniowy prawa BA 40 30 ‒60 45 5,42 Zakręt zaśrodkowy prawa BA 2 25 ‒40 65 4,75 Zakręt zaśrodkowy lewa BA 2 ‒25 ‒40 65 4,21 Przedklinek prawa BA 7 5 ‒55 45 6,97 Przedklinek lewa BA 7 ‒5 ‒55 45 6,67 Górny płacik ciemieniowy prawa BA 7 10 ‒65 55 6,32 Górny płacik ciemieniowy lewa BA 7 ‒10 ‒65 55 5,62 Zakręt nadbrzeżny prawa BA 40 40 ‒50 35 4,76 Kora wyspy prawa BA 13 35 ‒40 20 4,37 Środkowy zakręt skroniowy prawa BA 39 35 ‒65 25 4,79 Górny zakręt skroniowy prawa BA 39 35 ‒60 30 5,19 w porównaniu z zadaniem RPT. Obustronny efekt zanotowano dla zakrętu obręczy, klinka i przedklinka oraz zakrętu językowego. Silniejszą aktywację, jednakże ograniczoną tylko do prawej połowy mózgu, stwierdzono w zadaniu rozpoznawania ekspresji również w przypadku zakrętu wrzecionowatego, górnego i dolnego zakrętu skroniowego oraz górnego płacika ciemieniowego. Obszary, dla których uzyskano istotne różnice w poziomie pobudzenia przy porównaniu obu zadań w oknie czasowym komponentu N170, zostały przedstawione w tab. 2 oraz na ryc. 11. 6.3.3. Dyskusja wyników uzyskanych w analizie lokalizacyjnej Celem przeprowadzonej analizy było określenie neuronalnych korelatów modu-lującego wpływu uwagi na wczesnych etapach procesu rozpoznawania ekspresji emocjonalnej. Zakładano, iż mechanizm uwagi może wywołać zmiany w aktywno-ści struktur mózgu, utożsamianych z mózgowym systemem przetwarzania twarzy, czego rezultatem jest zróżnicowanie we wzorcach zapisu potencjału ERP. Oczekiwano, że zróżnicowanie o takim charakterze może być obserwowane poprzez porównanie przebiegu potencjałów w warunku, gdy uwaga jest nakierowana na analizę charakterystyk twarzy istotnych dla rozpoznania ekspresji mimicznej oraz gdy uwaga jest zaangażowana w ocenę charakterystyk twarzy istotnych dla identyfikacji jej tożsamości. Podstawą takiej hipotezy jest anatomiczna separacja struktur specyficznie angażowanych w trakcie analizy stałych charakterystyk twarzy, lokalizowanych w zakręcie wrzecionowatym oraz częściach mózgu związanych z przetwarzaniem zmiennych charakterystyk twarzy, położonych w okolicach STS (Haxby, Hoffman i Gobbini, 2000; 2002; zob. także rozdział 2). Z tego względu odmienne wykorzystanie mechanizmu uwagi w trakcie wykonywania zadania RET oraz RPT mogłoby skutkować zróżnicowanym pobudzeniem tych struktur. Przewidywano, iż takie zjawisko będzie obserwowane w przypadku okolic STS, których wyższej aktywacji oczekiwano w zadaniu wymagającym rozpoznawania ekspresji emocjonalnej. Ze względu na fakt, że specyficzne dla twarzy pobudzenie w tej strukturze może być rejestrowane około 90 ms po ekspozycji bodźca (Batty i Taylor, 2003), założono, iż różnice w aktywności mózgu notowanej w dwóch zastosowanych zadaniach pojawią się około 100 ms po prezentacji twarzy, w oknie czasowym komponentu P1. Wyniki uzyskane w przeprowadzonej analizie pozwalają stwierdzić, że wpływ mechanizmu uwagi jest obserwowany, począwszy od 110 ms po pojawieniu się twarzy. Zanotowano dodatkową falę dodatnią, o czasie latencji porównywalnym z komponentem P1, pojawiającą się w okolicach potylicznych i potyliczno-skroniowych, w sytuacji gdy osoby badane wykonywały zadanie RET w porównaniu z zadaniem wymagającym określenia płci twarzy. Czas trwania tej fali wynosi około 60 ms, co skutkuje także modulacją amplitudy komponentu N170. Jednak Tabela 2. Najważniejsze struktury mózgu, w których stwierdzono istotnie wyższą aktywację w zadaniu RET w porównaniu z zadaniem RPT (t = 3,77 odpowiada p = 0,05; t = 4,73 odpowiada p = 0,01). Wszystkie statystyki odnoszą się do porównań w oknie czasowym komponentu N170 (140–185 ms po bodźcu). W tabeli podano koordynanty MNI dla voxeli o najwyższej wartości testu t w obrębie danej struktury Struktura mózgu Półkula mózgu Koordynanty MNI Wartość testu t (pole Brodmanna) x y z Zakręt przyhipokampalny prawa BA 19 25 ‒55 ‒5 3,79 Zakręt obręczy prawa BA 18 25 ‒70 15 4,27 Zakręt obręczy lewa BA 23 ‒5 ‒60 15 3,79 Klinek prawa BA 18 15 ‒70 15 4,28 Klinek lewa BA 7 ‒5 ‒70 30 4,18 Dolny zakręt potyliczny prawa BA 19 40 ‒75 ‒10 3,88 Zakręt językowy prawa BA 18 10 ‒65 5 4,10 Zakręt językowy lewa BA 18 ‒5 ‒70 0 3,90 Środkowy zakręt potyliczny prawa BA 19 40 ‒70 5 4,22 Zakręt kątowy prawa BA 39 35 ‒65 35 4,02 Przedklinek prawa BA 31 15 ‒70 25 4,39 Przedklinek lewa BA 7 ‒5 ‒75 35 4,20 Górny płacik ciemieniowy prawa BA 7 30 ‒75 45 4,02 Zakręt wrzecionowaty prawa BA 37 50 ‒60 ‒15 4,06 Zakręt wrzecionowaty prawa BA 19 50 ‒65 ‒20 4,01 Dolny zakręt skroniowy prawa BA 19 50 ‒60 ‒5 4,14 Środkowy zakręt skroniowy prawa BA 39 45 ‒65 15 4,40 Górny zakręt skroniowy prawa BA 22 45 ‒60 15 4,38 Zakręt nadbrzeżny prawa BA 40 60 ‒55 20 4,00 że w przypadku tego komponentu zmiana amplitudy jest wyraźnie słabsza w porównaniu z efektem rejestrowanym dla komponentu P1. Zaobserwowany efekt koresponduje bezpośrednio z rezultatami badań prowadzonych z wykorzystaniem techniki rejestracji potencjałów ERP nad problemem wpływu uwagi na przetwarzanie różnych charakterystyk bodźców wzrokowych. Przykładowo, Anllo-Vento ze swoim zespołem stwierdzili występowanie dodatkowej fali dodatniej w oknie czasowym komponentu P1 (100–140 ms po bodźcu) w odpowiedzi na pojawienie się kolorowych bodźców, gdy instrukcja nakazywała zwracanie na nie uwagi, w porównaniu z sytuacją, gdy takie same bodźce nie były istotne. Efekt ten określany jest w literaturze przedmiotu mianem early positive diff erence (PD130) i jest rejestrowany w okolicach kory potyliczno-ciemieniowej (Hillyard i Anllo-Vento, 1998; Anllo-Vento, Luck i Hillyard, 1998). Oznacza to, iż uwaga dowolna może wywołać zmianę w procesie przetwarzania bodźców wzrokowych, modulując wczesne etapy ich analizy poprzez wywołanie dodatkowego pobudzenia mającego postać fali dodatniej. W rezultacie rejestrowane są różnice w wielkości amplitudy P1. Wyższe amplitudy tego komponentu notuje się również, porównując zapis potencjałów uzyskanych w odpowiedzi na bodźce zna-czące (target) oraz nieznaczące (non-target), stosowane zazwyczaj w charakterze dystraktorów (Taylor, 2002). Przedstawione powyżej zróżnicowanie dotyczyło interwału 110–170 ms po ekspozycji bodźca. Na tej podstawie można wyciągnąć wniosek, iż modulacja uwagowa dotyczy etapów przetwarzania twarzy poprzedzających lub bezpośrednio związanych z analizą strukturalną twarzy, której wskaźnikiem może być, jak uwa-ża wielu badaczy, komponent N170 (Eimer, 2000a; 2000b; Itier and Taylor, 2004). Koresponduje to z faktem, iż najwcześniej obserwowane i jednocześnie związane z efektem ekspresji emocjonalnej różnice w zapisie potencjałów ERP odnotowano w odniesieniu do komponentu P1 (Holmes, Kragh Nielsen i Green, 2008; 2009; Po-urtois i in., 2004) lub komponentu N170 (Batty i Taylor, 2003; Blau i in., 2007; Miyoshi, Katayama i Morotomi, 2004; Rigato, Farroni i Johnson, 2010; Sprengelmeyer i Jentzsch, 2006; Vlamings, Goffaux i Kemner, 2009; Wronka i Walentowska, 2011). W badaniu Pourtois i jego grupy (2004) zaobserwowano wyższe amplitudy komponentu P1 w odpowiedzi na prezentację twarzy wyrażających emocję strachu w porównaniu z ekspresją radości. Wynik ten sugeruje, że różne rodzaje ekspresji emocjonalnej mogą wywoływać silniejsze lub słabsze skutki w postaci zróżnicowania amplitud wczesnych komponentów ERP. W opisanym wcześniej eksperymencie (Wronka i Walentowska, 2011) zastosowano zdjęcia twarzy wy-rażających złość zamiast przedstawiających strach. Jednak nie zanotowano efektu ekspresji emocjonalnej w odniesieniu do amplitudy P1. Możliwe więc, iż również w obrębie grupy ekspresji negatywnych istnieją spore różnice w odniesieniu do siły efektu rejestrowanego za pomocą technik elektrofizjologicznych. Warto w tym miejscu podkreślić, że również Amanda Holmes (Holmes, Kragh Nielsen i Green, 2008; Holmes i in., 2009) użyła zdjęć twarzy wyrażających strach, uzyskując różnice w wielkości amplitudy komponentu P1 między zapisami uzyskanymi dla tej właśnie ekspresji oraz ekspresji neutralnej. Jednocześnie nie zanotowano w tych badaniach podobnego wyniku, porównując ekspresję radości oraz neutralną. Należy również podkreślić, iż w badaniu Pourtois wykorzystano paradygmat dot-probe, gdzie w lewej i prawej połowie pola widzenia prezentowane są jedno-cześnie dwie twarze przedstawiające zazwyczaj odmienne ekspresje (jedna z nich to zawsze ekspresja neutralna). Zdjęcia twarzy są jednak w tym paradygmacie bodźcami nieistotnymi dla wykonania zadania, które polega na reagowaniu na pojawiające się krótko po twarzach inne bodźce. Twarze pełnią wyłącznie rolę bodźców poprzedzających. Ponadto warto też zauważyć, że w badaniu Pourtois nie zanotowano efektu ekspresji emocjonalnej w przypadku amplitudy N170. Efekt ekspresji emocjonalnej w przypadku komponentu N170 jest obserwowany zazwyczaj w postaci wyższej amplitudy tego komponentu rejestrowanego dla prób z ekspozycją twarzy emocjonalnych w porównaniu z twarzami neutralnymi. Również w przypadku tego efektu obserwuje się specyficzną zależność pomiędzy cechami stosowanych zadań eksperymentalnych oraz wielkością uzyskiwanych różnic. Istotne wyniki notuje się bowiem częściej przy użyciu procedur wymagających explicite rozpoznawania ekspresji emocjonalnej lub procedur nieangażujących systemu poznawczego w żadną ukierunkowaną formę analizy bodźca (pasywna obserwacja bodźca). Ponadto w większości badań, w których obserwowano modulację N170, wykorzystywano ekspozycję zdjęć twarzy w centralnej części pola widzenia. Cechą wspólną więc tych badań jest dostępność zasobów uwagi do przetwarzania ekspresji mimicznej oraz wysoka efektywność przetwarzania na wczesnych etapach analizy sensorycznej bodźca wzrokowego prezentowanego w punkcie fi ksacji. Biorąc pod uwagę wspomniane powyżej badania oraz wyniki analizy przedstawione w tym rozdziale, uzasadniona wydaje się sugestia, że efekty ekspresji emocjonalnej rejestrowane w odniesieniu do amplitudy komponentów P1 i N170 mogą być powodowane przez wpływ uwagi na przetwarzanie ekspresji emocjonalnej. W przypadku jednak pewnej części wspomnianych badań niejasny pozostaje sposób, w jaki uwaga jest angażowana w przetwarzanie twarzy. Jeśli bowiem zastosowane przez badaczy zadania eksperymentalne nie zakładały żadnej formy kategoryzacji (Batty i Taylor, 2003) lub eksponowane twarze były bodźcami nieistotnymi dla wykonania zadania (Pourtois i in., 2004), to trudno jest stwierdzić, czy uwaga o charakterze dowolnym wpływała na przetwarzanie tych bodźców oraz jaką charakterystykę miał ten proces. Alternatywne wyjaśnienie tych bardzo wcześnie przecież pojawiających się różnic w aktywności mózgu zakłada udział struktur układu limbicznego w ich wywoływaniu. Najczęściej wspominaną w tym kontekście częścią mózgu jest cia-ło migdałowate. Sugeruje się bowiem, że błyskawiczna wstępna analiza wyrazu mimicznego dokonywana przez ciało migdałowate może spowodować modulacje aktywności kory wzrokowej (Palermo i Rhodes, 2007; Vuilleumier i Pourtois, 2007). Teza ta opiera się na wynikach badań pacjentów z uszkodzeniami tej struktury (Vuilleumier i in., 2004) oraz lezjami kory wzrokowej (Morris i in., 2001), których opis został zaprezentowany w rozdziale 5. Należy jednakże podkreślić, iż dokładna charakterystyka czasowa wczesnych reakcji ciała migdałowatego u ludzi nie jest dokładnie opisana. Ponadto dostępne dane empiryczne niekoniecznie wspierają tezę o udziale ciała migdałowatego w roli źródła wczesnych efektów rejestrowanych na poziomie kory wzrokowej (P1 oraz N170). Przykładowo, Krolak--Salmon i jego grupa (2004), mierząc bezpośrednio aktywność ciała migdałowa-tego u pacjentów w zadaniu rozpoznawania ekspresji emocjonalnej oraz zadaniu rozpoznawania płci twarzy, uzyskali dane sugerujące, że odmienna reakcja ciała migdałowatego wywołana prezentacją zdjęć twarzy o różnym wyrazie mimicznym zachodzi około 200 ms po ekspozycji bodźca, a więc później niż wczesne efekty obserwowane za pomocą ERP. Co również istotne, obserwowane zróżnicowanie dotyczyło tylko ekspresji strachu i zostało uzyskane wyłącznie w przypadku zadania wymagającego kategoryzacji ekspresji mimicznych. Do podobnych wniosków prowadzą też wyniki uzyskane w badaniach z wykorzystaniem technik nieinwazyjnych, takich jak MEG, charakteryzujących się wysoką rozdzielczością czasową oraz umożliwiających rejestrację aktywności struktur podkorowych. Streit i jego współpracownicy (1999) uzyskali dane sugerujące, iż specyfi czne dla ekspresji emocjonalnej pobudzenie ciała migdałowatego rozpoczyna się około 200 ms po ekspozycji bodźca i jest ponadto poprzedzone wyraźnie zróżnicowaną aktywacją w okolicy STS (140–170 ms). Oznacza to, że aspekt czasowy interakcji pomiędzy systemem wzrokowym oraz częściami systemu limbicznego wymaga wciąż dużo dokładniejszego zbadania, aby jednoznacznie określić kierunek związku przyczynowo-skutkowego. Niewykluczone zresztą, iż wpływ uwagi dowolnej oraz oddziaływanie modulacyjne, którego źródłem jest ciało migdałowate, są odzwierciedleniem dwóch niezależnych mechanizmów. W niniejszej analizie, wykorzystując metodę lokalizacji źródeł potencjałów ERP, stwierdzono również, iż odmienne wymagania stawiane uczestnikom eksperymentu w dwóch zastosowanych zadaniach wywołują zróżnicowanie w poziomie aktywacji wielu struktur mózgu. Szczególnie ciekawy wynik uzyskano dla zakrętu wrzecionowatego oraz rejonu wokół STS, dwóch części mózgu uznawanych za elementy wyspecjalizowanego systemu przetwarzania twarzy. W obu przypadkach zanotowano wyższy poziom pobudzenia tych struktur w zadaniu wymagającym identyfikacji ekspresji emocjonalnej w porównaniu z rozpoznawaniem płci twarzy. Rezultat ten, obserwowany dla interwału 110–170 ms po ekspozycji bodźca, sugeruje, iż oba te obszary mogą być zaangażowane w ocenę sygnałów mimicznych, poprzedzającą zresztą etap analizy strukturalnej, której korelatem jest komponent N170. Jest to zgodne z tezą Eimera (2000a), który twierdzi, że komponent N170 jest wskaźnikiem późnych faz analizy strukturalnej twarzy. Czas, w jakim obie struktury ulegają specyficznemu pobudzeniu, jest zgodny z danymi uzyskiwanymi w badaniach na zwierzętach. Czas latencji specyficznej odpowiedzi większo-ści wrażliwych na ekspozycję twarzy neuronów kory STS makaków zawiera się w przedziale 80–140 ms po bodźcu (Perret, Rolls i Caan, 1982; Perrett i in., 1985). Również u ludzi można zaobserwować, około 90 ms po bodźcu, specyfi czną aktywację górnego oraz środkowego zakrętu skroniowego w odpowiedzi na prezentacje twarzy wyrażających różne emocje (Batty i Taylor, 2003). Warto jednak także zwrócić uwagę na to, że wśród badaczy procesów przetwarzania twarzy dominuje pogląd, iż przetwarzanie tożsamości twarzy oraz jej ekspresji emocjonalnej wykorzystuje oddzielne anatomicznie i funkcjonalnie moduły zlokalizowane odpowiednio w zakręcie wrzecionowatym oraz wokół STS (Haxby, Hoffman i Gobbini, 2000; 2002). Z tego względu zaangażowanie uwagi w analizę płci twarzy powinno skutkować większym wzrostem aktywacji zakrętu wrzecionowatego w porównaniu z zadaniem, w którym zasoby są raczej alokowane w proces oceny emocji mimicznych, podczas gdy w przypadku rejonów STS obserwowany wzorzec zmian powinien być odwrotny. Uzyskane w niniejszej analizie wyniki nie są zgodne z taką hipotezą. Zanotowano przecież wyższy poziom pobudzenia w zadaniu RET zarówno dla zakrętu wrzecionowatego, jak i dla obszarów wokół STS. Rezultat ten sugeruje raczej, iż struktury mózgowe wyspecjalizowane w przetwarzaniu twarzy mogą być aktywowane podobnie i prawie jednocześnie. Zbliżoną wizję funkcjonowania systemu przetwarzania twarzy proponują Calder i Young (2005). W ich modelu analiza tożsamości twarzy i ekspresji emocjonalnej zachodzi przy wykorzystaniu tego samego, przetwarzającego dane w wielu aspektach, systemu neuronalnego. W ramach tego samego systemu mogą być uruchamiane różne, relatywnie niezależne mechanizmy analizy, co pozwala na niezależne rozpoznawanie tożsamości lub ekspresji twarzy. Rozróżnienie to jednak w tej koncepcji ma charakter względny i nie pociąga za sobą sugestii o anatomicznym rozdzieleniu tych dwóch grup procesów. Ponadto warto zauważyć, iż efekt modulacji uwagowej był również obserwowany w obrębie struktur niezwiązanych bezpośrednio z procesami przetwarzania twarzy. W tej grupie warto wymienić zakręt językowy, klinek, przedklinek, tylną część zakrętu obręczy czy górny płacik ciemieniowy. Co jednak ważne, wszystkie te struktury są często wspominane w badaniach dotyczących procesów percepcji twarzy (Gobbini i Haxby, 2007; Gobbini i in., 2004; Gorno-Tempini i in., 1998; Ishai i in., 2004; Ishai, Schmidt i Boesiger, 2005). Według najnowszej wersji koncepcji Haxby’ego (Gobbini i Haxby, 2007; zob. także rozdział 2) można przypisać niektórym z tych struktur udział w mechanizmie oceny cech osobowościowych dokonywanej na podstawie twarzy lub współpracę z systemem analizującym intencje innych osób. Wynik taki może oznaczać, że wpływ uwagi, obserwowany w przypadku wczesnych faz przetwarzania twarzy, ma charakter relatywnie nieprecyzyjny. Jego działanie może być obserwowane w całej grupie struktur, ściśle wzajemnie przecież powiązanych i tworzących jeden złożony system. Zróżnicowanie w aktywacji obu elementów systemu przetwarzania twarzy, zakrętu wrzecionowatego oraz rejonu STS, obserwowane było wyłącznie w prawej półkuli. Rezultat ten można wiązać z funkcjonalnymi różnicami między lewą i prawą półkulą ludzkiego mózgu. Wiele danych wskazuje na relatywną przewagę prawej połowy mózgu w procesach przetwarzania twarzy oraz analizy ekspresji emocjonalnej. W badaniach wykorzystujących zapis ERP najczęściej uzyskuje się silniej wyrażony komponent N170 rejestrowany z odprowadzeń zlokalizowanych po prawej stronie (Bentin i in., 1996; Campanella i in., 2000; Rossion, Joyce, Cottrell i Tarr, 2003; Yovel i in., 2003). Podobne zróżnicowanie między półkulami pojawia się w badaniach wykorzystujących techniki neuroobrazowania. Obszary wykazujące specyficznie silne reakcje w przypadku twarzy są rozleglejsze w prawej półkuli mózgu (Kanwisher, McDermott i Chun, 1997; Kanwisher i Yovel, 2006). Obserwowany efekt koresponduje też blisko z modulacją amplitudy komponentu N170 zarejestrowaną w zadaniu rozpoznawania ekspresji emocjonalnej (Wronka i Walentowska, 2011). Istotne zróżnicowanie w zakresie tego komponentu odnotowano wyłącznie dla elektrod umiejscowionych w prawej półkuli. 6.4. Eksperyment 2 Przedstawione we wcześniejszych częściach wyniki sugerowały, iż procesy różnicowania ekspresji emocjonalnej mogą wywoływać trzy charakterystyczne efekty w zapisie ERP: modulację amplitudy N170, pojawienie się w odpowiedzi na twarze emocjonalne dodatkowej fali dodatniej w okolicach czołowych około 160 ms po bodźcu (komponent AP) oraz dodatkowej fali ujemnej w okolicach potylicznych około 240 ms po bodźcu (komponent EPN). Problemem był jednak fakt, że ze względu na konstrukcję procedury eksperymentalnej niemożliwe było bezpośred-nie porównanie wpływu wykorzystanych w badaniu ekspresji emocjonalnych. Bez odpowiedzi pozostawało więc pytanie o ewentualne różnice w sile efektów w przypadku różnych ekspresji. Określenie charakterystyki ewentualnego zróżnicowania specyfi cznych elektrofizjologicznych korelatów przetwarzania ekspresji emocjonalnej stało się celem naszego następnego eksperymentu. Aby cel ten zrealizować, należało dokonać zmiany procedury eksperymentalnej. Dokonana modyfi kacja (zob. opis procedury poniżej) umożliwiła porównanie charakterystyki wspomnianych efektów dla dwóch rodzajów ekspresji emocjonalnej przy zachowaniu możliwości obserwacji oddziaływań związanych z wpływem uwagi o charakterze dowolnym. 6.4.1. Opis metody Uczestnicy badania i procedura eksperymentalna W badaniu wzięło udział 15 kobiet i 11 mężczyzn (średnia wieku: 22,27 roku; SD = 2,65). Wykorzystano w nim zdjęcia czterech kobiet i czterech mężczyzn przedstawiające trzy różne ekspresje mimiczne (złość, radość, ekspresję neutralną) wybrane z zestawu POFA (Ekman i Friesen, 1976), które użyto również w naszym poprzednim eksperymencie (Wronka i Walentowska, 2011). Procedura eksperymentalna składała się z dwóch zadań, a każde z czterech oddzielonych od siebie przerwą bloków. W zadaniu wymagającym rozpoznawania ekspresji mimicznych (zadanie Rozpoznawania Ekspresji Twarzy – RET) osoby badane proszono o monitorowanie dwóch pojawiających się jedno po drugim zdjęć twarzy oraz porównanie ekspresji mimicznej prezentowanej na tych zdjęciach. W zadaniu wymagającym identyfikacji tożsamości twarzy (zadanie Rozpoznawania Tożsamości Twarzy – RTT) uczestników badania poinstruowano, by monitorowali dwie pojawiające się jedna po drugiej fotografie twarzy oraz porównali tożsamość osób przedstawionych na tych zdjęciach. Sposób reagowania przyciskami oraz kolejność wykonywania zadań były odpowiednio kontrolowane, aby uniknąć wpływu kolejności wykonywania zadań oraz zminimalizować ewentualne efekty wynikające z funkcjonalnych różnic między półkulami mózgu. Każda próba eksperymentalna rozpoczynała się od trwającej 500 ms ekspozycji punktu fiksacji w centralnej części ekranu. Po kolejnych 750 ms, podczas gdy ekran pozostawał pusty, rozpoczynała się trwająca 500 ms prezentacja pierwszej twarzy. Następnie przez 250 ms ekran pozostawał pusty i ostatecznie pojawiało się drugie zdjęcie twarzy, którego ekspozycja trwała również 250 ms. W tym momencie zadaniem osoby badanej była ocena tej twarzy i udzielenie wybranej odpowiedzi. Po zareagowaniu następowała krótka przerwa i po 1200 ms rozpoczynano następną próbę. Komponenty N170, AP i EPN mierzono odpowiednio dla okien czasowych 140–180, 170–250 oraz 240–340 ms po bodźcu. Schemat procedury przedstawiono na ryc. 12. Analiza statystyczna wyników behawioralnych uwzględniała dwa czynniki wewnątrzobiektowe: rodzaj ekspresji (złość, radość, ekspresja neutralna) oraz ro- + 500 ms 750 ms 500 ms 250 ms 250 ms 2500 ms punkt fiksacji pusty ekran prezentacja pusty ekran prezentacja reakcja osobytwarzy 1 twarzy 2 badanej Ryc. 12. Schematyczna ilustracja procedury zastosowanej w eksperymencie 2. W oryginale wykorzystano czarno-białe zdjęcia twarzy z zestawu Pictures of Facial Affect (POFA; Ekman i Friesen, 1976) dzaj zadania (RET oraz RTT). Analiza danych elektrofizjologicznych została przeprowadzona dla zapisów potencjałów uzyskanych w odpowiedzi na prezentację drugiej twarzy w każdej z prób. Amplitudy poszczególnych komponentów zostały poddane analizie wariancji z powtarzanymi pomiarami. W przypadku komponentów N170, AP oraz EPN uwzględniono dwa czynniki wewnątrzobiektowe, jakimi były rodzaj ekspresji (złość, radość, ekspresja neutralna) oraz rodzaj zadania (RET oraz RTT). W przypadku analiz dotyczących czynnika rodzaj ekspresji zastosowano poprawki Greenhouse’a-Geissera, zawsze gdy było to konieczne. W opisie wyników podano skorygowane współczynniki prawdopodobieństwa. Dodatkowe analizy post-hoc przeprowadzono, wykorzystując metodę Bonferroniego. 6.4.2. Opis wyników Wyniki behawioralne Odpowiedzi osób badanych zarejestrowane dla zadania wymagającego ocen tożsamości twarzy (733,51 ms) eksponowanych na dwóch prezentowanych po sobie zdjęciach były szybsze w porównaniu z zadaniem polegającym na ocenie ekspresji emocjonalnej (775,17 ms) tych zdjęć, co wywołało istotny efekt główny czynnika rodzaj zadania [F(1,25) = 5,03; p = 0,034]. Jednocześnie zanotowano istotny wpływ rodzaju ekspresji na szybkość reagowania [F(2,50) = 4,72; p = 0,013; ε = 0,838], który miał odmienny charakter w zależności od rodzaju zadania, co przyniosło istotny efekt interakcji czynników rodzaj zadania i rodzaj ekspresji [F(2,50) = 11,67; p < 0,0001; ε = 0,985]. Aby zweryfikować to przypuszczenie, przeprowadzono dwa niezależne porównania dla zadania RET oraz RTT. W pierwszym przypadku zanotowano wy-raźnie szybsze reakcje w odpowiedzi na twarze wyrażające radość (752,37 ms) w porównaniu z odpowiedziami zarejestrowanymi dla twarzy eksponujących ekspresję złości (782,27 ms) oraz twarzy neutralnych (791,87 ms). Zróżnicowanie to przełożyło się na istotny efekt główny czynnika rodzaj ekspresji [F(2,50) = 11,77; p < 0,0001; ε = 0,958]. Przeprowadzone porównania post-hoc wykazały, że ekspresja radości była istotnie szybciej rozpoznawana w porównaniu z ekspresją złości (p = 0,009) oraz ekspresją neutralną (p < 0,001). Nie stwierdzono natomiast istotnych statystycznie różnic, porównując czasy reakcji dla prób z ekspozycją twarzy przedstawiających złość i ekspresję neutralną. Podobna analiza przeprowadzona dla zadania RTT przyniosła nieistotny efekt główny czynnika rodzaj ekspresji. Średnie czasy reakcji zanotowane dla twarzy prezentujących złość (737,34 ms), radość (737,30 ms) oraz ekspresję neutralną (725,85 ms) pozostawały na podobnym poziomie. Analiza wskaźników poprawności wykonania obu zadań nie wykazała istotnych różnic między nimi. Uśredniony wskaźnik poprawności dla zadania RET wynosił 90,01%, podczas gdy dla zadania RTT uzyskano 91,09% poprawnych odpowiedzi. W rezultacie stwierdzono brak wpływu rodzaju zadania na poprawność reagowania. Jednocześnie zanotowano wysoce istotny efekt główny czynnika rodzaj ekspresji [F(2,50) = 52,20; p < 0,0001; ε = 0,983]. Efekt interakcji czynników rodzaj zadania i rodzaj ekspresji również okazał się wysoce istotny [F(2,50) = 34,51; p < 0,0001; ε = 0,747]. Oznacza to, że podobnie jak w przypadku analizy czasów reakcji wynik taki pozwala sądzić, iż siła wpływu czynnika rodzaj ekspresji jest w rzeczywistości różna w obu zadaniach. Dokonano więc dwóch niezależnych porównań tego efektu w zadaniu RET oraz RTT. W przypadku zadania RET stwierdzono najwyższą liczbę poprawnych odpowiedzi w próbach z prezentacją ekspresji radości (95,79%) w porównaniu z twarzami neutralnymi (92,35%) oraz wyrażającymi złość (81,89%). Różnica ta okazała się istotna statystycznie [F(2,50) = 53,76; p < 0,0001; ε = 0,815]. Przeprowadzone dodatkowo porównania parami wskazują na istotnie wyższą poprawność rozpoznawania radości w porównaniu z ekspresją neutralną (p = 0,019) oraz ekspresją złości (p < 0,001). Ponadto stwierdzono, że twarze neutralne częściej były identyfikowane poprawnie w porównaniu z twarzami wyrażającymi złość (p < 0,001). Natomiast w przypadku zadania RTT stwierdzono, iż wskaźniki poprawności reagowania uzyskane dla ekspresji radości (91,10%) oraz ekspresji neutralnej (92,31%) kształtowały się na podobnym poziomie. Nieznacznie niższy wskaźnik zanotowano dla prób z ekspozycją ekspresji złości (89,86%). W rezultacie uzyskano istotny efekt czynnika rodzaj ekspresji [F(2,50) = 5,76; p = 0,006; ε = 0,869]. Porównania post-hoc wykazały, że poprawność odpowiedzi w próbach, w których użyto twarzy neutralnych, była istotnie wyższa w porównaniu z twarzami wyrażającymi złość (p = 0,002). Nie stwierdzono natomiast różnic, porównując wskaźniki poprawności dla twarzy przedstawiających radość i twarzy neutralnych. Nieistotny wynik przyniosło również porównanie obu rodzajów twarzy emocjonalnych. Rodzaj ekspresji Rodzaj ekspresji Ryc. 13. Ilustracja zróżnicowania reakcji behawioralnych obserwowanego w eksperymencie 2. Ciemne słupki obrazują wskaźniki zanotowane dla zadania RTT, jasne słupki przedstawiają wskaźniki zarejestrowane dla zadania RET Wyniki elektrofizjologiczne Uzyskane wyniki pozwalają stwierdzić, że ekspresja emocjonalna nie wpłynęła na przebieg wczesnych faz przetwarzania twarzy, odzwierciedlonych w amplitudzie N170, w sytuacji gdy zadaniem osób badanych było porównywanie tożsamości twarzy [F(2,50) = 0,93; p = 0,402; ε = 0,970]. W tym samym warunku nie zarejestrowano również efektu ekspresji w postaci komponentu AP w okolicach czołowo-centralnych [F(2,50) = 0,87; p > 0,1; ε = 0,926]. Zróżnicowanie związane z rodzajem ekspresji emocjonalnej pojawiło się dopiero pomiędzy 240 a 340 ms po prezentacji twarzy na odprowadzeniach potylicznych w postaci komponentu EPN [F(2,50) = 7,03; p = 0,002; ε = 0,992]. Przeprowadzone dodatkowo porównania post-hoc dla tego komponentu wykazały, iż wartości uzyskane dla twarzy wyrażających radość odbiegają istotnie zarówno od zanotowanych dla twarzy neutralnych (p = 0,006), jak i uzyskanych dla twarzy prezentujących złość (p = 0,018). Nie stwierdzono natomiast różnic w przypadku ekspresji złości i twarzy neutralnych. Przebieg potencjałów ERP uzyskanych w zadaniu RTT przedstawiono na ryc. 14. W przypadku gdy zadanie wymagało kontrolowanego różnicowania ekspresji mimicznej (zadanie RET), stwierdzono wczesny, rozpoczynający się około 140 ms po ekspozycji bodźca, efekt przybierający postać bardziej ujemnych wartości zanotowanych na odprowadzeniach potyliczno-ciemieniowych dla twarzy ekspresywnych [F(2,50) = 9,10; p = 0,001; ε = 0,801]. Okno czasowe, w którym zanotowano zróżnicowanie, obejmuje komponent N170. Analiza post-hoc wykazała, że różnica ta jest wywołana przez fakt, iż amplituda N170 (uśredniona dla czterech testowanych elektrod) rejestrowana dla ekspresji radości osiągała najniższe wartości (silniej wyrażony komponent N170) w porównaniu z ekspresją złości (p = 0,001) oraz ekspresją neutralną (p = 0,012). W przypadku dwóch ostatnich rodzajów ekspresji nie stwierdzono różnic. W tym warunku również nie stwierdzono występowania komponentu AP w okolicach czołowo-centralnych [F(2,50) = 0,53; p > 0,1; ε = 0,995]. Zanotowano natomiast efekt ekspresji emocjonalnej pojawiający się w okolicach potylicznych 240–340 ms po bodźcu [F(2,50) = 6,46; p = 0,003; ε = 0,897]. Przeprowadzone dodatkowo porównania post-hoc dla tego komponentu wykazały, że wartości uzyskane dla twarzy wyrażających radość odbiegają istotnie od zanotowanych dla twarzy prezentujących złość (p = 0,006). Nie stwierdzono natomiast istotnych różnic w przypadku pozostałych porównań. Zapis aktywności mózgu uzyskany dla zadania RET zaprezentowano na ryc. 15. 6.4.3. Dyskusja wyników uzyskanych w eksperymencie 2 Celem przeprowadzonego eksperymentu było określenie stopnia zróżnicowania przebiegu ERP wywoływanego przez różne rodzaje ekspresji emocjonalnej we wczesnych stadiach przetwarzania twarzy. Na podstawie wcześniej uzyskanych rezultatów (Wronka i Walentowska, 2011) założono istnienie trzech odrębnych N170 PO7 PO8 ekspresja neutralna L L Ryc. 14. Przebieg uśrednionych potencjałów ERP zarejestrowanych w zadaniu RTT uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających złość, linia w kolorze niebieskim ilustruje przebieg ERP w odpowiedzi na twarze przedstawiające ekspresję radości. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (140–180 ms), AP (170–250 ms) oraz EPN (240–340 ms) funkcjonalnie etapów różnicowania mimiki twarzy. Każdy z tych etapów może być łączony z aktywnością innych części systemu nerwowego. Pierwszy z nich przybiera postać modulacji amplitudy komponentu N170 rejestrowanego w poty-liczno-skroniowych okolicach kory. W tym przypadku zróżnicowanie aktywno-ści mózgu związane z przetwarzaniem mimiki emocjonalnej może być uznawane PO7 PO8 O1Oz O2 ekspresja neutralna L L Ryc. 15. Przebieg uśrednionych potencjałów ERP zarejestrowanych w zadaniu RET uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających złość, linia w kolorze niebieskim ilustruje przebieg ERP w odpowiedzi na twarze przedstawiające ekspresję radości. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (140–180 ms), AP (170–250 ms) oraz EPN (240–340 ms) za przejaw procesów o charakterze dowolnym. Drugi może być obserwowany w okolicach czołowych niezależnie od wymagań zadania (Wronka i Walentowska, 2011), co sugerowało, iż ma on związek z procesami mimowolnego różnicowania ekspresji emocjonalnej. Najpóźniej może być rejestrowana modulacja obszarów < û û û û û û N170 (140–180 ms) 9 9 9 9 9 < û û û û û û N170 (140–180 ms) 9 9 9 9 9 9 Ryc. 16. Mapy potencjałów ERP prezentujące efekty ekspresji emocjonalnej uzyskane w zadaniu RTT oraz RET. Mapy przedstawiają różnicę w średnich wartościach uzyskanych dla trzech testowanych komponentów: N170 (140–180 ms), AP (170–250 ms) oraz EPN (240–340 ms). W każdym przypadku kolory wskazujące na wartości ujemne oznaczają, że w odpowiedzi na prezentację twarzy wyrażających radość lub złość uzyskano niższe średnie wartości w porównaniu z twarzami neutralnymi. Podobnie kolory wskazujące na wartości dodatnie oznaczają, że w odpowiedzi na prezentację twarzy wyrażających radość lub złość uzyskano wyższe średnie wartości w porównaniu z twarzami neutralnymi potylicznych, również traktowana jako przejaw procesów mimowolnych. Wyniki uzyskane w niniejszym eksperymencie potwierdziły występowanie dwóch ze wspomnianych efektów. Komponent N170 Zanotowano, iż amplituda komponentu N170, rejestrowanego około 140–180 ms po prezentacji twarzy w okolicach potyliczno-skroniowych, wykazuje wrażliwość na rodzaj ekspresji emocjonalnej widocznej na fotografii twarzy. Podobny wynik uzyskany został we wcześniejszym eksperymencie (Wronka i Walentowska, 2011). Także inni badacze wskazywali na istotne, zależne od wyrazu emocjonalnego twarzy, zróżnicowanie w zakresie amplitudy N170 (Batty i Taylor, 2003; Blau i in., 2007; Miyoshi, Katayama i Morotomi, 2004; Rigato, Farroni i Johnson, 2010; Sprengelmeyer i Jentzsch, 2006; Vlamings, Goffaux i Kemner, 2009). Istotny wydaje się jednak fakt, iż wspomniany wynik został zaobserwowany tylko dla prób, w których prezentowano twarze wyrażające radość. Amplituda komponentu N170 mierzona w odpowiedzi na ekspozycję ekspresji złości pozostawała na porównywalnym poziomie jak w przypadku twarzy neutralnych. Ponadto zróżnicowanie wielkości tego komponentu obserwowano tylko w zadaniu wymagającym różnicowania ekspresji mimicznej i jednocześnie było zupełnie nieobecne, gdy zadanie polegało na porównywaniu tożsamości twarzy. Ten ostatni rezultat stanowi więc replikację poprzednio uzyskanych wyników (Wronka i Walentow-ska, 2011), w których również zanotowano modulację komponentu N170 wyłącznie w warunku wymagającym zaangażowania uwagi w proces różnicowania wyrazu emocjonalnego twarzy przy jednoczesnym braku podobnej zmiany, gdy instrukcja nakazywała ocenę płci twarzy. Oznacza to, że proces rozpoznawania ekspresji emocjonalnej podlega silnym wpływom mechanizmu uwagi dowolnej, które mogą być obserwowane na wczesnych etapach przetwarzania bodźca. Jak wskazują wyniki analizy przeprowadzonej z użyciem metody lokalizacji źródeł potencjału (sLORETA), przedstawionej w poprzednim podrozdziale, modulacja o takim charakterze wiąże się ze zróżnicowanym pobudzeniem obszarów zakrętu wrzecionowatego oraz rejonów wokół STS. Te dwie grupy struktur mózgu uwa-żane są za elementy systemu neuronalnego wyspecjalizowanego w przetwarzaniu twarzy (Haxby, Hoffman i Gobbini, 2000; 2002). Na tej podstawie można sądzić, iż zaangażowanie uwagi w proces różnicowania wyrazu mimicznego twarzy, wymagający oceny zmiennych charakterystyk twarzy, skutkuje zmianą aktywacyjną w obrębie tego systemu. Takiego rezultatu nie obserwuje się, gdy uwaga skierowana jest na stałe charakterystyki twarzy, istotne dla rozpoznania tożsamości twarzy lub płci osoby, do której twarz należy. Na podstawie wyników eksperymentów wskazujących na możliwość modulacji wielkości komponentu N170, wynikającą z ekspozycji ekspresji emocjonalnej, można również wysunąć sugestię, że komponent ten może być korelatem procesów oceny znaczenia emocjonalnego twarzy. Wiele wcześniejszych badań wskazywało, iż N170 można uznać za mózgowy korelat procesu analizy strukturalnej (Eimer, 2000a; 2000b; Bentin i Deouell, 2000), jednak w badaniach tych zazwyczaj manipulacje eksperymentalne były ograniczone do stałych charakterystyk twarzy. Tym samym niewykluczone jest, że ten sam komponent obrazuje aktywność mózgu związaną z procesami analizy cech twarzy istotnych dla rozpoznania jej tożsa-mości oraz procesami oceny znaczenia dynamicznych zmian położenia i kształtu elementów twarzy, zachodzących w trakcie komunikowania stanów emocjonalnych. Tezę tę wspierają dane wskazujące, iż jednym z mózgowych generatorów komponentu N170 jest rejon wokół STS (Itier i in., 2007; Itier i Taylor, 2004). Jak to przedstawiono w rozdziale 2, rejon ten jest wiązany z procesami rozpoznawania ekspresji emocjonalnej. Drugi ważny rezultat uzyskany w niniejszym eksperymencie dotyczy różnic w sile modulacji amplitudy komponentu N170 zarejestrowanej w przypadku ekspresji radości oraz złości. Zaobserwowano bowiem, że w przypadku twarzy radosnych amplituda N170 była istotnie wyższa w porównaniu z twarzami neutralnymi. Podobnego rezultatu nie zanotowano jednak w przypadku twarzy wyrażających złość. Wynik ten jest zaskakujący, biorąc pod uwagę to, że wielu badaczy sugerowało, iż znaczenie ewolucyjne zdolności do szybkiego rozpoznania tych dwóch ekspresji jest odmienne. Sugerowano istnienie silnej presji ewolucyjnej powodującej tendencję do szybkiego i poprawnego rozpoznawania sygnałów za-grożenia, do jakich można zaliczyć twarz prezentującą złość. Z tego też względu można oczekiwać większej poprawności oraz wyższej szybkości identyfi kacji ekspresji złości w porównaniu z ekspresją radości (Hansen i Hansen, 1998; Öhman, Lundqvist i Esteves, 2001). Empirycznymi dowodami słuszności tej tezy są rezultaty badań prowadzonych w paradygmacie „twarzy w tłumie” (face in the crowd), w których notowano wyższą poprawność i szybkość wyszukiwania twarzy wyrażających złość prezentowanych w grupie twarzy przedstawiających inne ekspresje w porównaniu z sytuacją, w której bodźcem kluczowym były twarze prezentujące ekspresję radości. Należy jednak pamiętać, że stosowany w tych badaniach paradygmat eksperymentalny jest dość specyficzny. W innych bowiem pracach uzyskiwano rezultaty wskazujące na odwrotny wzorzec zróżnicowania. Prezentując pojedyncze twarze, notuje się zazwyczaj krótsze czasy rekcji i wyższe wskaźniki poprawności w przypadku ekspresji radości (Eimer, Holmes i McGlone, 2003; Tamietto i in., 2006; Leppänen, Tenhunen i Hietanen, 2003; Crews i Harrison, 1994; Kirita i Endo, 1995; Stanners i in., 1985; Billings i in., 1993; Harrison i in., 1990; Hugdahl i in., 1993). Przyczyną uzyskiwania przez różne grupy badaczy odmiennych wyników może być więc charakterystyka stosowanych procedur eksperymentalnych, w tym przede wszystkim liczba oraz rodzaj prezentowanych ekspresji. W tym miejscu należy zaznaczyć, że różnica w danych behawioralnych wskazująca na wyższą szybkość i poprawność rozpoznawania ekspresji radości, zanotowana w tym eksperymencie, nie jest wcale wyjątkowa. Należy też pamiętać, iż brak efektu w odniesieniu do amplitudy N170 w przypadku ekspresji złości koresponduje blisko z rezultatami analizy danych behawioralnych zarejestrowanych w eksperymencie. Ekspresja radości była w zadaniu RET identyfikowana z istotnie wyższą szybkością i poprawnością. Co więcej, poprawność rozpoznawania twarzy prezentujących złość była istotnie niższa także w porównaniu z ekspresją neutralną, a pod względem szybkości reagowania nie zanotowano istotnych różnic w przypadku tych dwóch rodzajów bodźców. Tym samym jest możliwe, że zarówno wyniki behawioralne, jak i rezultaty obserwowane w odniesieniu do amplitudy N170, są przejawem bliżej nieokreślonej, wysoce specyficznej tendencji przejawianej przez osoby badane. Istnieje jednak również możliwość, iż obserwowane różnice w zakresie amplitudy N170 są związane z większą dystynktywnością percepcyjną ekspresji radości. Tak jest przynajmniej w odniesieniu do zestawu POFA. W przypadku bowiem ekspresji radości łatwo jest wskazać pojedynczy wyznacznik ułatwiający jej wy-różnienie wśród zestawu pozostałych sześciu ekspresji podstawowych. Wyznacznikiem tym są szeroko otwarte usta z odsłoniętymi zębami. Tylko w przypadku tej ekspresji mamy do czynienia z tak szczególną charakterystyką. W rezultacie wskaźniki poprawności rozpoznawania ekspresji radości na fotografi ach z zestawu POFA osiągają wartość 98% (Calder i in., 2001). Dla porównania zdjęcia z zestawu Ekmana i Friesena przedstawiające ekspresję złości rozpoznawano w tym samym badaniu na poziomie 73% i była to najniższa wartość wśród wszystkich badanych ekspresji. Nawet twarze neutralne osoby badane identyfi kowały poprawniej (88%). Na tej podstawie można więc przypuścić, że przyczyna zróżnicowania w sile modulacji komponentu N170 leży w niskiej trafności ekologicznej zdjęć prezentujących złość w zestawie POFA. Teza ta jest zgodna z rezultatami wspomnianych wcześniej badań grupy Caldera. Komponent AP Uzyskane wyniki wskazują również na dość niejasny status efektu ekspresji emocjonalnej, obserwowanego we wcześniejszych pracach w postaci fali dodatniej rejestrowanej w okolicach czołowych (komponent AP). Ze względu na fakt, iż zanotowano podobną zmianę w obu wykorzystanych w naszym wcześniejszym badaniu zadaniach, zasugerowano, że komponent ten jest związany z procesami mimowolnego różnicowania wyrazu mimicznego (Wronka i Walentowska, 2011). Niestety, wyniku tego nie udało się zreplikować w niniejszym badaniu. Co prawda w przypadku prób wykorzystujących twarze wyrażające radość i złość zaobserwowano wyższe wartości średnie w odpowiednim oknie czasowym w porównaniu z bodźcami neutralnymi, lecz efekt ten był bardzo słaby. Poprzednie doniesienia wskazywały, że podobny dodatni komponent może być obserwowany, gdy uwaga jest bezpośrednio zaangażowana w przetwarzanie twarzy, lecz jest nieobecny, gdy jest ona nakierowana na przetwarzanie innych obiektów prezentowanych w odmiennej lokalizacji przestrzennej (Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Holmes, Vuilleumier i Eimer, 2003). Wydaje się jednak, iż w przypadku wspomnianych powyżej badań przyczyną braku wywoływanej przez specyficzne formy ekspresji emocjonalnej modulacji obszarów czołowych (komponent AP) jest przede wszystkim zmiana w lokalizacji ogniska uwagi w przestrzeni. Nasza poprzednia praca (Wronka i Walentowska, 2011) wykazała natomiast, iż podobne zróżnicowanie można uzyskać niezależnie od trybu zaangażowania uwagi, pod warunkiem że twarz jest prezentowana w centralnej części pola widzenia. Wydaje się, że drugą istotną cechą procedury zastosowanej w poprzednim eksperymencie było to, że twarz, niezależnie od instrukcji, zawsze była bodźcem, na który była kierowana uwaga dowolna. Podobną charakterystykę jednak posiadały zadania wykorzystane w niniejszym badaniu, jednak nie zagwarantowało to pojawienia się oczekiwanego rezultatu. Komponent EPN Wyniki uzyskane w niniejszym badaniu wskazują również na to, że prezentacja twarzy ekspresywnych wywołuje zmianę w aktywności kory wzrokowej około 240 ms po ekspozycji bodźca, której nie obserwuje się w przypadku twarzy neutralnych. Zmiana ta w zapisie potencjałów ERP ma postać dodatkowej fali ujemnej (komponent EPN). Wynik ten jest zbieżny z rezultatami naszego wcześniejszego eksperymentu (Wronka i Walentowska, 2011). Podobne zróżnicowanie obserwowano również w wielu wcześniejszych badaniach (Schupp i in., 2004b; Sato i in., 2001; Leppänen i in., 2007). Co równie istotne, podobnie jak w przypadku poprzedniego eksperymentu komponent EPN o zbliżonej charakterystyce zanotowano w obu zadaniach. Taka charakterystyka tego komponentu sugeruje, że jest on wywoływany przez proces o charakterze mimowolnym. Niezależnie bowiem od formy zaangażowania uwagi w przetwarzanie bodźca komponent EPN jest rejestrowany w podobnym oknie czasowym, ma zbliżoną amplitudę oraz topografię mózgową. Wydaje się więc, iż komponent ten może odzwierciedlać wzrost pobudzenia w obszarach kory wzrokowej wywołany przez pojawienie się bodźców o dużym znaczeniu afektywnym. Im znaczenie to jest wyższe, tym wyraźniejszy jest komponent EPN (Leppänen i in., 2007). Oznacza to jednak również, że zmiana ta ma charakter wtórny, gdyż musi być poprzedzona oceną znaczenia emocjonalnego stymulacji. Co ważne, w przeprowadzonym eksperymencie komponent EPN zanotowano tylko w przypadku twarzy wyrażających radość. Wartości potencjałów ERP uzyskane dla twarzy neutralnych oraz prezentujących złość w oknie czasowym odpowiadającym komponentowi EPN okazały się zbliżone. Jeśli więc wskazana powyżej interpretacja tego komponentu jest prawdziwa, to musimy stwierdzić, że niezależnie od trybu, w jakim uwaga była zaangażowana w przetwarzanie twarzy w niniejszym badaniu, brak oczekiwanego zróżnicowania w przypadku ekspresji złości oznacza, że bodźce te zostały ocenione jako mające niskie znaczenie afektywne. Skoro bowiem komponent EPN odzwierciedla procesy o charakterze mimowolnym, wówczas brak dodatkowej fali ujemnej obserwowany w przypadku ekspresji złości w niniejszym badaniu musi oznaczać właśnie niską emocjonalność bodźców. Ponadto, jak sugeruje wielu badaczy, komponent EPN może być wynikiem modulacji, której źródłem jest aktywność ciała migdałowatego (Schupp i in., 2003b). Biorąc pod uwagę również fakt, że specyficzna aktywacja tej struktury może być obserwowana w odpowiedzi na wiele bodźców o dużym znaczeniu emocjonalnym, w tym również twarzy (Adolphs, 1999; LeDoux, 2000), a także możliwość wywoływania podobnego pobudzenia ciała migdałowatego przez prezentację podprogową bodźców, możemy uznać, iż proces oceny znaczenia emocjonalnego stymulacji przebiega w tej strukturze niezależnie od procesów świadomej percepcji (Liddell i in., 2005; Morris, Öhman i Dolan, 1998; 1999; Whalen i in., 1998; 2004). Tym samym brak komponentu EPN w odpowiedzi na prezentację twarzy wyrażających złość może oznaczać, że zostały one ocenione w obrębie układu limbicznego jako mało znaczące. Taka interpretacja uzyskanych wyników oznaczałaby, że twarze z zestawu POFA opisywane jako przedstawiające ten stan emocjonalny w rzeczywistości w niskim stopniu pasują do prototypowego wzorca ekspresji złości wykorzystywanego przez system nerwowy. Istnieje również możliwość, iż podobnym prototypowym wzorcem ekspresji złości posługuje się system zlokalizowany w obrębie STS, uważany za moduł korowy dokonujący oceny ekspresji mimicznej. Wyjaśniałoby to wówczas brak efektu ekspresji emocjonalnej w przypadku komponentu N170. Obecny stan wiedzy nie pozwala jednak na jednoznaczne zweryfi kowanie tej tezy. Tym samym takie wyjaśnienie rezultatów przeprowadzonego eksperymentu pozostaje na razie wyłącznie w sferze przypuszczeń. Podsumowanie uzyskanych wyników Podsumowując, możemy więc stwierdzić, że wyniki dwóch przedstawionych eksperymentów pozwalają na wskazanie dwóch, konsekwentnie obserwowanych, elektrofizjologicznych korelatów procesu różnicowania ekspresji emocjonalnej. Pierwszym z nich jest modulacja amplitudy komponentu N170 obserwowana w sytuacji, gdy informacja o wyrazie emocjonalnym twarzy jest przetwarzana w sposób kontrolowany. Jeśli więc jesteśmy zainteresowani rozpoznaniem zmian w mimice twarzy, towarzyszących różnym stanom emocjonalnym, to zaangażowanie uwagi dowolnej w ten proces powoduje, że komponent N170 jest silniej wyrażony, co jest wywołane wzrostem pobudzenia w obszarze STS. Drugie z obserwowanych zjawisk pojawia się nieco później w zapisie ERP, około 240 ms po bodźcu (komponent EPN). Ma ono postać dodatkowej fali ujemnej uzyskiwanej w okolicach potylicznych i jest rejestrowane niezależnie od formy zaangażowania uwagi w przetwarzanie twarzy. Stąd sugestia, że EPN jest korelatem mimowolnego różnicowania ekspresji emocjonalnej. Źródłem tego efektu może być aktywność ciała migdałowatego. Zatem gdy nasza uwaga jest związana z procesem przetwarzania innych charakterystyk twarzy, warunkujących identyfikację widzianej osoby, ekspresja emocjonalna może zostać oceniona bez udziału systemu uwagowego przez system limbiczny. Istnieje również możliwość, iż podobny mechanizm jest wykorzystywany wówczas, gdy proces oceny znaczenia emocjonalnego twarzy przebiega bez udziału świadomości. Problemem pozostaje jednak zróżnicowanie, obserwowane w zakresie obu wspomnianych korelatów przetwarzania ekspresji emocjonalnej, w przypadku ekspresji radości i złości. W przeprowadzonym eksperymencie uzyskano bowiem modulację amplitudy N170 oraz komponent EPN w przypadku twarzy wyrażających radość i nie obserwowano żadnego z tych zjawisk dla twarzy przedstawia-jących złość. Niejasne pozostaje również znaczenie komponentu AP, którego nie zanotowano w przypadku któregokolwiek z wykorzystanych w badaniu rodzajów ekspresji. Rozwiązaniem może być zastosowanie bodźców o wyższej trafno-ści ekologicznej, lepiej pasujących do prototypowych form ekspresji mimicznej, przynajmniej w przypadku emocji negatywnych. 6.5. Eksperyment 3 6.5.1. Opis metody Uczestnicy badania i procedura eksperymentalna W badaniu wzięło udział 13 kobiet i 15 mężczyzn (średnia wieku: 21,86 roku; SD = 2,63). W eksperymencie tym wykorzystano zdjęcia trzech kobiet i trzech mężczyzn przedstawiające trzy różne ekspresje mimiczne (strach, radość, ekspresję neutralną) wybrane z zestawu NimStim Set of Facial Expressions (Tottenham i in., 2009). Procedura badawcza zastosowana w tym eksperymencie była zbliżona do użytej w eksperymencie 2. Wykorzystano identyczny podział na dwa zadania, wymagające porównania dwóch prezentowanych po sobie twarzy pod kątem ich ekspresji (zadanie RET) lub ich tożsamości (zadanie RTT). Identyczny pozostawał także sposób reagowania osób badanych. Główną różnicą między procedurą stosowaną w eksperymencie 2 a użytą w tym badaniu była długość przerwy pomiędzy prezentacją twarzy pierwszej i drugiej. Każda próba eksperymentalna rozpoczynała się od trwającej 500 ms ekspozycji punktu fiksacji w centralnej części ekranu. Po kolejnych 750 ms, podczas gdy ekran pozostawał pusty, rozpoczynała się trwająca 500 ms prezentacja pierwszej twarzy. Zdjęcie drugiej twarzy pojawiało się natychmiast po zniknięciu pierwszego zdjęcia, a jego ekspozycja trwała 300 ms. W tym momencie zadaniem osoby badanej była ocena tej twarzy i udzielenie wybranej odpowiedzi. Po zareagowaniu następowała krótka przerwa, by po 1200 ms rozpoczynała się następna próba. Komponenty N170, AP i EPN mierzono odpowiednio dla okien czasowych 150– –190, 170–250 oraz 250–400 ms po bodźcu. Schemat procedury przedstawiono + 500 ms 750 ms 500 ms 300 ms 2500 ms punkt fiksacji pusty ekran prezentacjaprezentacjareakcja osobytwarzy 1 twarzy 2 badanej Ryc. 17. Schematyczna ilustracja procedury zastosowanej w eksperymencie 3. W oryginale wykorzystano kolorowe zdjęcia twarzy z zestawu NimStim Set of Facial Expressions (Tottenham i in., 2009) na ryc. 17. Schemat analizy statystycznej przeprowadzonej w odniesieniu do wyników behawioralnych i elektrofizjologicznych był identyczny jak w eksperymencie poprzednim. 6.5.2. Opis wyników Wyniki behawioralne Reakcje osób badanych w czasie wykonywania zadania wymagającego oceny tożsamości twarzy eksponowanych na dwóch prezentowanych po sobie zdjęciach były wolniejsze w porównaniu z zadaniem polegającym na porównywaniu ekspresji emocjonalnej (odpowiednio: 782,98 ms oraz 689,99 ms). W rezultacie zanotowano istotny efekt główny czynnika rodzaj zadania [(1,27) = 26,46; p < 0,0001]. Jednocześnie uzyskano istotny efekt główny czynnika rodzaj ekspresji [F(2,54) = 74,18; p < 0,0001; ε = 0,961] oraz istotny efekt interakcji czynników rodzaj zadania i rodzaj ekspresji [F(2,54) = 9,25; p < 0,001; ε = 0,938]. Na podstawie uzyskanych wyników można jednoznacznie stwierdzić, że siła wpływu czynnika rodzaj ekspresji była różna w obu zadaniach. W celu weryfikacji tego wniosku przeprowadzono analizy wpływu czynnika rodzaj ekspresji niezależnie dla zadania RET oraz RTT. W pierwszym przypadku zanotowano wyraźnie szybsze reakcje w odpowiedzi na twarze wyrażające radość (665,80 ms) w porównaniu z odpowiedziami zarejestrowanymi dla twarzy eksponujących ekspresję strachu (709,74 ms) oraz twarzy neutralnych (694,83 ms). Zróżnicowanie to przełożyło się na istotny efekt główny czynnika rodzaj ekspresji [F(2,54) = 15,17; p < 0,0001; ε = 0,991]. Przeprowadzone porównania post-hoc wykazały, że ekspresja radości była istotnie szybciej rozpoznawana w porównaniu z ekspresją strachu (p < 0,001) oraz ekspresją neutralną (p = 0,004). Nie stwierdzono natomiast istotnych statystycznie różnic, porównując czasy reakcji dla prób z ekspozycją twarzy przedstawiających strach i ekspresję neutralną. Podobna analiza przeprowadzona dla zadania RTT również przyniosła istotny efekt główny czynnika rodzaj ekspresji [F(2,54) = 44,23; p < 0,0001; ε = 0,961]. W tym przypadku stwierdzono, że badani najszybciej udzielali odpowiedzi na twarze wyrażające radość (733,08 ms), nieco wolniej, gdy eksponowano twarze neutralne (777,23 ms) oraz najwolniej podczas prezentacji twarzy z ekspresją strachu (841,09 ms). Wyniki analiz post-hoc wykazały, iż ekspresja radości była istotnie szybciej rozpoznawana w porównaniu z ekspresją strachu (p < 0,0001) oraz ekspresją neutralną (p = 0,001). Jednocześnie badani reagowali na ekspozycję twarzy neutralnej szybciej niż w przypadku twarzy wyrażającej strach (p < 0,0001). Analiza wskaźników poprawności wykonania obu zadań pozwala stwierdzić, że zadanie polegające na rozpoznawaniu ekspresji mimicznej zostało istotnie poprawniej wykonane w porównaniu z zadaniem wymagającym oceny tożsamości. Uśredniony wskaźnik poprawności dla zadania RET wynosił 97,77%, podczas gdy dla zadania RTT uzyskano 95,81% poprawnych odpowiedzi. W rezultacie zanotowano istotny efekt główny czynnika rodzaj zadania [F(1,27) = 17,19; p < 0,001]. Zanotowano również istotny efekt główny czynnika rodzaj ekspresji [F(2,54) = 7,69; p = 0,001; ε = 0,896]. Jednocześnie efekt interakcji czynników rodzaj zadania i rodzaj ekspresji również okazał się istotny statystycznie [F(2,54) = 4,98; p = 0,010; ε = 0,844]. Podobnie więc jak w przypadku analizy wskaźników szybkości reagowania można sądzić, że siła wpływu czynnika rodzaj ekspresji jest w rzeczywistości różna w obu zadaniach. Dokonano więc dwóch niezależnych porównań tego wpływu w zdaniu RET oraz RTT. W zadaniu RET stwierdzono, że największą liczbę poprawnych odpowiedzi badani uzyskali dla prezentacji ekspresji radości (98,29%). W przypadku twarzy neutralnych (97,69%) oraz wyrażających strach (97,32%) zanotowano wartości zbliżone. Zaobserwowane różnice okazały się nieistotne statystycznie. Natomiast w przypadku zadania RTT stwierdzono, że wskaźniki poprawności reagowania uzyskane dla ekspresji radości (97,61%) oraz ekspresji neutralnej (96,35%) kształtowały się na podobnym poziomie. Nieznacznie niższy wskaźnik zanotowano dla prób z ekspozycją ekspresji strachu (93,45%). W rezultacie uzyskano jednak istotny wpływ czynnika rodzaj ekspresji [F(2,54) = 7,85; p = 0,001; ε = 0,852]. Porównania post-hoc wykazały, że poprawność odpowiedzi w próbach, w których użyto twarzy wyrażających radość, była istotnie wyższa w porównaniu z twarzami prezentującymi strach (p = 0,004). Różnica w poziomie poprawności uzyskiwanym dla prób z użyciem twarzy neutralnych i okazujących strach kształtowała się na poziomie tendencji statystycznej (p = 0,069). Nie stwierdzono natomiast różnic, porównując wskaźniki poprawności dla twarzy wyrażających radość i twarzy neutralnych (ryc. 18). Rodzaj ekspresji Rodzaj ekspresji Ryc. 18. Ilustracja zróżnicowania reakcji behawioralnych obserwowanego w eksperymencie 3. Ciemne słupki obrazują wskaźniki zanotowane dla zadania RTT, jasne słupki przedstawiają wskaźniki zarejestrowane dla zadania RET Wyniki elektrofizjologiczne Uzyskane wyniki pozwalają na stwierdzenie, że prezentacja różnych form ekspresji emocjonalnej istotnie zmieniła przebieg wczesnych faz przetwarzania twarzy, zobrazowanych w postaci amplitudy komponentu N170, w zadaniu, w którym wymagano od osób badanych porównywania mimiki twarzy (RET). Zjawisko to miało postać pogłębionej fali ujemnej rejestrowanej w oknie czasowym komponentu N170 w okolicach potyliczno-skroniowych w odpowiedzi na twarze przedstawia-jące ekspresję strachu lub radości w porównaniu z twarzami neutralnymi [F(2,54) = 19,83; p < 0,00001; ε = 0,922]. Przeprowadzona analiza post-hoc wykazała, iż efekt ekspresji emocjonalnej jest związany z faktem, że uśredniona dla czterech testowanych elektrod amplituda komponentu N170, rejestrowanego dla twarzy wyrażających radość, osiągała wyraźnie niższe wartości (silniej wyrażony komponent N170) w porównaniu z ekspresją neutralną (p < 0,001). Podobną różnicę stwierdzono, porównując ekspresję strachu oraz twarz neutralną (p < 0,001). Natomiast w przypadku obu twarzy ekspresywnych nie stwierdzono istotnych różnic. W tym samym warunku uzyskano również efekt ekspresji emocjonalnej obserwowany w okolicach czołowych w przedziale od 170 do 250 ms po prezentacji bodźca. Otrzymano tu dodatkową falę dodatnią (komponent AP) w przypadku obu typów twarzy ekspresywnych w porównaniu z neutralną [F(2,54) = 5,85; p = 0,005; ε = 0,939]. Porównania post-hoc wskazują, że wartości zarejestrowane dla twarzy neutralnych były istotnie niższe zarówno w stosunku do twarzy wyrażających radość (p = 0,015), jak i twarzy prezentujących strach (p = 0,011). Porównując wartości dla potencjałów uzyskanych w odpowiedzi na oba rodzaje twarzy ekspresywnych nie stwierdzono różnic. Na późniejszym etapie przetwarzania pojawił się również efekt ekspresji emocjonalnej w postaci komponentu EPN obserwowanego w okolicach potylicznych między 250 a 400 ms po ekspozycji twarzy. W tym przypadku średnie potencjały zmierzone dla twarzy wyrażających strach oraz radość okazały się przybierać bardziej ujemne wartości w porównaniu z twarzami neutralnymi [F(2,54) = 4,46; p = 0,016; ε = 0,994]. Porównania post-hoc wskazują, że wartości zarejestrowane dla twarzy neutralnych były wyższe tylko w stosunku do twarzy prezentujących strach (p = 0,021), przy jednoczesnym braku różnic dla pozostałych porównywanych par. Rezultaty te zostały przedstawione na ryc. 20 i 21. W sytuacji gdy zadanie uczestników badania polegało na porównywaniu tożsamości twarzy (RTT), nie zaobserwowano istotnych różnic w przypadku amplitudy N170 [F(2,54) = 0,46; p = 0,633; ε = 0,857]. Nie zarejestrowano również efektu ekspresji w postaci komponentu AP w okolicach czołowo-centralnych [F(2,54) = 1,13; p = 0,330; ε = 0,946]. Zróżnicowanie w zapisie ERP wywołane przez ekspozycję różnych rodzajów ekspresji mimicznych uzyskano dopiero pomiędzy 250 a 400 ms po prezentacji twarzy w postaci komponentu EPN [F(2,54) = 5,95; p = 0,005; ε = 0,875]. Porównania post-hoc przyniosły potwierdzenie, iż wartości zarejestrowane dla twarzy neutralnych były wyższe zarówno w stosunku do twarzy wyrażających radość (p = 0,056), jak i twarzy prezentujących strach (p = 0,006), przy jednoczesnym braku różnic w zapisach ERP dla obu twarzy emocjonalnych. Opisany rezultat dla zadania RTT ilustrują ryc. 19 i 21. 6.5.3. Dyskusja wyników uzyskanych w eksperymencie 3 Procedura zastosowana w niniejszym badaniu różniła się istotnie od użytej w poprzednim eksperymencie. Podobnie jak w przypadku eksperymentu 2 wykorzystano ekspozycję dwóch zdjęć, pokazywanych jedno po drugim, oraz zastosowano identyczne instrukcje dla osób badanych. Jednakże użyto innego zestawu zdjęć twarzy oraz w miejsce ekspresji złości eksponowano twarze wyrażające strach. Zmiana ta została dokonana za radą Jari Hietanena13, który zasugerował, że zdjęcia przedstawiające twarze wystraszone wywołują silniejsze reakcje osób badanych w porównaniu ze złością. Jest to zgodne z hipotezą Whalena (1998), który twierdzi, że w ekspresji strachu mamy do czynienia z dużo mniej jasną sytuacją dla osób badanych niż w złości. W przypadku bowiem złości, która jest sygnałem bezpośredniego zagrożenia, badani jednoznacznie mogą określić źródło tego za-grożenia. Ze względu jednak na fakt, iż jest nim eksponowana na ekranie komputera fotografia, zagrożenie to jest ostatecznie oceniane jako bardzo nikłe. W sytuacji jednak, gdy prezentowana jest im twarz wyrażająca strach, wówczas ocena źródła i siły zagrożenia jest dużo trudniejsza i wymaga dodatkowych informacji w celu dokonania prawidłowej interpretacji. Paul Whalen twierdzi na tej podstawie, że prezentacja twarzy wyrażających strach wywołuje intensywniejsze reakcje systemu nerwowego niż w przypadku złości. Druga istotna zmiana w porównaniu 13 Jari Hietanen zasugerował nam taką zmianę podczas jednej z rozmów, gdy dyskutowaliśmy o wynikach uzyskanych w przypadku ekspresji złości. F3 Fz F4 FC1 FC2 ekspresja neutralna ekspresja strachu L Ryc. 19. Przebieg uśrednionych potencjałów ERP zarejestrowanych w zadaniu RTT uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających strach, linia w kolorze niebieskim ilustruje przebieg ERP w odpowiedzi na twarze przedstawiające ekspresję radości. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (150–190 ms), AP (170–250 ms) oraz EPN (250–400 ms) z poprzednim eksperymentem dotyczy czasowego układu prezentacji bodźców. Obie prezentowane w badaniu 3 twarze były eksponowane bezpośrednio po sobie, z pominięciem krótkiej przerwy stosowanej w eksperymencie 2. Celem tej modyfikacji było wywołanie wrażenia zmiany ekspresji, imitującej rzeczywistą FC1 FC2 ekspresja neutralna ekspresja strachu L Ryc. 20. Przebieg uśrednionych potencjałów ERP zarejestrowanych w zadaniu RET uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających strach, linia w kolorze niebieskim ilustruje przebieg ERP w odpowiedzi na twarze przedstawiające ekspresję radości. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (150–190 ms), AP (170–250 ms) oraz EPN (250–400 ms). dynamikę ruchów mimicznych. Ponadto w miejsce czarno-białych zdjęć z zestawu POFA użyto kolorowych fotografii z zestawu NimStim Set of Facial Expres-sions (Tottenham i in., 2009). Zastosowanie wysokiej jakości kolorowych fotografii wydawało się dużo trafniejsze ekologicznie. < + û + û + û N170 (150–190 ms) 9 9 9 9 9 < + û + û + û N170 (150–190 ms) 9 9 9 9 9 9 Ryc. 21. Mapy potencjałów ERP prezentujące efekty ekspresji emocjonalnej uzyskane w zdaniu RTT oraz RET. Mapy przedstawiają różnicę w średnich wartościach uzyskanych dla trzech testowanych komponentów: N170 (150–190 ms), AP (170–250 ms) oraz EPN (250–400 ms). W każdym przypadku kolory wskazujące na wartości ujemne oznaczają, że w odpowiedzi na prezentację twarzy wyrażających radość lub strach uzyskano niższe średnie wartości w porównaniu z twarzami neutralnymi. Podobnie kolory wskazujące na wartości dodatnie oznaczają, że w odpowiedzi na prezentację twarzy wyrażających radość lub strach uzyskano wyższe średnie wartości w porównaniu z twarzami neutralnymi Wszystkie te modyfikacje spowodowały, że obraz wyników uzyskanych w eksperymencie 3 różni się od zanotowanego w poprzednim badaniu. W eksperymencie 2 zaobserwowano dwa wyraźne efekty ekspresji emocjonalnej, w postaci modulacji komponentu N170 w zadaniu wymagającym porównywania ekspresji mimicznej oraz w postaci komponentu EPN obserwowanego niezależnie od typu zadania. Jednakże zróżnicowanie to zostało uzyskane tylko dla ekspresji radości i było nieobecne w przypadku złości. Ponadto w badaniu tym nie odnotowano wyraźnego efektu w okolicach czołowych (komponent AP). W przeciwieństwie do tego w eksperymencie 3 uzyskano trzy wyraźne efekty ekspresji emocjonalnej. Po pierwsze, komponent N170 był silniej wyrażony, gdy stanowił odpowiedź na prezentację twarzy ekspresywnych w porównaniu z neutralnymi. Różnica ta była porównywalna dla ekspresji radości i strachu. Ponadto zarejestrowano go wyłącz-nie w zadaniu wymagającym kontrolowanego różnicowania ekspresji emocjonalnych. Po drugie, zaobserwowano wyższe wartości potencjału ERP mierzonego na odprowadzeniach czołowych dla prób z ekspozycją twarzy radosnych oraz wyrażających strach w porównaniu z neutralnymi (komponent AP). Również ten efekt okazał się wysoce zbliżony w przypadku obu rodzajów twarzy emocjonalnych. Co jednak zaskakujące, komponent ten odnotowano, podobnie jak modulację N170, tylko w zadaniu RET. Po trzecie, prezentacja twarzy radosnych oraz przedstawia-jących strach wywoływała dodatkową falę ujemną rejestrowaną w okolicach potylicznych (komponent EPN). I znów, siła tego zróżnicowania była porównywalna dla obu rodzajów twarzy ekspresywnych. Jednakże w tym przypadku uzyskano efekt ekspresji emocjonalnej niezależnie od typu zadania wykonywanego przez osoby badane. Komponent N170 Otrzymane wyniki sugerują silny wpływ ekspresji emocjonalnej na przebieg procesów analizy twarzy, odzwierciedlony w postaci modulacji amplitudy N170. Efekt ten był jednak ograniczony do warunku, w którym uwaga była zaangażowana w różnicowanie wyrazu mimicznego. W sytuacji gdy przetwarzanie było nakierowane na rozpoznawanie stałych charakterystyk twarzy, istotnych dla identyfi kacji tożsamości osoby lub jej płci, nie obserwowano różnicy w wielkości komponentu N170. Podobne rezultaty uzyskano w dwóch poprzednich eksperymentach. Bio-rąc to pod uwagę, można stwierdzić, że czynnikiem determinującym pojawienie się tak wczesnego efektu ekspresji emocjonalnej w zapisie potencjałów ERP jest bezpośrednie zaangażowanie uwagi w przetwarzanie mimiki emocjonalnej. Stąd modulacja amplitudy komponentu N170 odzwierciedla skuteczność procesów o charakterze dowolnym. Jak to przedstawiono w rozdziale 4, amplituda N170 jest wrażliwa na rodzaj prezentowanych bodźców wzrokowych. Konsekwentnie uzyskuje się silniej wy-rażony N170 w odpowiedzi na ekspozycję twarzy w porównaniu z wieloma różnymi klasami innych obiektów (Itier i Taylor, 2004a; Bentin i in., 1996; Eimer, 2000a; 2000b; Rossion, Gauthier i in., 2000; Taylor i in., 2001). Ponadto manipulacje w sposobie prezentacji twarzy, takie jak zmiana pozycji, w jakiej bodziec jest przedstawiany, wywierają również wpływ w postaci wydłużenia czasów latencji N170 (Bentin i in., 1996; Eimer, 2000c; Itier, Latinus i Taylor, 2006; Itier i in., 2007; Rossion, Gauthier i in., 2000) lub pogłębienia tego komponentu (Bentin i in., 1996; Eimer, 2000c; Rossion, Gauthier i in., 2000; Sagiv i Bentin, 2001). Dało to podstawę do twierdzenia, że komponent N170 stanowi odzwierciedlenie przebiegu analizy strukturalnej twarzy, podczas której tworzona jest precyzyjna reprezentacja odnosząca się do relacji przestrzennych między elementami twarzy. Taka reprezentacja miała być użyteczna głównie w trakcie następującego później procesu identyfikacji tożsamości. Stąd hipoteza, iż N170 jest komponentem, którego mózgowy generator jest umiejscowiony w obrębie FFA w zakręcie wrzecionowatym. Dodatkowo sugestia ta była oparta na wynikach badań, w których nie rejestrowano efektu ekspresji emocjonalnej w odniesieniu do amplitudy N170 (Eimer, Holmes i McGlone, 2003; Holmes, Vuilleumier i Eimer, 2003; Holmes, Kiss i Eimer, 2006). Jednakże w ostatnich latach coraz więcej prac sugeruje, że taka interpretacja N170 jest błędna. W wielu bowiem eksperymentach uzyskano modulację amplitudy tego komponentu, prezentując twarze wyrażające różne stany emocjonalne, i konsekwentnie notowano N170 o wyższej amplitudzie dla twarzy emocjonalnych w porównaniu z neutralnymi (Batty i Taylor, 2003; Blau i in., 2007; Miyoshi, Katayama i Morotomi, 2004; Rigato, Farroni i Johnson, 2010; Sprengelmeyer i Jentzsch, 2006; Wronka i Walentowska, 2011; Vlamings, Goffaux i Kemner, 2009). Jeśli weźmiemy również pod uwagę, że dane eksperymentalne sugerują także udział okolic STS w procesie generowania tego komponentu (Itier i in., 2007; Itier i Taylor, 2004; zob. także opis wyników z wykorzystaniem sLORETA przedstawiony w rozdziale 6), to uzasadniony wydaje się wniosek, iż komponent N170 może być wynikiem działania więcej niż jednego generatora mózgowego. Oznacza to, że komponent ten może być korelatem kilku procesów zachodzących mniej więcej w tym samym czasie i odnoszących się do różnych analiz zachodzących w trakcie przetwarzania twarzy. Dodatkowo konsekwentnie obserwowana różnica efektów ekspresji emocjonalnej związana z wpływem uwagi o charakterze dowolnym sugeruje, iż procesy te, przynajmniej częściowo, są niezależne, gdyż istnieje możliwość wybiórczej modulacji części z nich. Komponent AP Dużo mniej jasne jest znaczenie wywołanych ekspozycją twarzy o różnej ekspresji zmian przebiegu ERP rejestrowanych w okolicach czołowych. Na podstawie rezultatów badań grupy Eimera oraz kilku innych eksperymentów (Holmes, Vuilleumier i Eimer, 2003; Eimer i Holmes, 2002; Ashley, Vuilleumier i Swick, 2004; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Wronka i Walentow-ska, 2011) można było przypuszczać, że około 160–180 ms po ekspozycji twarzy istnieje możliwość rejestracji specyficznego komponentu AP. W tym przypadku wartości notowane dla twarzy emocjonalnych były zazwyczaj wyższe w porównaniu z twarzami neutralnymi. Jednak dane zebrane w kilku eksperymentach (Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Holmes, Vuilleumier i Eimer, 2003) sugerowały także, iż komponent ten może być uzyskiwany głów-nie wtedy, gdy uwaga jest skierowana na twarz. W tych samych bowiem pracach wskazywano, że AP nie może być notowany, gdy ognisko uwagi jest zlokalizowane w innej części przestrzeni niż twarz. Z taką interpretacją tego komponentu zgodne były wyniki naszego pierwszego eksperymentu (Wronka i Walentowska, 2011), w którym zaobserwowaliśmy podobną odpowiedź w obszarach czołowych w dwóch zadaniach, co prawda odmiennie angażujących mechanizm uwagi, lecz w obu nie manipulowano lokalizacją ogniska uwagi. Zaskakujący był jednak brak podobnego zróżnicowania uzyskany w drugim z naszych eksperymentów, gdzie podobna charakterystyka procedury nie umożliwiła zarejestrowania komponentu AP w żadnym z zadań. W tym kontekście równie zaskakujące są wyniki przedstawione powyżej. Komponent AP został bowiem zanotowany dla zadania wymagającego od osób badanych różnicowania ekspresji emocjonalnej oraz był niewidoczny w zadaniu wymagającym oceny tożsamości. Na pierwszy rzut oka wynik ten jest zgodny z sugestią Eimera, że uwaga może modyfikować aktywność mózgu będącą podłożem komponentu AP (Holmes, Kiss i Eimer, 2006; Eimer i Holmes, 2007). Jednak wydaje się, że założenie to dotyczyło głównie problemu lokalizacji przestrzennej ogniska uwagi. Nie jest więc jasne, co jest przyczyną takiego zróżnicowania wyników w odniesieniu do tego komponentu, uzyskiwanych w trzech kolejnych eksperymentach. Istnieje możliwość, że przynajmniej w przypadku eksperymentu 3 przyczyną jest bliżej nieokreślo-ny czynnik wywołujący dość niecodzienny przebieg potencjałów ERP w zadaniu RTT. Warto bowiem zauważyć, iż począwszy od około 200 ms po ekspozycji bodźca, pojawia się w zapisie zarejestrowanym dla twarzy wyrażających radość oraz strach – wolno narastająca i powoli obejmująca całą głowę – fala ujemna powodująca, że komponent AP nie może być w tych warunkach zanotowany. Taki przebieg reakcji uzyskany dla tego zadania może oznaczać wpływ jakiegoś nieznanego czynnika. Co ważne, czynnik ten zdaje się nie działać w przypadku drugiego z zadań. W rezultacie komponent AP zanotowano wyłącznie w sytuacji wymagającej od badanych oceny ekspresji emocjonalnej. Miał on bardzo podobną charakterystykę jak komponent opisany w wielu wcześniejszych publikacjach (Holmes, Vuilleumier i Eimer, 2003; Eimer i Holmes, 2002; Ashley, Vuilleumier i Swick, 2004; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Wronka i Walentowska, 2011). Komponent EPN Dużo jaśniejsza wydaje się sytuacja w odniesieniu do komponentu EPN, który przybiera formę dodatkowej ujemnej fali generowanej w odpowiedzi na twarze wyraża-jące specyficzne emocje w porównaniu z bodźcami neutralnymi. W trzech kolejnych eksperymentach, wliczając w to opisany powyżej, zaobserwowano ten komponent w okolicach potylicznych w porównywalnych oknach czasowych. Co ważne, pojawienie się tego komponentu nie jest determinowane przez sposób angażowania mechanizmu uwagi w przetwarzanie twarzy. Wniosek ten jest oparty na obserwacji, iż porównywalną reakcję ze strony systemu nerwowego obserwowano niezależnie od charakterystyki warunku eksperymentalnego. Stąd sugestia, że komponent EPN odzwierciedla procesy o charakterze mimowolnym, wydaje się uzasadniona. Jak wskazano już wcześniej, komponent ten może być związany ze wzrostem aktywacji rejonów kory wzrokowej w odpowiedzi na pojawienie się bodźców o dużym znaczeniu afektywnym (Junghöfer, Schupp, Stark i Vaitl, 2005). Przy interpretacji tego komponentu istotny wydaje się też fakt, iż podobna zmiana w przebiegu ERP może być obserwowana nie tylko w przypadku twarzy, ale również w odpowiedzi na inne bodźce emocjonalne (Schupp i in., 2003a; 2003b; 2004a). Pozostaje jednak problem mózgowego źródła tego komponentu. Uzyskiwane konsekwentnie w trzech eksperymentach wyniki sugerują, że może on być obserwowany niezależnie od modulacji N170. Stąd sugestia, iż aktywacja mózgowego systemu przetwarzania twarzy, lokalizowanego w modelu Haxby’ego w obrębie trzech części kory wzrokowej (OFA, FFA i STS), nie jest bezpośrednią przyczyną zmian rejestrowanych w postaci EPN. Podobnie słabe zależności były obserwowane między komponentami AP oraz EPN. Jak bowiem wykazały rezultaty eksperymentu 2, możliwa jest rejestracja efektu ekspresji emocjonalnej w postaci EPN przy jednoczesnym braku zróżnicowania w okolicach czołowych (AP). Pozostaje jednak taka możliwość, że komponent EPN jest wynikiem zwrotnego modulującego wpływu wywieranego przez ciało migdałowate na obszary kory wzrokowej. Taka sugestia pojawiała się w wielu pracach dotyczących procesów przetwarzania ekspresji emocjonalnej (Vuillemier i Pourtois, 2007; Palermo i Rhodes, 2007; Sugase i in., 1999). Efekt pobudzenia ciała migdałowatego niezależnie od sposobu zaangażowania uwagi w przetwarzanie twarzy stwierdzono w pracy Vuilleumiera i jego grupy (Vuilleumier, Armony, Driver i Dolan, 2001). Jednym ze sposobów umożliwiających pośrednią weryfikację tezy mówiącej o związku między aktywnością ciała migdałowatego a procesem generowania EPN jest zastosowanie paradygmatu minimalizującego świadome przetwarzanie ekspresji emocjonalnej. Wyniki badań wykorzystujących tego rodzaju manipulacje eksperymentalne wykazały, iż aktywacja ciała migdałowatego jest możliwa w takich warunkach (Pasley, Mayes i Schultz, 2004; Whalen i in., 1998; 2004; Williams i in., 2004). Można więc oczekiwać, że jeśli komponent EPN jest wynikiem oddzia-ływania ciała migdałowatego, to istnieje możliwość rejestracji tego komponentu także w sytuacji, gdy ekspresja emocjonalna jest przetwarzana bez udziału świadomości. Hipoteza ta została przetestowana w dwóch kolejnych eksperymentach wykorzystujących podprogową prezentację twarzy. Ich rezultaty zostaną przedstawione w kolejnym rozdziale. Rozdział 7 Mimowolne przetwarzanie ekspresji emocjonalnej – eksperymenty 4–8 Wyniki uzyskane w poprzednich trzech eksperymentach pozwalają na wydzielenie dwóch grup efektów obserwowanych w różnym czasie i o odmiennej topografii mózgowej, a przede wszystkim związanych z procesami psychicznymi o innym charakterze. Pierwszy z efektów ma postać modulacji amplitudy N170, która obrazuje wpływ uwagi o charakterze dowolnym. Jak przedstawiono w części poświęconej dyskusji rezultatów analizy lokalizacyjnej, jego podłożem jest najprawdopodobniej zmiana w poziomie pobudzenia kory mózgu w zakręcie wrzecionowatym oraz w okolicach górnej bruzdy skroniowej. Oba te fragmenty mózgu stanowią elementy systemu wyspecjalizowanego w przetwarzaniu twarzy. Co jednak jest szczególnie ważne, oddziaływanie to ma przynieść wzrost efektywno-ści procesów analizy twarzy i w rezultacie spowodować, że reakcja behawioralna pojawi się szybciej i będzie dokładniejsza. Drugi z notowanych efektów odnosi się do reakcji okolic czołowych (komponent AP), która pojawia się niemal równocześnie ze zmianą w zakresie amplitudy N170. W tym przypadku jednak dużo trudniej jednoznacznie określić warunki, w jakich komponent ten się uwidacznia. W eksperymencie 1 został zarejestrowany niezależnie od typu wykonywanego zadania, co sugerowało jego związek z procesami mimowolnego różnicowania ekspresji emocjonalnej (Wronka i Wa-lentowska, 2011). Z hipotezą tą niezgodne są jednak wyniki eksperymentu 2, w którym podobnie silnej zmiany nie zaobserwowano dla żadnego z warunków eksperymentalnych. Efekt, który został zanotowany w okolicach czołowych, przypominał komponent AP, lecz jego niewielkie rozmiary spowodowały, iż nie uzyskano statystycznego potwierdzenia, że mamy do czynienia z reakcją podobną do tej obserwowanej w eksperymencie 1. Z kolei w ostatnim z dotychczas opisanych badań ten specyficzny komponent, mający postać dodatkowej dodatniej fali rejestrowanej w odpowiedzi na twarze emocjonalne w porównaniu z neutralnymi, został uzyskany wyłącznie w sytuacji wymagającej od osób badanych kontrolowanego różnicowania ekspresji emocjonalnej. Stąd niejasność co do charakteru tego komponentu. Nie wiadomo bowiem, czy odzwierciedla on procesy o charakterze mimowolnym, jak sugerowały wyniki eksperymentu 1, czy może jest w jakiś sposób powiązany z wpływem uwagi dowolnej (eksperyment 3). Ostatni z opisywanych efektów, mający postać dodatkowej fali ujemnej rejestrowanej w okolicach potylicznych w odpowiedzi na twarze emocjonalne, charakteryzuje się stosunkowo dużą stabilnością. Komponent ten określany jako EPN uzyskiwano we wszystkich trzech badaniach niezależnie od charakteru zadania wykonywanego przez osoby badane. Stąd sugestia, że komponent ten jest korelatem procesu mimowolnego. Jednak aby taka jego interpretacja miała silniejsze podstawy, uzasadnione wydaje się podjęcie próby rejestracji EPN w warunkach, które uniemożliwiłyby lub w znacznym stopniu ograniczyły możliwość zaanga-żowania uwagi o charakterze dowolnym w przetwarzanie ekspresji emocjonalnej, niezależnie od rodzaju wykonywanego zadania. Taką możliwość daje zastosowanie podprogowej prezentacji bodźca z wykorzystaniem maskowania wstecznego. Przeprowadzenie takiej procedury powoduje, że osoby badane są całkowicie nieświadome ekspozycji bodźca lub są jej świadome w bardzo małym stopniu. W kilku badaniach wspomnianych w rozdziale 5 zastosowano ekspozycję twarzy na poziomie podprogowym, aby określić charakterystykę procesów różnicowania ekspresji emocjonalnej w warunkach ograniczonego ich świadomego odbioru (Liddell i in., 2004; Balconi i Lucchiari, 2007; Eimer, Kiss i Holmes, 2008; Kiss i Eimer, 2008; Pegna, Landis i Khateb, 2008). Wyniki uzyskiwane w tych badaniach nie są jednak całkowicie zbieżne. Część badaczy wskazuje na modulację komponentu N2 rejestrowanego 200–300 ms po ekspozycji bodźca w okolicach czołowych (Liddell i in., 2004; Balconi i Lucchiari, 2007). Inni badacze wskazują na możliwość zróżnicowania amplitudy N170 (Pegna, Landis i Khateb, 2008). Ei-mer, Kiss i Holmes (2008) zanotowali komponenty AP oraz EPN w odpowiedzi na twarze wyrażające strach w porównaniu z ekspresją neutralną. Zjawiska te pojawiły się jednak wyłącznie wówczas, gdy osoby badane poprawnie identyfi kowały eksponowane podprogowo sygnały mimiczne. Co jednak ważne, przynajmniej dwie charakterystyki procedur stosowanych we wspomnianych badaniach powodują, że należy z pewną ostrożnością podchodzić do tych wyników. Warto bowiem zwrócić uwagę, iż w większości eksperymentów zadaniem badanych było różnicowanie ekspresji emocjonalnej. Oznacza to, że mechanizm uwagi był nakierowany na wykrywanie wzorców na twarzy charakterystycznych dla sygnałów mimicznych. W takiej sytuacji można podejrzewać, że przyczyną części rezultatów był wpływ uwagi o charakterze dowolnym. Uwaga dowolna może zwiększyć możliwość wykrycia charakterystycznych wzorców percepcyjnych, odpowiednio modulując działanie systemu percepcyjnego. Drugą istotną cechą procedur wykorzystywanych we wcześniejszych pracach było zastosowanie w charakterze bodźców maskujących zdjęć twarzy neutralnych lub zniekształconych. Oznacza to, iż bodziec maskujący oddziaływał na ten sam fragment systemu percepcyjnego co bodziec maskowany. W rezultacie mogło dojść do niekontrolowanej interferencji. Jeśli zamierzeniem badaczy było jak najsilniejsze stłumienie aktywności związanej z ekspozycją bodźca maskowanego, to wybór takiej formy maskowania wstecznego wydaje się uzasadniony. Należy jednak zwrócić uwagę, iż wówczas porównywanie przebiegu potencjałów ERP zarejestrowanych dla twarzy emocjonalnych oraz neutralnych jest obarczone specyficzną wadą. Maskowanie twarzy neutralnej poprzez ekspozycję innej twarzy neutralnej oznacza ni mniej ni więcej tylko ponadprogową prezentację tej ekspresji. Nawet zastosowanie zdjęć różnych osób w tej samej próbie nie rozwiązuje problemu, gdyż – jak sugeruje się w modelu Haxby’ego – rozpoznawanie sygnałów mimicznych musi przebiegać tak, aby niezależnie od tożsamości osoby, której twarz analizujemy, można było jednoznacznie ocenić wyraz mimiczny. Stąd procedura zastosowana w poniżej opisanym badaniu została zaplanowana w taki sposób, aby wykluczyć wpływ uwagi dowolnej oraz ograniczyć interferencję między procesami przetwarzania bodźców maskowanych i maskujących. 7.1. Eksperyment 4 7.1.1. Opis metody Uczestnicy badania i procedura eksperymentalna W badaniu uczestniczyło 41 osób. W grupie tej znalazło się 36 kobiet i 5 mężczyzn (średnia wieku: 20,44 roku; SD = 2,04). Do przygotowania procedury wykorzystano kolorowe zdjęcia pięciu kobiet i pięciu mężczyzn przedstawiające dwie ekspresje mimiczne (strach oraz ekspresja neutralna) wybrane z zestawu NimStim Face Stimulus Set (Tottenham i in., 2009). W sumie wykorzystano więc 20 różnych zdjęć twarzy. Ponadto zebrano z różnych witryn internetowych kolorowe zdjęcia 10 domów oraz 10 ciężarówek w celu stworzenia grupy obiektów innych niż twarze. Ten typ obiektów był wykorzystywany w podobnym celu przez wiele innych grup badaczy (Bentin i in., 1996; Eimer, 2000b; Itier i Taylor, 2004a; Itier, Latinus i Taylor, 2006; Liu, Harris i Kanwisher, 2002). Wszystkie zdjęcia przedstawiające twarze oraz obiekty niebędące twarzami miały identyczne wymiary (17,5 cm × 11,5 cm). Przygotowano również specjalne bodźce maskujące przy użyciu programu Corel PaintShopPro. Kolorowe zdjęcie przedstawiające kwiat zostało tak przygotowane, aby nie można było rozpoznać na nim żadnego naturalnego obiektu (zob. ryc. 22). Następnie przygotowano symetryczną oraz niesymetryczną wersję tego zdjęcia. Wersja niesymetryczna nie była dodatkowo przekształcana, lecz posłużyła do stworzenia wersji symetrycznej. Bodziec podzielono na dwie połowy, a następnie jego lewa połowa została zastąpiona przez zwierciadlane odbicie połowy prawej. Zarówno obraz maskujący symetryczny, jak i jego niesymetryczna wersja miały ten sam rozmiar (17,5 cm × 23 cm). Procedura eksperymentalna została podzielona na cztery bloki, oddzielone od siebie krótkimi przerwami. Każdą próbę eksperymentalną rozpoczynała ekspozycja przez 500 ms punktu fiksacji w postaci małego krzyżyka, po której następowała natychmiast prezentacja bodźca maskowanego (twarz lub nietwarz) trwająca 16 ms. Pojawienie się bodźca maskującego (symetrycznego lub niesymetrycznego) następowało zaraz potem, a prezentacja ta trwała 484 ms. Osoby badane miały za zadanie monitorować prezentowane na ekranie komputera obrazy oraz zareagować poprzez wciśnięcie przycisku zawsze wtedy, gdy na ekranie pojawiała się niesymetryczna wersja obrazu maskującego. Jednocześnie badani byli proszeni o powstrzymanie się od reakcji, gdy prezentowany obraz był symetryczny. Co ważne, uczestnicy badania nie zostali poinformowani o fakcie prezentacji przed tymi obrazami jakichkolwiek innych obiektów. Dziewięćdziesiąt procent prób zawierało ekspozycję maski symetrycznej (bez reakcji motorycznej), a pozostałe 5% prób było prezentacją obrazu maskującego w wersji niesymetrycznej (wymagały reakcji motorycznej). Po zakończeniu procedury eksperymentalnej przeprowadzano testy świadomości. Komponenty P1, N170, AP i EPN mierzono odpowiednio dla okna czasowego 100–120, 140–200, 160–250 oraz 215–310 ms po bodźcu. Schemat procedury oraz przykłady wykorzystanych bodźców przedstawiono na ryc. 22. Uzyskane w badaniu dane behawioralne nie zostały poddane analizie statystycznej ze względu na to, że reakcje osób badanych były rejestrowane wyłącznie w 5% prób. Ponadto praktycznie wszyscy uczestnicy uzyskiwali 100-procentową poprawność. Pierwsza grupa analiz danych elektrofizjologicznych miała na celu określenie specyfiki przetwarzania twarzy w porównaniu z innymi obiektami. W tym przypadku wykorzystano analizę wariancji z powtarzanymi pomiarami, uwzględniając dwa czynniki wewnątrzobiektowe, którymi były rodzaj bodźca (twarz vs + 500 ms 16 ms 484 ms 2500 ms punkt fiksacji prezentacja D prezentacja maski reakcja osoby badanej Ryc. 22. Schematyczna ilustracja procedury zastosowanej w eksperymencie 4. W oryginale wykorzystano kolorowe zdjęcia domów i ciężarówek pobrane z Internetu oraz zdjęcia twarzy z zestawu NimStim Set of Facial Expressions (Tottenham i in., 2009) nietwarz) oraz orientacja bodźca (normalna vs odwrócona). Analizy te zostały ograniczone do wczesnych komponentów P1 oraz N170. Celem drugiej grupy analiz było określenie różnic w procesie przetwarzania ekspresji emocjonalnej w warunkach podprogowej jej ekspozycji. Z tego względu była ona ograniczona do prób, w których bodźcem maskowanym była twarz. W tym przypadku również wykorzystano analizę wariancji z powtarzanymi pomiarami, uwzględniając dwa czynniki wewnątrzobiektowe: orientacja bodźca (normalna vs odwrócona) oraz rodzaj ekspresji (neutralna vs strach). W ten sposób analizowano różnice w amplitudzie komponentów P1, N170, AP oraz EPN. 7.1.2. Opis wyników Wyniki elektrofizjologiczne Rezultaty eksperymentu pozwoliły stwierdzić odmienne wzorce aktywacji kory wzrokowej wywołanej podprogową ekspozycją zdjęć twarzy oraz obiektów nie-będących twarzami. Efekt ten, przybierający postać istotnie wyższych amplitud wczesnych załamków P1 [F(1,40) = 32,63; p < 0,0001] oraz N170 [F(1,40) = 14,07; p = 0,001] zarejestrowanych dla twarzy, ma podobną charakterystykę jak w przypadku optymalnego czasu prezentacji tego rodzaju bodźców (zob. ryc. 23). Ponadto obserwowano istotne zróżnicowanie we wzorcach aktywacji mózgu podczas ekspozycji twarzy w pozycji normalnej i odwróconej. Modulacja ta również została zarejestrowana dla amplitudy załamków P1 [F(1,40) = 9,66; p = 0,003] oraz N170 [F(1,40) = 6,77; p = 0,013]. Zaobserwowano wyższe wartości amplitudy P1 w przypadku zapisu ERP uzyskanego dla prób z prezentacją odwróconej twarzy w porównaniu z prezentacją normalną. Amplituda N170 zanotowana dla normalnej prezentacji twarzy przybierała wyższe wartości w porównaniu z ekspozycją odwróconą. Podobnego wyniku nie zanotowano dla obiektów innych niż twarze (zob. ryc. 26). Ekspresja emocjonalna wywoływała odmienne wzorce potencjałów ERP w okolicach potylicznych pomiędzy 215 a 310 ms po ekspozycji bodźca (komponent EPN). Efekt w postaci dodatkowej fali ujemnej rejestrowanej w odpowiedzi na twarze wyrażające strach uzyskano jednak tylko wtedy, gdy bodźce były prezentowane w pozycji normalnej [F(1,40) = 6,82; p = 0,013] (zob. ryc. 24 i 26). Dla twarzy eksponowanych w pozycji odwróconej nie stwierdzono podobnego zróżnicowania (zob. ryc. 25 i 26). PO3 PO4 nietwarze twarze Ryc. 23. Przebieg uśrednionych potencjałów ERP zarejestrowanych w eksperymencie 4 w odpowiedzi na dwie główne kategorie bodźców (twarze oraz nietwarze), uzyskany dla elektrod zlokalizowanych w okolicy potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję domów oraz ciężarówek prezentowanych w normalnej pozycji, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy eksponowanych w pozycji normalnej, niezależnie od prezentowanej ekspresji emocjonalnej. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: P1 (100–120 ms) oraz N170 (150–190 ms). 7.1.3. Dyskusja wyników uzyskanych w eksperymencie 4 Teza, że twarze oraz inne obiekty są przetwarzane z wykorzystaniem odmiennych mechanizmów poznawczych oraz że podłożem tych mechanizmów są różne grupy struktur mózgowych, jest oparta między innymi na obserwacji odmiennych wzorców aktywności mózgu w trakcie przetwarzania tych klas bodźców. W przypadku miar elektrofizjologicznych obrazujących działanie układu nerwowego wskazuje się na komponent N170, którego charakterystyka jest zależna od rodzaju prezentowanego bodźca. W odpowiedzi na twarze obserwuje się wyższe amplitudy tego komponentu w porównaniu z innymi niż twarze obiektami (Bentin i in., 1996; Eimer, 1998; 2000a; 2000c; Rossion, Gauthier i in., 2000; Rossion i in., 2002; Taylor i in., 2001; zob. także rozdział 4). Ponadto komponent ten wykazuje wrażliwość na jedną z podstawowych manipulacji eksperymentalnych, stosowanych w badaniach procesów przetwarzania twarzy, jaką jest inwersja bodźca. Jak wspomniano wcześniej, ekspozycja twarzy w pozycji odwróconej prowadzi do F3Fz F4 EPN EPN EPN ekspresja neutralna ekspresja strachu Ryc. 24. Przebieg uśrednionych potencjałów ERP zarejestrowanych w próbach wykorzystujących normalną ekspozycję twarzy, uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających strach. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (140–200 ms), AP (160–250 ms) oraz EPN (215–310 ms) wydłużenia czasu latencji N170 oraz, choć w tym przypadku zmiana nie zawsze jest stwierdzana, wzrostu amplitudy tej fali (Bentin i in., 1996; Eimer, 2000c; Itier, Latinus i Taylor, 2006; Itier i in., 2007; Rossion, Gauthier i in., 2000). Co ważne, ekspozycja innych niż twarze obiektów w pozycji normalnej i inwertowanej nie przynosi zmian w charakterystyce komponentu N170. Stąd ocena wpływu rodza F3Fz F4 EPN EPN EPN ekspresja neutralna ekspresja strachu Ryc. 25. Przebieg uśrednionych potencjałów ERP zarejestrowanych w próbach wykorzystujących ekspozycję twarzy w pozycji odwróconej, uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających strach. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (140–200 ms), AP (160–250 ms) oraz EPN (215–310 ms) ju bodźca oraz sposobu jego prezentacji na podstawowe charakterystyki N170 może stanowić istotny wskaźnik przebiegu procesów przetwarzania twarzy. Wyniki uzyskane w opisanym powyżej eksperymencie pozwalają stwierdzić, iż różnice w zapisie potencjałów ERP obserwowane dla podprogowo eksponowanych twarzy oraz innych obiektów mają porównywalny charakter jak w przy < vs( :     $ $ $ $ Ryc. 26. Mapy potencjałów ERP prezentujące efekty inwersji twarzy i innych obiektów (domy + ciężarówki) oraz efekty ekspresji emocjonalnej uzyskane w przypadku normalnej i odwróconej prezentacji twarzy. Mapy przedstawiają zróżnicowanie średnich wartości uzyskanych dla trzech testowanych komponentów: P1 (100–120 ms), N170 (140–200 ms) oraz EPN (215–310 ms). W przypadku efektu inwersji kolory wskazujące na wartości ujemne oznaczają, że w odpowiedzi na prezentację bodźca w pozycji odwróconej uzyskano niższe wartości w porównaniu z bodźcami eksponowanymi normalnie. Kolory wskazujące na wartości dodatnie oznaczają, że zanotowano wyższe wartości w przypadku prezentacji bodźców w pozycji odwróconej w porównaniu z pozycją normalną. W przypadku efektu ekspresji emocjonalnej kolory wskazujące na wartości ujemne oznaczają, że w odpowiedzi na prezentację twarzy wyrażających strach uzyskano niższe średnie wartości w porównaniu z twarzami neutralnymi. Kolory wskazujące na wartości dodatnie oznaczają, że dla twarzy wyrażających strach zanotowano wyższe wartości w porównaniu z twarzami neutralnymi padku prezentacji tych samych klas bodźców ponadprogowo. Oznacza to, iż w warunkach uniemożliwiających lub silnie ograniczających możliwość odbioru świadomych wrażeń percepcyjnych możemy mówić o wzorcu działania mechanizmów przetwarzania twarzy podobnym do tego, jaki jest obserwowany wówczas, gdy twarz jest w pełni świadomie spostrzegana. Procesy mózgowe powiązane z poszczególnymi fazami analizy percepcyjnej twarzy zachodzą więc najprawdopodobniej w bardzo podobny sposób, niezależnie od tego, czy ostatecznie wywo-łują one doznania świadome lub ich nie wywołują. Dotyczy to także etapu analizy strukturalnej twarzy, której przebieg wydaje się niezakłócany przez zastosowanie procedury podprogowej i maskowanej wstecznie ekspozycji twarzy. Świadczy o tym obserwowany w niniejszym badaniu efekt inwersji twarzy. Podobnego efektu nie zanotowano dla bodźców, które twarzami nie były. Zgodnie z oczekiwaniami ekspresja emocjonalna nie wpłynęła istotnie na amplitudę komponentu N170. Jak wskazują rezultaty trzech poprzednich badań, modulacja w zakresie tego komponentu jest wynikiem oddziaływania ze strony uwagi dowolnej. Wzrost amplitudy N170 był notowany wyłącznie wówczas, gdy uwaga była w sposób kontrolowany zaangażowana w ocenę ekspresji emocjonalnej. Ze względu na fakt, iż osoby badane przed rozpoczęciem eksperymentu nie były nawet informowane o fakcie ekspozycji jakichkolwiek bodźców przed maską, trudno oczekiwać, że w takiej sytuacji będą w sposób intencjonalny wykorzystywać mechanizm uwagowy w procesie różnicowania sygnałów mimicznych. Brak różnic w przebiegu potencjałów ERP zanotowano także w odniesieniu do okna czasowego, dla którego możliwa jest rejestracja w okolicach czołowych komponentu AP. Na podstawie wyników poprzednich badań stwierdzono, że nie ma możliwości wskazania jednej spójnej reguły opisującej warunki, w jakich komponent ten może być obserwowany. We wcześniejszych pracach sugerowano, iż pojawianie się tego komponentu ma związek z oddziaływaniem uwagi o charakterze dowolnym na przebieg procesów analizy twarzy (Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Eimer i Holmes, 2007; Holmes, Vuilleumier i Eimer, 2003). Jednak analiza taka nie musi dotyczyć wyłącznie ekspresji emocjonalnej, lecz może być związana z oceną innych charakterystyk twarzy. Stąd sugestia, wsparta też wynikami naszego pierwszego badania (Wronka i Walentowska, 2011), że komponent AP może odzwierciedlać proces o charakterze mimowolnym, podczas którego dochodzi do uruchomienia wolnych zasobów uwagi. Takiego rezultatu nie można było oczekiwać w niniejszym badaniu ze względu na zastosowanie specyficznej ekspozycji bodźców. Skoro bowiem przy ponadprogowej prezentacji twarzy w eksperymencie 2 nie zanotowano tego komponentu, to wydawało się mało prawdopodobne, aby twarze pokazywane podprogowo i skutecznie maskowane wstecznie mogły wystarczająco silnie zaangażować mechanizm uwagi. Komponent EPN Najwięcej oczekiwań wiązano z komponentem EPN, który był konsekwentnie rejestrowany we wszystkich poprzednich badaniach niezależnie od rodzaju zadania. Podobne rezultaty uzyskano też w innych badaniach (Ashley, Vuilleumier i Swick, 2004; Batty i Taylor, 2003; Leppänen i in., 2007, Sato i in., 2001). Ponadto biorąc pod uwagę sugestie innych autorów (Schupp i in., 2003a; 2003b; 2004a), można wiązać występowanie tego komponentu z modulującym oddziaływaniem ciała migdałowatego na obszary kory wzrokowej, w sytuacji gdy pojawiający się bodziec został oceniony na poziomie ciała migdałowatego jako znaczący pod względem emocjonalnym. W rezultacie takiego oddziaływania dochodzi do wzrostu pobudzenia kory wzrokowej, co przyczynia się do precyzyjniejszej analizy danych sensorycznych docierających do systemu (Junghöfer, Schupp, Stark i Vaitl, 2005). Jeśli dodatkowo uwzględnimy dane sugerujące, iż możliwe jest wywołanie specyficznej aktywacji ciała migdałowatego, gdy jest znacznie ograniczona lub całkowicie niemożliwa świadoma percepcja twarzy (Morris, Öhman i Dolan, 1998; 1999; Morris, De Gelder, Weiskrantz i Dolan, 2001; Whalen i in., 1998; 2004), to wówczas możemy oczekiwać, iż EPN może być rejestrowany także w procedurze maskowania wstecznego. Wyniki uzyskane w niniejszym eksperymencie potwierdziły trafność tej sugestii. Zarejestrowano charakterystyczną ujemną falę w odpowiedzi na ekspozycje twarzy wyrażających strach w porównaniu z bodźcami neutralnymi. Zmiana ta, podobnie jak we wcześniejszych badaniach, pojawiała się w okolicach potylicznych około 200–300 ms po bodźcu. Bardzo podobny rezultat został uzyskany także w naszym innym badaniu (Walentowska i Wronka, w druku), w którym zastosowano niemal identyczną procedurę eksperymentalną. Co jednak bardzo istotne, efekt w postaci komponentu EPN został uzyskany wyłącznie dla twarzy, które były prezentowane w normalnej pozycji, i był całkowicie nieobecny, gdy bodźce były inwertowane. Wynik ten może oznaczać, iż przebieg analizy strukturalnej, która jest szczególnie wrażliwa na zmianę pozycji, w jakiej twarz jest pokazywana, determinuje siłę oddziaływań ciała migdałowatego na system korowy. Prowadzi to jednak również do dalszych wniosków dotyczących wzorców interakcji między elementami korowego systemu wyspecjalizowanego w przetwarzaniu twarzy a strukturami podkorowymi dokonującymi oceny znaczenia afektywnego bodźców. Skoro bowiem przyjęliśmy, że ciało migdałowate jest źródłem modulacji prowadzącej do pojawienia się komponentu EPN, wówczas fakt, iż efekt ten nie jest obserwowany dla twarzy inwertowanych, musi oznaczać, że manipulacja sposobem ekspozycji bodźca skutecznie zmienia wzorce takiej modulacji. Innymi słowy, zaburzenie analizy strukturalnej poprzez inwersję twarzy skutkuje zanikiem zróżnicowanej odpowiedzi ciała migdałowatego. Na tej podstawie można wyciągnąć wniosek, że informacje docierające do ciała migdałowatego i pozwalające na ocenę znaczenia afektywnego bodźca pochodzą ze struktur korowych, w tym przypadku systemu przetwarzania twarzy. Co więcej, jeśli wspomniany efekt został zarejestrowany w warunkach silnie ograniczających możliwość powstawania świadomych wrażeń i jednocześnie notowano normalne zróżnicowanie N170 dla twarzy oraz nietwarzy, to można wyciągnąć wniosek, że przetwarzanie ekspresji emocjonalnej przebiegające bez udziału świadomości odbywa się w systemie korowym. Dopiero na kolejnym etapie informacja opracowana w korze wzrokowej jest przekazywana do układu limbicznego, gdzie dokonywana jest jej ocena odnosząca się do znaczenia emocjonalnego i dopiero na tej podstawie możliwe jest zwrotne oddziaływanie na korę wzrokową rejestrowane pod postacią komponentu EPN. Nieświadome przetwarzanie ekspresji emocjonalnej i rola ciała migdałowatego w tym procesie Sugestia, że ciało migdałowate otrzymuje informacje odnoszące się do ekspresji emocjonalnej za pośrednictwem kory, jest w oczywisty sposób sprzeczna z założeniem o możliwości dokonywania oceny znaczenia afektywnego stymulacji poprzez system połączeń podkorowych, angażujących wzgórki górne śródmózgowia i jądra poduszki wzgórza (Morris, Öhman i Dolan, 1998; 1999; Morris, De Gelder, Weiskrantz i Dolan, 2001; zob. także rozdział 5). Jak jednak pamiętamy, hipoteza odnosząca się do istnienia takiego systemu połączeń oparta jest na bardzo wątpliwym materiale empirycznym. Co więcej, nawet gdybyśmy uznali, że komponent EPN jest korelatem modulujących oddziaływań ciała migdałowatego, które otrzymało informacje o bodźcu za pośrednictwem struktur podkorowych, wówczas musimy wyjaśnić, dlaczego efekt ten był obserwowany wyłącznie wtedy, gdy twarz była eksponowana w normalnej pozycji. Konieczne w tej sytuacji byłoby kolejne założenie, iż na poziomie którejś z wymienionych wyżej struktur podkorowych dokonywana jest analiza relacji przestrzennych między elementami twarzy, zbliżona do tej zachodzącej w obrębie korowego systemu wyspecjalizowanego w przetwarzaniu twarzy. Brak jest jednak danych, które mogłyby świadczyć o prawdziwości takiego założenia. Istnieje za to wiele danych sugerujących, że to połączenia z poziomu kory wzrokowej stanowią dla ciała migdałowatego główne źródło danych o aktualnie oddziałujących bodźcach (Amaral, Behniea i Kelly, 2003; Price, 2002). W przypadku twarzy połączenia te pochodzą najprawdopodobniej z tych części kory, które są wyspecjalizowane w jej przetwarzaniu. Po pierwsze, porównanie czasowej charakterystyki aktywacji kory wzrokowej oraz ciała migdałowatego w procesach przetwarzania twarzy sugeruje, iż efekty rejestrowane na poziomie kory wyprzedzają lub mają miejsce równocześnie z obserwowanymi w przypadku ciała mig-dałowatego. Jak przedstawiono w rozdziale 5, czas latencji odpowiedzi komórek wrażliwych na prezentacje twarzy, znajdujących się w korze wzrokowej makaków, wynosi 80–90 ms (Perret, Rolls i Caan, 1982; Perret i in., 1985). Badania Batty i Taylor (2003) wskazują, że w podobnym oknie czasowym pojawia się specyfi cz-na aktywacja w okolicach STS u ludzi. Rezultaty uzyskane przy wykorzystaniu MEG sugerują ponadto, iż efekt ekspresji emocjonalnej może być obserwowany w tym właśnie rejonie kory około 140–170 ms po ekspozycji bodźca, wyprzedzając analogiczny efekt dla ciała migdałowatego notowany ponad 50 ms później (Streit i in., 1999). Jest to również zgodne z wynikami zaprezentowanymi przez Krolak-Salmona i jego współpracowników (Krolak-Salmon i in., 2004), którzy u pacjentów przed operacją rejestrowali bezpośrednio aktywność ciała migdałowatego w odpowiedzi na twarze wyrażające różne stany emocjonalne. Uzyskali oni dane sugerujące, że różnicowanie ekspresji emocjonalnej na poziomie ciała migdałowatego zachodzi około 200 ms po bodźcu. Wszystkie te dane wskazują, że różnicowanie ekspresji emocjonalnej na poziomie kory wzrokowej zachodzi wcześniej niż w ciele migdałowatym. Zgodne jest to więc z tezą, iż to właśnie kora jest dla ciała migdałowatego jedynym wiarygodnym źródłem danych odnoszących się do mimiki twarzy. Jeśli uznalibyśmy, że zaprezentowana powyżej teza o pierwszeństwie przetwarzania korowego jest prawdziwa, to wówczas można się pokusić o przedstawienie czasowej charakterystyki przebiegu całej analizy ekspresji mimicznej, uwzględniającej także wzajemne oddziaływania między elementami korowymi i podkorowymi. Proces identyfikacji ekspresji mimicznej rozpoczyna się od analizy elementów twarzy, która odbywa się około 90–100 ms po bodźcu. Na tym etapie dla każdej części twarzy niezależnie dokonywany jest opis wielkości, kolorystyki i położenia w przestrzeni danego elementu. Mózgowym korelatem tego procesu może być komponent P1 lub jego odpowiednik rejestrowany za pomocą MEG (M100). W tym samym czasie rozpoczyna się dużo bardziej złożona analiza strukturalna uwzględniająca przestrzenne relacje między elementami twarzy. Dotyczy ona zarówno stałych, jak i zmiennych charakterystyk twarzy. Ten etap kończy się około 160–170 ms po ekspozycji twarzy, co odzwierciedla komponent N170. Następnie informacja ta zostaje przekazana do innych rejonów mózgu, tworzących tzw. rozszerzoną część systemu przetwarzania twarzy. Dotyczy to kory w płacie czołowym oraz podkorowych struktur układu limbicznego. Około 30–50 ms później ciało migdałowate wywołuje wzrost pobudzenia w korze wzrokowej, notowany w zapisie ERP w postaci komponentu EPN. Proces ten ma charakter mimowolny i jest uzależniony wyłącznie od siły pobudzenia ciała migdałowatego. Jednocześnie możliwe jest mimowolne zaangażowanie mechanizmu uwagi, które może być widoczne jako komponent AP. Jednak ten proces zależy od sposobu, w jaki system uwagi dowolnej jest wykorzystywany w przypadku procesów percepcyjnych. Propozycja takiego porządku czasowego poszczególnych procesów jest zgodna z wynikami uzyskanymi w czterech przeprowadzonych eksperymentach własnych. Uwzględnia ona również możliwość rejestracji różnych, pod względem czasu ich pojawiania się oraz lokalizacji mózgowej, efektów ekspresji emocjonalnej przy zastosowaniu pomiaru ERP. Propozycja ta jest także zgodna z sugestią, że przetwarzanie ekspresji emocjonalnej jest częściowo uzależnione od dostępności zasobów uwagi. Ponadto – jak wskazują wyniki niniejszego badania – uwzględnia ewentualność przebiegu niemal całości tych procesów bez udziału świadomości. Niezależnie jednak od tego, czy przedstawiona powyżej propozycja przebiegu procesów przetwarzania ekspresji emocjonalnej jest trafna, czy też nie, pozostaje ona jak na razie wyłącznie spekulacją. Możliwe jest jednak testowanie prawdziwo-ści poszczególnych fragmentów tej hipotezy w kolejnych eksperymentach. Pierwszym krokiem może być określenie różnic w sile efektu ekspresji emocjonalnej, rejestrowanego w warunkach podprogowej ekspozycji bodźców, w przypadku wyrazów mimicznych radości i strachu. 7.2. Eksperyment 5 W poprzednim eksperymencie zanotowano efekt ekspresji emocjonalnej w postaci komponentu EPN w warunkach podprogowej ekspozycji twarzy, co uniemożliwiało jej świadomą percepcję. Wynik ten stanowi kolejne potwierdzenie tezy, że komponent ten może być związany z procesami mimowolnego różnicowania mimiki emocjonalnej. Jednak wnioskowanie na podstawie rezultatów tego badania jest ograniczone przez fakt, iż w eksperymencie wykorzystano wyłącznie jeden rodzaj ekspresji emocjonalnej. Innym ważnym rezultatem tego samego badania była obserwacja, że występowanie efektu ekspresji emocjonalnej, przybierające-go postać komponentu EPN, było ograniczone wyłącznie do warunku, w którym twarze były eksponowane w normalnej pozycji. Na tej podstawie postawiono hipotezę, iż zróżnicowanie w przebiegu potencjałów ERP notowane w okolicach potylicznych około 200–300 ms po ekspozycji bodźca odzwierciedla proces o charakterze mimowolnym, którego podstawą jest oddziaływanie ciała migdałowate-go na poziom pobudzenia kory wzrokowej. Jednak możliwość wywierania wpły-wu przez ciało migdałowate jest zdeterminowana przez procesy analizy twarzy zachodzące na poziomie kory mózgowej. Celem niniejszego badania jest ocena różnic w zakresie tego oddziaływania między dwoma różnymi rodzajami ekspresji. W tym celu wykorzystano zdjęcia przedstawiające twarze z ekspresją radości i strachu, które, jak pokazał eksperyment 3, umożliwiają uzyskanie porównywalnych wyników w przypadku po-nadprogowej ekspozycji. W niniejszym eksperymencie zastosowano podobną procedurę jak w przypadku poprzedniego badania, prezentując zdjęcia w normalnej oraz odwróconej pozycji. Celem było określenie związku między procesami analizy strukturalnej, przebiegającej prawidłowo i zaburzonej przez inwersję twarzy, a oddziaływaniem ciała migdałowatego na procesy zachodzące w korze wzrokowej, którego korelatem jest komponent EPN. Wprowadzono jednak również drobną modyfikację, która polegała na zwiększeniu trudności zadania wykonywanego przez osoby badane. W poprzednim eksperymencie polegało ono na monitorowaniu symetrii bodźca maskującego i wskazaniu prób, w których bodziec ten był eksponowany w postaci wzorca niesymetrycznego. Reakcja badanych była więc wymagana tylko w tym przypadku, natomiast analizy zapisu ERP dokonywano dla prób niewymagających reakcji motorycznej. W niniejszym badaniu użyto zmodyfikowanego bodźca maskującego, a reakcja osób badanych była wymagana w każdej próbie. Ta prosta zmiana miała na celu zaangażowanie w większym stopniu zasobów uwagi w przetwarzanie tego bodźca. Oznaczałoby to równocześnie, iż pula wolnych zasobów, które mogłyby być wykorzystane w procesie przetwarzania ekspresji emocjonalnej, uległaby redukcji. Na podstawie wyników uzyskanych przez Luiza Pessoa (Pessoa, McKenna, Gutierrez i Ungerleider, 2002) można założyć, że jeśli zasoby uwagi będą intensywniej wykorzystywane w zadaniu o większym stopniu trudności, to wówczas redukcji może także ulec poziom aktywacji ciała migdałowatego, co powinno się przełożyć na wielkość komponentu EPN. 7.2.1. Opis metody Uczestnicy badania i procedura eksperymentalna W badaniu uczestniczyło 19 osób. W grupie tej znalazło się 15 kobiet i czterech mężczyzn (średnia wieku: 21,58 roku; SD = 1,95). W badaniu wykorzystano kolorowe zdjęcia pięciu kobiet i pięciu mężczyzn przedstawiające trzy ekspresje mimiczne (strach, radość oraz ekspresję neutralną) wybrane z zestawu Radboud Fa-ces Database RaFD (Langner i in., 2010). W sumie wykorzystano więc 30 różnych zdjęć twarzy o identycznych wymiarach (17,5 cm × 11,5 cm). Wykorzystano również abstrakcyjny rysunek, który posłużył jako bodziec maskujący. Rysunek ten został wcześniej użyty w eksperymencie 4 (bodziec maskujący symetryczny). Na potrzeby niniejszego badania dokonano w nim zmiany poprzez wstawienie, przy użyciu programu Corel PaintShopPro, zbliżonej kolorystycznie strzałki wskazującej w prawo lub w lewo. W rezultacie powstały dwie różne wersje bodźca masku-jącego (zob. ryc. 27) o rozmiarach (17,5 cm × 23 cm). Procedura eksperymentalna została podzielona na dwa bloki, oddzielone od siebie krótką przerwą. Podobnie jak w poprzednim eksperymencie każdą próbę eksperymentalną rozpoczynała ekspozycja przez 300 ms punktu fiksacji w postaci małego krzyżyka, po której następowała natychmiast prezentacja zdjęcia twarzy trwająca 20 ms. Ekspozycja bodźca maskującego następowała zaraz po zniknięciu twarzy. Jego prezentacja trwała 480 ms. Osoby badane miały za zadanie monitorować prezentowane na ekranie komputera obrazy oraz zareagować poprzez wciśnięcie lewego przycisku zawsze wtedy, gdy na ekranie pojawiał się obraz maskujący ze strzałką wskazującą w lewo, lub poprzez wciśnięcie prawego przycisku, gdy strzałka bodźca maskującego wskazywała w prawo. Jednocześnie osoby badane nie były + 500 ms 20 ms 480 ms 2500 ms punkt fiksacji prezentacja prezentacja reakcja osobyD maski badanej Ryc. 27. Schematyczna ilustracja procedury zastosowanej w eksperymencie 5. W oryginale wykorzystano kolorowe zdjęcia domów i ciężarówek pobrane z Internetu oraz zdjęcia twarzy z zestawu Radboud Faces Database RaFD (Langner i in., 2010) poinformowane o fakcie prezentacji przed tymi obrazami jakichkolwiek innych obiektów. W przypadku każdej z ekspresji w połowie prób zdjęcia były prezentowane w normalnej pozycji, a w drugiej połowie w pozycji odwróconej. Po zakończeniu procedury eksperymentalnej przeprowadzano testy świadomości. Komponenty P1, N170, AP i EPN mierzono odpowiednio dla okna czasowego 100–130, 160–185, 160–250 oraz 260–310 ms po bodźcu. Schemat procedury oraz przykła-dy wykorzystanych bodźców przedstawiono na ryc. 27. Analiza danych behawioralnych obejmowała te próby, w których osoby badane udzieliły prawidłowych odpowiedzi. Przeprowadzono niezależne analizy wariancji z powtarzanymi pomiarami dla wskaźników poprawności oraz szybkości reagowania. W obu przypadkach uwzględniono dwa czynniki wewnątrzobiekto-we: rodzaj ekspresji (strach vs radość vs ekspresja neutralna) oraz orientacja bodźca (normalna vs odwrócona). W analizie danych EEG również wykorzystano analizę wariancji z powtarzanym pomiarem. W przypadku komponentów ERP uwzględniono dwa czynniki wewnątrzobiektowe, którymi były rodzaj ekspresji (strach vs radość vs ekspresja neutralna) oraz orientacja bodźca (normalna vs odwrócona). We wszystkich przypadkach, gdy było to konieczne, zastosowano poprawki Greenhouse’a-Geissera. W opisie wyników podano skorygowane współczynniki p. Testy post-hoc zostały przeprowadzone metodą Bonferroniego. 7.2.2. Opis wyników Wyniki behawioralne Reakcje osób badanych zarejestrowane w próbach z ekspozycją twarzy odwróconych okazały się istotnie szybsze, gdy porównano je z próbami z prezentacją twarzy w pozycji normalnej (odpowiednio: 408,03 oraz 413,74 ms). W rezultacie zanotowano istotny efekt główny czynnika orientacja bodźca [F(1,18) = 7,50; p = 0,014]. Jednocześnie uzyskano istotny efekt główny dla czynnika rodzaj ekspresji [F(2,36) = 12,46; p < 0,001; ε = 0,862]. Najdłuższe czasy reakcji zanotowano dla prób, w których prezentowano twarze wyrażające strach (417,08 ms). Szybkość odpowiedzi w przypadku dwóch pozostałych ekspresji pozostawała na porównywalnym poziomie (odpowiednio dla ekspresji radości i ekspresji neutralnej: 407,80 oraz 407,81 ms). Obserwację tę dodatkowo wspierają rezultaty analizy post-hoc wskazujące na istotne różnice w szybkości udzielania odpowiedzi w próbach wykorzystujących ekspresję strachu w porównaniu z ekspresją neutralną (p < 0,001) oraz ekspresją radości (p = 0,005). Ta sama analiza nie przyniosła istotnych wyników, gdy porównano średnie czasy reakcji zarejestrowanych w próbach z ekspozycją neutralnego wyrazu mimicznego oraz ekspresji radości. Co ważne, analiza efektu interakcyjnego czynników orientacja bodźca oraz rodzaj ekspresji nie przyniosła istotnych wyników. Identyczna analiza przeprowadzona dla wskaźników poprawności wykonania zadania nie dała żadnych istotnych rezultatów. Zanotowano bardzo wysoką poprawność zarówno dla prób z prezentacją normalną (99,21%), jak i dla ekspozycji odwróconej (98,77%). W przypadku wszystkich trzech rodzajów ekspresji uzyskano porównywalne wyniki (odpowiednio dla ekspresji radości, strachu i neutralnej: 98,88%, 99,34% oraz 98,75%). W rezultacie nie stwierdzono istotnego zróżnicowania w przypadku wskaźników poprawności wykonania zadania. Podsumowując, uzyskane w przedstawionej analizie wyniki pozwalają stwierdzić, że podprogowa prezentacja zdjęć twarzy wyrażających trzy odmienne stany emocjonalne wpłynęła na szybkość wykonywania zadania eksperymentalnego. Podobnej modulacji nie obserwowano w przypadku poprawności reagowania (ryc. 28). Wyniki elektrofizjologiczne Manipulacja orientacją bodźca przyniosła spodziewany skutek w postaci modulacji amplitudy komponentów P1 [F(1,18) = 13,61; p = 0,002] oraz N170 [F(1,18) = 5,83; p = 0,027]. Amplituda komponentu P1 osiągała wyższe wartości dla twarzy odwróconych w porównaniu z normalną prezentacją. Komponent N170 mierzony dla prób z odwróconą ekspozycją twarzy również był silniej wyrażony w porównaniu z normalną prezentacją twarzy. Wyniki przeprowadzonej analizy sugerują także, iż prezentacja podprogowa twarzy z ekspresją emocjonalną może modyfikować aktywność kory wzrokowej Rodzaj ekspresji Rodzaj ekspresji Ryc. 28. Ilustracja zróżnicowania reakcji behawioralnych obserwowanego w eksperymencie 5. Ciemne słupki obrazują wskaźniki zanotowane dla twarzy eksponowanych w pozycji odwróconej, jasne słupki przedstawiają wskaźniki zarejestrowane dla twarzy przedstawionych w pozycji normalnej około 100 ms po ekspozycji bodźca. Zarejestrowany efekt oscylował na granicy istotności statystycznej [F(2,36) = 3,20; p = 0,052; ε = 0,997]. Analiza post-hoc wykazała jednak różnicę na poziomie tendencji statystycznej wyłącznie dla porównania ekspresji neutralnej i ekspresji radości (p = 0,059). Amplituda P1 była wyższa dla twarzy neutralnych w porównaniu z wyrażającymi radość. Porównania w pozostałych parach nie przyniosły istotnych wyników. Nie zanotowano modulacji w zakresie amplitudy komponentu N170. Ekspresja mimiczna nie wpływała również na aktywność kory płata czołowego rejestrowaną w oknie czasowym 160–250 ms po prezentacji bodźca. Analiza potencjałów ERP mierzonych pomiędzy 260 a 310 ms po bodźcu (komponent EPN) wykazała słaby efekt ekspresji emocjonalnej [F(2,36) = 3,00; p = 0,079; ε = 0,757]. Zanotowano co prawda charakterystyczną dodatkową falę ujemną, szczególnie w przypadku ekspresji strachu, lecz różnica ta była umiarkowana i nie osiągnęła poziomu istot-ności statystycznej. Uzyskane wyniki zostały przedstawione na ryc. 29–31. 7.2.3. Dyskusja wyników uzyskanych w eksperymencie 5 Przed przeprowadzeniem badania oczekiwano, że zastosowanie trudniejszego zadania może skutkować redukcją wielkości komponentu EPN obserwowanego w okolicach potylicznych. Jak to zostało wcześniej zasugerowane, komponent ten może odzwierciedlać modulujący wpływ ciała migdałowatego na poziom pobudzenia kory wzrokowej notowany w odpowiedzi na bodźce o dużym znaczeniu emocjonalnym. W poprzednich eksperymentach rejestrowano ten komponent dla dwóch rodzajów ekspresji emocjonalnej – radości oraz strachu. Twarze wyrażające te właśnie emocje wykorzystano więc w niniejszym badaniu. Co więcej, efekt w postaci EPN był rejestrowany dla tych ekspresji niezależnie od zastosowa F3 Fz F4 AP [μV [μV] N170 PO7 PO8 N170 N170 [μV] [μV] EPN EPN O1 O2 P1 EPN EPN EPN ekspresja neutralna ekspresja strachu L Ryc. 29. Przebieg uśrednionych potencjałów ERP zarejestrowanych w próbach wykorzystujących normalną ekspozycję twarzy, uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających strach, linia w kolorze niebieskim ilustruje potencjały zanotowane dla twarzy wyrażających radość. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: P1 (100–130 ms), N170 (160–185 ms), AP (160–250 ms) oraz EPN (260–310 ms) nych zadań wymagających odmiennych wzorców zaangażowania uwagi (eksperymenty 1–3), a nawet w sytuacji wykorzystania paradygmatu znacznie ogranicza-jącego możliwość świadomego odbioru ekspresji emocjonalnej (eksperyment 4). Na tej podstawie wnioskowano, że EPN jest odzwierciedleniem procesu mimowolnego różnicowania sygnałów mimicznych, zachodzącego prawdopodobnie PO3 PO4 PO7 N170 [μV] EPN EPN O1 P1 P1 EPN EPN ekspresja neutralna ekspresja strachu L Ryc. 30. Przebieg uśrednionych potencjałów ERP zarejestrowanych w próbach wykorzystujących ekspozycję twarzy w pozycji odwróconej, uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wy-rażających strach, linia w kolorze niebieskim ilustruje potencjały zanotowane dla twarzy wyrażających radość. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: P1 (100–130 ms), N170 (160–185 ms), AP (160–250 ms) oraz EPN (260–310 ms) przy współudziale struktur podkorowych. Stąd wyniki uzyskane dla tego komponentu mają istotne znaczenie w opisie całokształtu procesów przetwarzania ekspresji emocjonalnej. Zastosowanie nowego typu zadania, w większym stopniu wymagającego za-angażowania mechanizmu uwagi oraz stałej gotowości do reagowania, spowodo TWARZE PREZENTOWANE W POZYCJI NORMALNEJ STRACH û STRACH û STRACH û STRACH û TWARZE PREZENTOWANE W POZYCJI ODWRÓCONEJ STRACH û STRACH û STRACH û STRACH û Ryc. 31. Mapy potencjałów ERP prezentujące efekty ekspresji emocjonalnej uzyskane w przypadku normalnej oraz odwróconej prezentacji twarzy. Mapy przedstawiają różnicę w średnich wartościach uzyskanych dla czterech testowanych komponentów: P1 (100–130 ms), N170 (160–185 ms), AP (160–250 ms) oraz EPN (250–400 ms). Kolory wskazujące na wartości ujemne oznaczają, że w odpowiedzi na prezentację twarzy wyrażających strach lub radość uzyskano niższe średnie wartości w porównaniu z twarzami neutralnymi. Kolory wskazujące na wartości dodatnie oznaczają, że dla twarzy wyrażających strach lub radość zanotowano wyższe wartości w porównaniu z twarzami neutralnymi wało silną redukcję komponentu EPN. Różnica w przebiegu potencjałów ERP dla twarzy neutralnych i emocjonalnych okazała się mała i nieistotna statystycznie, niezależnie od rodzaju ekspresji. W sytuacji gdy twarze były pokazywane w pozycji odwróconej, również nie zanotowano tego komponentu. W świetle propozycji przedstawionej w dyskusji dotyczącej poprzedniego eksperymentu i odnoszącej się do charakterystyki przebiegu całego procesu analizy ekspresji emocjonalnej uzyskane wyniki oznaczają, że pobudzenie ciała migdałowatego wywołane ekspozycją twarzy emocjonalnych było relatywnie słabe. W rezultacie struktura ta nie mogła w istotny sposób wpłynąć na poziom pobudzenia kory wzrokowej, co mogłoby być widoczne w postaci komponentu EPN. Podobny efekt redukcji pobudzenia ciała migdałowatego wywołany przez manipulację uwagą zanotowano w badaniach zespołu Pessoa (Pessoa, McKenna, Gutierrez i Ungerleider, 2002) i Silvert (Silvert i in., 2007). Wydaje się również, że rezultaty uzyskane w niniejszym badaniu potwierdzają hipotezę, iż ciało migdałowate dokonuje oceny znaczenia afektywnego stymulacji, opierając się na danych dostarczanych przez korę wzrokową. Zastosowana manipulacja powodowała, że procesy analizy danych sensorycznych odnoszących się do rodzaju eksponowanej ekspresji i przetwarzanych na poziomie kory były w istotny sposób zaburzane przez maskowanie wsteczne. Dodatkowo instrukcja wymuszała szybką ocenę bodźca maskującego oraz odpowiednią reakcję na ten bodziec. Można zatem oczekiwać, iż mechanizm uwagi dowolnej silnie zaangażowany w ten proces mógł odpowiednio modulować pobudzenie w różnych obszarach kory wzrokowej. Tego rodzaju wyniki były wielokrotnie rejestrowane w badaniach dotyczących wpływu uwagi na przebieg procesów analizy percepcyjnej (Beck i Kastner, 2009; Duncan, 2006; Kastner i Ungerleider, 2000; Pessoa, Kastner i Ungerleider, 2002). W rezultacie więc aktywacja elementów systemu wzrokowego wyspecjalizowanych w przetwarzaniu twarzy była aktywnie tłumiona do tego stopnia, że uniemożliwiło to przeprowadzenie odpowiednio dokładnej analizy ekspresji emocjonalnej. Co zatem idzie, informacje dostarczone z poziomu kory do ciała migdałowatego okazywały się niewystarczające, aby jednoznacznie określić znaczenie afektywne bodźca. Skuteczność manipulacji pośrednio potwierdzają także wyniki uzyskane dla komponentów N170 oraz AP. W obu przypadkach nie obserwowano istotnych różnic odnoszących się do ekspresji emocjonalnej. Nie jest to zaskakujące w odniesieniu do N170. W żadnym z poprzednich badań nie zanotowano efektu ekspresji emocjonalnej związanego z tym komponentem w warunkach, które nie wymagały explicite różnicowania sygnałów mimicznych. Odmienna sytuacja zachodzi w przypadku komponentu AP, którego wrażliwość na rodzaj eksponowanej ekspresji zanotowano w eksperymencie 1 oraz 3. Wydaje się jednak, że komponent ten podlega także innym czynnikom, które modyfikują rejestrowane dla kory czołowej efekty ekspresji emocjonalnej. Innymi słowy, trudno jednoznacznie stwierdzić, co jest przyczyną niemożności uzyskania zgodnych rezultatów dla tego komponentu. Jeśli uznamy jednak, że AP jest korelatem procesu mimowolnego uruchamiania wolnych zasobów uwagi, to uzasadnione wydaje się twierdzenie, iż zastosowanie procedury wymagającej relatywnie silnego zaangażowania mechanizmu uwagi przy jednoczesnym maskowaniu wstecznym zdjęć twarzy skutecznie uniemożliwiło pojawienie się takiego zróżnicowania. Na koniec warto wspomnieć o efekcie zarejestrowanym w odniesieniu do amplitudy P1. Analiza amplitudy tego komponentu wykazała bowiem, że w przypadku ekspresji radości P1 był słabiej wyrażony w porównaniu z twarzami neutralnymi. Efekt ten oscylował na granicy istotności. Dla twarzy przedstawiających strach nie zanotowano podobnego zróżnicowania. Jak to zostało przedstawione w rozdziale 4, komponent ten może być związany z wczesnymi etapami przetwarzania twarzy (Herrmann i in., 2005; Liu, Harris i Kanwisher, 2002). Sugerowano, że jest on odzwierciedleniem procesów klasyfikacji spostrzeganych obiektów na twarze oraz nietwarze. Ponadto przypuszcza się, iż komponent ten może być wrażliwy na zmiany w odniesieniu do pojedynczych elementów twarzy. Możliwe więc, że różnica w wielkości amplitudy komponentu P1 obserwowana w przypadku twarzy neutralnych i przedstawiających radość obrazuje ten etap analizy twarzy i jest związana z odmiennym wizerunkiem któregoś z elementów twarzy. Wydaje się uzasadnione przypuszczenie, że może chodzić o uśmiech. Na większo-ści zdjęć użytych w badaniu uśmiechnięta twarz przedstawiona była z otwartymi ustami i widocznymi zębami. Ten właśnie element mógł spowodować pojawienie się różnic w amplitudzie P1. Co ważne, podobny wzorzec zanotowano zarówno dla prezentacji w pozycji normalnej, jak i odwróconej. Na tej podstawie można wyciągnąć wniosek, że obserwowany efekt dotyczy etapu przetwarzania poprze-dzającego analizę strukturalną twarzy. Warto także wspomnieć, iż zróżnicowanie amplitudy P1 związane z ekspresją emocjonalną było sporadycznie obserwowane także przez innych badaczy (Holmes, Kragh Nielsen i Green, 2008; Holmes i in., 2009; Pourtois i in., 2004; Vlamings, Goffaux i Kemner, 2009). Trudno jednak wnioskować, czy efekty obserwowane w tych badaniach oraz modulacja P1 zanotowana w niniejszym eksperymencie są związane z podobnym procesem. 7.3. Eksperyment 6 Celem przeprowadzonego eksperymentu była przede wszystkim replikacja efektów ekspresji emocjonalnej uzyskanych we wcześniejszych badaniach. Na podstawie rezultatów poprzedniego eksperymentu przyjęto, że najwcześniej efekt ekspresji emocjonalnej może być obserwowany około 100 ms po bodźcu, w postaci modulacji amplitudy komponentu P1. Wynik ten nie był jednak notowany we wcześniejszych badaniach własnych, stąd należałoby dokonać jego replikacji, zanim zostanie podjęta próba jego interpretacji. Warto przy tym wspomnieć, iż podobny efekt jest, choć stosunkowo rzadko, opisywany w literaturze (Holmes, Kragh Nielsen i Green, 2008; Holmes i in., 2009; Pourtois i in., 2004; Vlamings, Goffaux i Kemner, 2009). Kolejny specyficzny efekt obserwowany w kilku poprzednich eksperymentach miał postać wzrostu amplitudy N170. W tym jednak przypadku notuje się wyraźny związek z procesami o charakterze dowolnym. Modulacja N170 była notowana wyłącznie w warunkach wymagających zaangażo-wania uwagi w różnicowanie ekspresji emocjonalnej i nie obserwowano jej, gdy uwaga była wykorzystywana w procesach analizy innych cech twarzy (płeć, tożsamość) lub innych bodźców. Odmienny wzorzec zależności notowano w odniesieniu do komponentów AP oraz EPN, które – jak wskazywały poprzednio opisane wyniki – mogą odzwierciedlać procesy o charakterze mimowolnym. W przypadku komponentu AP można jednak mówić o wielu niejasnościach. Wcześniej sugerowano, iż może on być odzwierciedleniem angażowania wolnych zasobów uwagi w proces analizy twarzy. Skoro bowiem twierdzi się, że ekspresja emocjonalna ma istotne znaczenie dla relacji między jednostkami, wówczas należałoby oczekiwać, że system poznawczy w sposób szczególny będzie nakierowany na wykrywanie tego rodzaju sygnałów. Jest to z pewnością ułatwione w sytuacji, gdy mechanizm uwagi jest zaangażowany w różnicowanie mimiki emocjonalnej. Wówczas automatycznie zasoby uwagi są wykorzystywane w tym procesie. Odmiennie jest jednak, gdy mechanizm uwagi jest zaangażowany w analizę innych bodźców i kierowanie reakcją behawioralną im odpowiadającą. Zasoby uwagi mogą być wtedy spożytkowane przez proces różnicowania ekspresji mimicznej, jeśli tylko nie zostały wcześniej przypisane do procesów przetwarzania danych o obiektach innego rodzaju. Jeśli jakaś pula zasobów pozostaje niezagospodarowana, to można oczekiwać ich aktywowania na podobieństwo podobnych procesów zachodzących również w przypadku bodźców neutralnych (Wronka, Kuniecki, Kaiser i Coenen, 2007; Wronka, Kaiser i Coenen, 2008; 2012). Natomiast w przypadku komponentu EPN można podejrzewać, że jest on wynikiem oddziaływania z poziomu struktur podkorowych, najprawdopodobniej ciała migdałowatego, które oceniając znaczenie afektywne bodźca, wywołuje następnie wzrost aktywacji kory wzrokowej przyczyniający się do zwiększenia dokładności analizy sensorycznej. Efekt taki jest więc obserwowany tylko w przypadku bodźców o dużym znaczeniu emocjonalnym i tylko wówczas, gdy – jak pokazały wyniki poprzedniego badania – uwaga nie jest jednocześnie silnie zaangażowana w przetwarzanie innych niż twarze bodźców (por. także: Pessoa, McKenna, Gutierrez i Ungerleider, 2002; Silvert i in., 2007). Dodatkowym czynnikiem, który może silnie wpływać na opisane wyniki, jest pozycja, w jakiej twarz jest prezentowana. Inaczej bowiem przebiega analiza strukturalna, gdy twarz jest prezentowana normalnie w porównaniu z jej ekspozycją odwróconą. Jak wskazują wyniki eksperymentu 4, wpływa to istotnie na proces generowania komponentu EPN. Biorąc pod uwagę wskazane powyżej charakterystyki poszczególnych komponentów, zaplanowano eksperyment, który w zamierzeniu miał ułatwić zarejestrowanie części ze wspomnianych efektów ekspresji emocjonalnej. Oczekiwano, że ekspresja emocjonalna będzie wywoływała procesy mimowolnego angażowania zasobów uwagi (AP) oraz efekt modulacji kory wzrokowej (EPN). W zadaniu polegającym na detekcji neutralnego bodźca eksponowano również twarze przedstawiające strach i stan neutralny, zarówno w pozycji normalnej, jak i odwróconej. Co ważne, twarze były eksponowane jako tło dla bodźca kluczowego, lecz ich wyświetlanie rozpoczynało się o wiele wcześniej niż bodźca kluczowego. Stąd oczekiwano, iż uwaga osoby badanej będzie skupiona w tej samej części przestrzeni przez cały czas, co ułatwi wywołanie procesów o charakterze mimowolnym, zwłaszcza że procesy percepcyjne odnoszące się do bodźca kluczowego oraz reakcja motoryczna na pojawienie się tego bodźca będą się rozpoczynać wystarczająco długo po ekspozycji twarzy. Tym samym ograniczona zostanie możliwość interferencji między procesami przetwarzania twarzy i bodźca kluczowego, co z kolei oznacza, że w momencie prezentacji twarzy zasoby uwagi będą mogły być mimowolnie zaangażowane w analizę ekspresji emocjonalnej. Dodatkowa manipulacja pozycją, w jakiej wyświetlana była twarz, miała na celu ocenę wpływu analizy strukturalnej na przebieg procesów o charakterze mimowolnym. 7.3.1. Opis metody Uczestnicy badania i procedura eksperymentalna W badaniu uczestniczyły 23 osoby. W grupie tej znalazło się 20 kobiet i trzech mężczyzn (średnia wieku: 21,00 lat; SD = 1,21). W badaniu wykorzystano kolorowe zdjęcia pięciu kobiet i pięciu mężczyzn użyte we wcześniejszych badaniach (eksperymenty 3 i 4), przedstawiające dwie ekspresje mimiczne (strach oraz ekspresję neutralną) wybrane z zestawu NimStim Face Stimulus Set (Tottenham i in., 2009). Wykorzystano również zdjęcia domów użyte we wcześniejszych badaniach. Procedura eksperymentalna została podzielona na trzy bloki, oddzielone od siebie krótkimi przerwami. Podobnie jak w poprzednich eksperymentach każdą próbę eksperymentalną rozpoczynała ekspozycja przez 500 ms punktu fi ksacji w postaci małego krzyżyka, po której następowała natychmiast prezentacja zdjęcia twarzy lub innego obiektu trwająca jedną sekundę. W połowie prób w trakcie tej prezentacji na środku zdjęcia pojawiał się czerwony symbol stanowiący bodziec kluczowy, na który wymagana była reakcja motoryczna (asteriks). Ekspozycja tego bodźca trwała 50 ms. Początek ekspozycji bodźca kluczowego następował 400, 550 lub 700 ms po rozpoczęciu prezentacji zdjęć twarzy lub domów. Interwał między początkiem prezentacji zdjęcia a początkiem prezentacji bodźca kluczowego (stimulus onset asynchrony – SOA) był dobierany losowo. Każda z wartości SOA została w badaniu wykorzystana w równej liczbie prób. Po zakończeniu ekspozycji zdjęcia twarzy lub domu następowała dwusekundowa przerwa. Po niej rozpoczynała się następna próba. Kolejność prób z ekspozycją różnych rodzajów bodźców była losowa, biorąc pod uwagę również różne wartości SOA. Osoby badane miały za zadanie monitorować fotografie prezentowane na ekranie komputera oraz zareagować poprzez wciśnięcie przycisku zawsze wtedy, gdy na ekranie pojawiał się bodziec kluczowy. W przypadku połowy prób każdego rodzaju zdjęcia były prezentowane w pozycji normalnej, natomiast pozostałe były eksponowane w pozycji odwróconej. Komponenty P1, N170, AP i EPN mierzono + * 500 ms 400–700 ms 50 ms 250–550 ms 2500 ms punkt fiksacji prezentacja bodziec prezentacja reakcja osobytwarzy kluczowy twarzy badanej Ryc. 32. Schematyczna ilustracja procedury zastosowanej w eksperymencie 6. W oryginale wykorzystano kolorowe zdjęcia twarzy z zestawu NimStim Set of Facial Expressions (Tottenham i in., 2009) odpowiednio dla okien czasowych 100–120, 140–185, 160–260 oraz 260–400 ms po bodźcu. Schemat procedury przedstawiono na ryc. 32. W analizie w tej części pracy pominięto dane uzyskane w próbach, gdy eksponowano zdjęcia domów. Średnie czasy reakcji oraz wskaźniki poprawności wykonania zadania zarejestrowane dla prób z ekspozycją twarzy analizowano z wykorzystaniem analizy wariancji z powtarzanym pomiarem (ANOVA) z uwzględnieniem dwóch czynników wewnątrzobiektowych: rodzaj ekspresji (strach vs ekspresja neutralna) oraz orientacja bodźca (normalna vs odwrócona). Analiza ta uwzględniała wyłącznie te próby, w których osoby badane udzieliły poprawnych odpowiedzi. Za błędne uznawano wszystkie przypadki nieprawidłowej odpowiedzi oraz odpowiedzi osób badanych, których czas był dłuższy niż 2500 ms. Nieprawidłowa odpowiedź miała postać błędu fałszywego alarmu w próbach, w których bodziec kluczowy nie był prezentowany, lub błędu ominięcia, gdy odpowiedni bodziec pojawiał się na ekranie i nie rejestrowano reakcji osoby badanej. Oba rodzaje błędów zostały poddane niezależnym analizom. Analizę wariancji z powtarzanym pomiarem wykorzystano także w przypadku danych elektroencefalograficznych. W analizie amplitudy komponentów ERP uwzględniono dwa czynniki wewnątrzobiektowe, którymi były rodzaj ekspresji (strach vs ekspresja neutralna) oraz orientacja bodźca (normalna vs odwrócona). 7.3.2. Opis wyników Wyniki behawioralne Zanotowano bardzo wysokie wskaźniki liczby poprawnie udzielonych odpowiedzi (powyżej 99%). W rezultacie nie zaobserwowano zróżnicowania w tym zakresie związanego z którymkolwiek z analizowanych czynników. Analiza liczby błędów popełnianych przez osoby badane nie wykazała istotnego wpływu ekspresji emocjonalnej prezentowanej na zdjęciach. Na wskaźniki poprawno-ści wykonania zadania wpływu nie miała także pozycja, w jakiej eksponowano zdjęcie. Liczba fałszywych alarmów oraz błędów ominięcia pozostawała na podobnym poziomie. Nie zanotowano także istotnych wyników w przypadku efektów interakcyjnych. W analizie średnich czasów reakcji uwzględniono wyłącznie czynniki rodzaj ekspresji oraz orientacja bodźca. Efekt główny czynnika rodzaj ekspresji okazał się nieistotny. Na tej podstawie można przypuszczać, że rodzaj prezentowanej ekspresji nie wpłynął na szybkość reagowania osób badanych. Nie obserwowano również istotnego wpływu orientacji bodźca. Uzyskano jednak istotny efekt interakcji obu czynników [F(1,22) = 13,94; p = 0,001]. Oznacza to, iż wpływ obu rodzajów prezentowanych w zadaniu zdjęć ekspresji mimicznych miał odmienny charakter w zależności od pozycji, w jakiej ją prezentowano. Z tego względu przeprowadzono dwie niezależne analizy dodatkowe, porównując wpływ czynnika rodzaj ekspresji osobno dla prób z normalną oraz odwróconą ekspozycją twarzy. W pierwszym przypadku stwierdzono, że szybkość reagowania w próbach z ekspozycją twarzy neutralnych (311,97 ms) była większa w porównaniu z twarzami wyrażającymi strach (314,98 ms). Uzyskany efekt był umiarkowany, oscylując na poziomie tendencji statystycznej [F(1,22) = 3,03; p = 0,096]. Jednocześnie zanotowano odwrotny wzorzec różnic dla prób z ekspozycją odwróconą. W tym przypadku reakcje dla prób z prezentacją twarzy neutralnych (318,13 ms) były wyraźnie wolniejsze w porównaniu z próbami z ekspresją strachu (312,68 ms). Efekt główny czynnika rodzaj ekspresji zanotowany w tej analizie okazał się istotny [F(1,22) = 12,92; p = 0,002] (ryc. 33). Rodzaj ekspresji Rodzaj ekspresji Ryc. 33. Ilustracja zróżnicowania reakcji behawioralnych obserwowanego w eksperymencie 6. Ciemne słupki obrazują wskaźniki zanotowane dla twarzy eksponowanych w pozycji odwróconej, jasne słupki przedstawiają wskaźniki zarejestrowane dla twarzy przedstawionych w pozycji normalnej Wyniki elektrofizjologiczne Zanotowano istotnie wyższe wartości dla komponentu P1 rejestrowanego w przypadku twarzy prezentowanych w pozycji odwróconej w porównaniu z ekspozycją normalną [F(1,22) = 59,23; p < 0,0001]. Orientacja bodźca nie wpłynęła natomiast wystarczająco silnie na amplitudę N170 i w rezultacie nie zobserwowano istotnych różnic związanych z tym czynnikiem. Uzyskane wyniki sugerują, że wpływ ekspresji emocjonalnej może być obserwowany już na bardzo wczesnym etapie przetwarzania twarzy. Zaobserwowano wyższe wartości amplitudy P1 dla prób z ekspozycją twarzy wyrażających strach w porównaniu z ekspresją neutralną. Co ważne, wpływ ekspresji został zarejestrowany dla prezentacji twarzy w pozycji normalnej [F(1,22) = 11,02; p = 0,003] i był nieobecny dla ekspozycji w pozycji odwróconej. Zróżnicowania takiego nie zaobserwowano w przypadku komponentu N170. Wartości zarejestrowane dla tego komponentu były zbliżone niezależnie od rodzaju eksponowanej ekspresji oraz pozycji twarzy. Stwierdzono jednocześnie występowanie efektu ekspresji emocjonalnej w okolicach czołowo-centralnych (komponent AP), widocznego między 160 a 260 ms po prezentacji bodźca. Efekt ten okazał się istotny zarówno dla prezentacji w pozycji normalnej [F(1,22) = 11,24; p = 0,003], jak i odwróconej [F(1,22) = 12,60; p = 0,002]. Co ważne, analiza efektu interakcji czynników rodzaj ekspresji emocjonalnej oraz orientacja bodźca nie przyniosła istotnych wyników. Ekspozycja twarzy emocjonalnych wywołała także komponent EPN zanotowany około 240–400 ms po prezentacji twarzy. W tym jednak przypadku ograniczony był on do ekspozycji twarzy w pozycji normalnej i oscylował na granicy istotności [F(1,22) = 4,16; p = 0,054]. Ponadto zarejestrowano istotny efekt interakcji czynników rodzaj ekspresji oraz orientacja bodźca [F(1,22) = 5,61; p = 0,027], sugerujący wyraźne zróżnicowanie w sile efektu ekspresji emocjonalnej notowanego dla ekspozycji normalnej oraz odwróconej. Powyższe wyniki zostały zilustrowane na ryc. 34–36. 7.3.3. Dyskusja wyników uzyskanych w eksperymencie 6 Rezultaty przedstawione powyżej pozwalają stwierdzić, że w badaniach psychofizjologicznych zastosowanie odpowiedniej procedury eksperymentalnej umożliwia dokładną weryfikację hipotez badawczych. Wszystkie bowiem oczekiwane różnice w zapisie potencjałów ERP rejestrowanych w odpowiedzi na twarze wyrażające strach i neutralne znalazły swoje potwierdzenie. Zanotowano wczesny efekt ekspresji emocjonalnej pojawiający się około 100 ms po ekspozycji twarzy, mający postać różnicy w amplitudzie komponentu P1. Zaobserwowano także zróżnicowanie w pobudzeniu obszarów czołowych (komponent AP) oraz wzrost pobudzenia kory wzrokowej (komponent EPN) o charakterystyce potwierdzającej postawione hipotezy. Jednocześnie, zgodnie z oczekiwaniami, nie uzyskano modulacji komponentu N170. F3 Fz F4 FC2 PO7 N170 [μV] EPN ekspresja neutralna ekspresja strachu Ryc. 34. Przebieg uśrednionych potencjałów ERP zarejestrowanych w próbach wykorzystujących normalną ekspozycję twarzy, uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających strach. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: P1 (100–120 ms), N170 (140–185 ms), AP (160-260 ms) oraz EPN (260–400 ms) Komponent P1 W przypadku prezentacji twarzy z ekspresją strachu odnotowano silniej wyrażony komponent P1 w porównaniu z twarzami neutralnymi. Co ważne, rezultat ten był obserwowany wyłącznie dla ekspozycji bodźca w pozycji normalnej i nieobecny dla twarzy inwertowanych. Wcześniejsze doniesienia sugerujące podobne zróżni FC1 FC2 PO3 PO4 [μV] N170 [μV] N170 PO7 O1 Oz ekspresja neutralna ekspresja strachu Ryc. 35. Przebieg uśrednionych potencjałów ERP zarejestrowanych w próbach wykorzystujących ekspozycję twarzy w pozycji odwróconej, uzyskany dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych, linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających strach. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: P1 (100–120 ms), N170 (140–185 ms), AP (160–260 ms) oraz EPN (260–400 ms) cowanie (Holmes, Kragh Nielsen i Green, 2008; Holmes i in., 2009; Pourtois i n., 2004; Vlamings, Goffaux i Kemner, 2009) były oparte wyłącznie na ekspozycji twarzy w normalnej pozycji. Stąd wnioskowanie odnoszące się do zmian notowanych dla komponentu P1 musi, siłą rzeczy, stanowić wyłącznie przypuszczenie, które należałoby zweryfikować w przyszłych badaniach. Warto w tym miejscu zwrócić uwagę na charakterystykę tego komponentu. Ryc. 36. Mapy potencjałów ERP prezentujące efekty ekspresji emocjonalnej uzyskane w przypadku normalnej (PN) oraz odwróconej (PO) prezentacji twarzy. Mapy przedstawiają różnicę w średnich wartościach uzyskanych dla czterech testowanych komponentów: P1 (100–120 ms), N170 (140–185 ms), AP (160–260 ms) oraz EPN (240–400 ms). Kolory wskazujące na wartości ujemne oznaczają, że w odpowiedzi na prezentację twarzy wyrażających strach uzyskano niższe średnie wartości w porównaniu z twarzami neutralnymi. Kolory wskazujące na wartości dodatnie oznaczają, że dla twarzy wyrażających strach zanotowano wyższe wartości w porównaniu z twarzami neutralnymi PN POPNPOPNPOPNPO Rezultaty wcześniejszych badań pozwalają wiązać ten komponent z wczesnymi fazami przetwarzania twarzy, w szczególności z procesem zaliczania bodźca do kategorii „twarze” (Liu, Harris i Kanwisher, 2002). W modelach teoretycznych Bruce i Younga (1986) oraz Maurer, Le Granda i Mondloch (2002) sugeruje się, że procesy różnicowania i klasyfikowania obiektów na twarze i nietwarze muszą wykorzystywać informacje o pojawieniu się charakterystycznych elementów twarzy (zob. rozdział 2). Twarz składa się bowiem z unikatowych części rozmieszczonych w określony sposób. Z kolei każdy z elementów twarzy może być przetwarzany do pewnego stopnia niezależnie od gestaltu twarzy tworzonego zresztą na póź-niejszych etapach analizy. Jeśli więc uznamy, że detekcja elementów twarzy oraz ich specyfi cznego rozmieszczenia stanowi początek analizy strukturalnej, co odpowiada analizie relacji pierwszego rzędu według Maurer, Le Granda i Mondloch (2002; zob. także opis koncepcji przetwarzania konfiguracyjnego w rozdziale 2), to powinniśmy oczekiwać, iż na tym etapie inwersja twarzy nie wywoła silniejszego skutku. Uzyskane wyniki sugerują jednak co innego. Okazuje się, że już około 100 ms po ekspozycji twarzy można obserwować wpływ pozycji, w jakiej twarz jest eksponowana. Co więcej, przejawia się on nie tylko w postaci różnicy amplitudy P1 lub jego odpowiednika rejestrowanego za pomocą MEG (Linkenkaer-Hansen i in., 1998), lecz także poprzez zróżnicowanie efektów ekspresji emocjonalnej. Uzyskany więc wynik stanowi dodatkowy argument na rzecz tezy, że na tym etapie możliwa jest ocena relacji przestrzennych między elementami twarzy. Jeśli jednak uznamy, że na tym etapie przetwarzania analiza dotyczy wyłącznie poszczególnych elementów twarzy, przy czym ich rzeczywiste położenie powinno być zgodne z ich prototypową pozycją, to wówczas musimy równocześnie przyznać, że na tym samym etapie możliwe jest dokonanie wstępnego opisu charakterystyki poszczególnych części twarzy i wykorzystanie tego opisu, by określić znaczenie afektywne twarzy. Jak zostało to przedstawione przy okazji prezentacji wyników poprzedniego eksperymentu, możliwe, że zróżnicowanie odpowiedzi systemu nerwowego nie odnosi się do ekspresji jako takiej, lecz do wyglądu jednego z elementów twarzy. W tamtym przypadku możliwe było wskazanie takiego elementu, jakim prawdopodobnie był uśmiech z odsłoniętymi zębami. W tym przypadku jednak efekt został zanotowany dla ekspresji, która nie powinna mieć takiej charakterystyki. Co jednak ciekawe, w przypadku sześciu z dziesięciu wykorzystanych zdjęć twarzy wyrażających strach również pojawiły się wyraźnie rozchylone usta z odsłoniętymi częściowo zębami. Możliwe więc, że obserwowany efekt jest związany ze zjawiskiem podobnym do tego, jakie wywołało zróżnicowanie amplitudy P1 w przypadku poprzedniego eksperymentu. Możliwe jest także, że elementem, który wywołał zmianę w zapisie ERP na tym etapie przetwarzania, jest wygląd oczu. Jak sugerują wyniki badań Whalena i jego grupy (Whalen i in., 2004), ekspozycja oczu przedstawiających strach wywołuje specyficzny wzrost pobudzenia ciała migdałowatego w porównaniu z oczami neutralnymi. Rozstrzygnięcie tego problemu w tym momencie nie jest, niestety, możliwe, stąd można wyłącznie uznać, że każda ze wspomnianych interpretacji jest do pewnego stopnia uzasadniona. Problem ten wymaga jednak dodatkowych badań. Komponent N170 Wyniki przeprowadzonego eksperymentu są zgodne z hipotezą, która łączy modulację amplitudy komponentu N170 z procesami angażowania uwagi dowolnej w przetwarzanie ekspresji emocjonalnej. Uzyskiwane poprzednio wyniki wskazywały, że w sytuacji gdy uwaga jest bezpośrednio nakierowana na różnicowanie mimiki emocjonalnej, możliwa jest zmiana w wielkości amplitudy N170 (Blau i in., 2007; Miyoshi, Katayama i Morotomi, 2004; Rigato, Farroni i Johnson, 2010; Vlamings, Goffaux i Kemner, 2009; Wronka i Walentowska, 2011). Jednak jeśli uwaga jest zaangażowana w inny proces, w tym także analizę twarzy, która jednak dotyczy innych jej cech niż ekspresja emocjonalna, wówczas N170 ma porównywalną wielkość niezależnie od charakterystyki mimiki twarzy. Taki właśnie wzorzec wyników zarejestrowano w opisanym powyżej badaniu. W tym przypadku osoby badane miały za zadanie dokonać detekcji neutralnego bodźca kluczowego, a zdjęcia twarzy stanowiły stymulację nieistotną dla poprawnego wykonania tego zadania. Komponent AP Uzyskane rezultaty wskazują także na prawdziwość tezy mówiącej, że komponent AP, odzwierciedlający odpowiedź płata czołowego na ekspozycję twarzy emocjonalnych, jest korelatem procesu o charakterze mimowolnym. Efekt taki był wcześniej rejestrowany w niektórych eksperymentach przedstawionych w niniejszej pracy, lecz jednocześnie w innych był nieobecny. Stąd sugestia, która miała wyjaśniać tę niezgodność, wskazująca na związek tego komponentu z dostępnością zasobów uwagi. Zakładano bowiem, że jeśli pewna pula zasobów uwagi nie jest w momencie ekspozycji twarzy emocjonalnej zagospodarowana przez system poznawczy, to wówczas ze względu na duże znaczenie sygnałów mimicznych zasoby takie zostaną w sposób mimowolny wykorzystane lub przynajmniej wstępnie alokowane, aby ułatwić przetwarzanie ekspresji emocjonalnej. Procedura zastosowana w niniejszym eksperymencie miała umożliwić rejestrację takiego efektu poprzez ekspozycję nieistotnego dla wykonania zadania zdjęcia twarzy odpowiednio długo przed pojawieniem się bodźca kluczowego. Dzięki temu, w momencie gdy zachodził proces analizy znaczenia twarzy, zasoby uwagi nie były intensywnie wykorzystywane przez inne procesy. Wydaje się, że dzięki temu uzyskano wyraźny komponent AP w odpowiedzi na twarz wyrażającą strach. Co jednak ciekawe, podobny rezultat zanotowano dla twarzy pokazywanych w normalnej pozycji oraz inwertowanych. Może to oznaczać, że na tym etapie przetwarzania ekspresji emocjonalnej sposób jej przedstawienia nie wpływa na siłę reakcji płata czołowego. Komponent EPN Na koniec warto również zauważyć, iż wyniki uzyskane dla komponentu EPN są w pełni zgodne z rezultatami wcześniejszych badań. Twarze wyrażające strach wywołały zmianę w zapisie ERP przyjmującą postać dodatkowej ujemnej fali obserwowanej w okolicach potylicznych. Efekt ten może być korelatem oddziaływań z poziomu ciała migdałowatego, wpływającego pobudzająco na aktywność kory wzrokowej, gdy zarejestrowany zostanie bodziec o dużym znaczeniu afektywnym. Warto także zauważyć, że efekt ten nie został zarejestrowany dla twarzy eksponowanych w pozycji odwróconej. Podobny wynik opisano dla eksperymentu 4, w którym również EPN był obserwowany dla normalnej pozycji w przypadku twarzy z ekspresją strachu i jednocześnie nieobecny, gdy twarz była eksponowana w pozycji odwróconej. Podobieństwo tych wyników, uzyskanych w dwóch odmiennych paradygmatach, pozwala na stwierdzenie, że reakcje ciała migdałowa-tego są uzależnione od przebiegu analizy strukturalnej twarzy. 7.4. Eksperyment 7 Wyniki przeprowadzonych badań sugerują, że możliwe jest wyróżnienie trzech charakterystycznych korelatów procesu różnicowania ekspresji emocjonalnej, którymi są modulacja komponentu N170, specyficzna odpowiedź kory czołowej w postaci komponentu AP oraz zmiana w pobudzeniu kory wzrokowej odzwierciedlona przez komponent EPN. W dwóch poprzednich eksperymentach zaobserwowano jednak dodatkowo efekt w odniesieniu do amplitudy P1. Na podstawie wyników tych eksperymentów postawiono tezę, iż może mieć on związek z procesami detekcji charakterystycznych wskaźników określonych rodzajów ekspresji, takich jak otwarte usta z widocznymi zębami. Weryfikacja takiej hipotezy wymagałaby jednak zróżnicowania bodźców pod kątem obecności właśnie tego rodzaju wskaźników. W opisanym poniżej eksperymencie wykorzystano odpowiednio zmodyfi kowane fotografie twarzy z ekspresją strachu w taki sposób, że oprócz jej naturalnej formy wyrażanej całą twarzą przygotowano zdjęcia, na których ekspresja ta pojawiała się wyłącznie w okolicach oczu lub wyłącznie w okolicach ust. Głównym celem tego eksperymentu była więc próba weryfi kacji hipotezy odnoszącej się do przedstawionej powyżej hipotezy wyjaśniającej efekt ekspresji emocjonalnej w odniesieniu do amplitudy P1. Ponadto umożliwiał on określenie zmian w obrazie pozostałych trzech charakterystycznych korelatów rozpoznawania sygnałów mimicznych w zależności od tego, która część twarzy jest zaangażowana w ich nadawanie. 7.4.1. Opis metody Uczestnicy badania i procedura eksperymentalna W badaniu uczestniczyło 25 osób. W grupie tej znalazły się 22 kobiety i trzech mężczyzn (średnia wieku: 21,76 roku; SD = 2,68). Do przygotowania procedury wykorzystano kolorowe zdjęcia pięciu kobiet i pięciu mężczyzn przedstawiające dwie ekspresje mimiczne (ekspresję strachu oraz ekspresję neutralną) wybrane z zestawu NimStim Face Stimulus Set (Tottenham i in., 2009). Wszystkie zdjęcia miały identyczne wymiary (17,5 cm × 11,5 cm). Zdjęcia zostały poddane mody-fi kacji w programie Corel PaintShopPro polegającej na stworzeniu wersji przedstawiającej ekspresję neutralną w górnej części twarzy i jednocześnie ekspresję strachu w jej dolnej części. Przygotowano również wersje z odwrotnym układem ekspresji: strach w górnej części oraz ekspresja neutralna w dolnej części. Najpierw zdjęcia obu naturalnych ekspresji zostały podzielone na górną i dolną część (w większości w połowie zdjęcia). Następnie dolne fragmenty przedstawiające jedną z ekspresji (np. strach) zostały połączone z górnymi fragmentami przedstawiającymi drugą z ekspresji (np. ekspresję neutralną). W rezultacie powstało 20 fotografii z modyfikowanymi ekspresjami (twarz wyrażająca strach oczami – SO; strach wyrażany w okolicy ust – SU). Razem ze zdjęciami prezentującymi naturalne ekspresje (twarz wyrażająca strach w naturalnej postaci – ST; naturalna ekspresja neutralna – NT) stworzyły one zestaw 40 zdjęć. Procedura eksperymentalna została podzielona na cztery bloki, oddzielone od siebie krótkimi przerwami. Każdą próbę eksperymentalną rozpoczynała ekspozycja przez 500 ms punktu fiksacji w postaci małego krzyżyka, po której następowa-ła natychmiast prezentacja zdjęcia twarzy trwająca 100 ms. Osoby badane miały za zadanie ocenić rodzaj prezentowanej ekspresji (strach lub ekspresję neutralną) oraz odpowiednio zareagować. Kolejność prezentacji prób w poszczególnych kategoriach była losowa. Komponenty N170, AP i EPN mierzono odpowiednio dla okna czasowego 140–180, 160–250 oraz 180–250 ms po bodźcu. Schemat procedury przedstawiono na ryc. 37. Analiza statystyczna wyników behawioralnych uwzględniała jeden czynnik wewnątrzobiektowy: rodzaj ekspresji (ST, SO SU, NT). W analizie danych EEG również wykorzystano analizę wariancji z powtarzanym pomiarem uwzględniającą identyczny czynnik wewnątrzobiektowy: rodzaj ekspresji (ST, SO SU, NT). Zastosowano poprawki Greenhouse’a-Geissera, wówczas gdy było to konieczne. W opisie wyników podano skorygowane współczynniki prawdopodobieństwa. Dodatkowe analizy post-hoc przeprowadzono, wykorzystując metodę Bonferroniego. 500 ms 100 ms 2500 ms punkt fiksacji prezentacja reakcja osobytwarzy badanej Ryc. 37. Schematyczna ilustracja procedury zastosowanej w eksperymentach 7 i 8. W oryginale wykorzystano kolorowe zdjęcia twarzy z zestawu NimStim Set of Facial Expressions (Tottenham i in., 2009) 7.4.2. Opis wyników Wyniki behawioralne Zaobserwowano, że klasyfikacja bodźców przebiegała z różną szybkością w zależności od rodzaju eksponowanych ekspresji, co odzwierciedla istotny efekt główny czynnika rodzaj ekspresji [F(3,72) = 10,01; p < 0,0001; ε = 0,772]. Porównania post-hoc wykazały, że szybkość identyfikacji naturalnej ekspresji neutralnej (NT) była mniejsza niż naturalnej ekspresji strachu (ST) (p = 0,002) oraz strachu wyrażane-go w okolicy ust (SU) (p = 0,035). Ponadto szybkość reakcji dla prób, w których prezentowano zdjęcia twarzy okazujących strach w okolicy oczu (SO), była mniejsza w porównaniu ze zdjęciami z naturalną ekspresją strachu (ST) (p = 0,002) oraz prezentującymi strach okolicą ust (SU) (p = 0,025). Pozostałe porównania nie przyniosły istotnych rezultatów. Podobna analiza przeprowadzona dla wskaźników poprawności pozwoliła stwierdzić, że rodzaj ekspresji wpływał istotnie również na poprawność reagowania [F(3,72) = 16,08; p < 0,0001; ε = 0,525]. Przeprowadzone analizy post-hoc wskazują, że poprawność identyfikacji obu naturalnych ekspresji była istotnie wyższa niż ekspresji zmodyfikowanych (p < 0,006 dla wszystkich par). Ponadto twarze wyrażające strach okolicą oczu (SO) były istotnie rzadziej oceniane jako emocjonalne także w porównaniu z twarzami przedstawiającymi tę samą ekspresję w okolicy ust (SU) (p = 0,001). Pozostałe porównania nie przyniosły istotnych wyników (ryc. 38). Rodzaj ekspresji Rodzaj ekspresji Ryc. 38. Ilustracja zróżnicowania reakcji behawioralnych obserwowanego w eksperymencie 7. Ciemne słupki obrazują wskaźniki zanotowane dla zadania rozpoznawania ekspresji twarzy wyrażających naturalną ekspresję neutralną (NT), strach w okolicy oczu (SO), strach w okolicy ust (SU) oraz naturalną ekspresję strachu (ST) Wyniki elektrofizjologiczne Stwierdzono komponent N170 o wyższej amplitudzie w przypadku twarzy wy-rażających strach (ST) w porównaniu z twarzami eksponującymi strach oczami (SO) oraz neutralnymi (NT). Amplituda tego komponentu dla twarzy SU przybierała wartości pośrednie. Zróżnicowanie to przełożyło się na istotny efekt główny czynnika rodzaj ekspresji [F(3,72) = 8,05; p < 0,0001; ε = 0,893]. Analizy post-hoc potwierdziły wspomniane wyżej różnice między twarzami wyrażającymi strach (ST) oraz neutralnymi (NT) (p = 0,003) i okazującymi strach poprzez oczy (SO) (p = 0,030). Ponadto twarze neutralne wywołały N170 o niższej amplitudzie w porównaniu z prezentującymi strach w okolicy ust (SU) (p = 0,012). Pozostałe porównania nie przyniosły istotnych wyników. Również analiza wielkości komponentu AP wykazała istotne różnice związane z rodzajem ekspresji emocjonalnej [F(3,72) = 12,56; p < 0,0001; ε = 0,965]. Wartości rejestrowane w okolicach czołowych dla twarzy wyrażających strach (ST) były wyższe w porównaniu z twarzami okazującymi strach poprzez oczy (SO) (p < 0,001) oraz neutralnymi (p < 0,001). Podobny wzorzec różnic zanotowano, porównując twarze przedstawiające strach ustami (SU) oraz twarze neutralne (p = 0,072) i wyrażające strach poprzez oczy (SO) (p = 0,022). Pozostałe porównania nie przyniosły istotnych wyników. Wpływ rodzaju ekspresji zanotowano także w przypadku analizy amplitudy komponentu EPN [F(3,72) = 11,41; p < 0,0001; ε = 0,826]. Otrzymano podobny wzorzec zróżnicowania jak w przypadku N170 i AP. Wartości uzyskane dla twarzy wyrażających strach (ST) były niższe w porównaniu z twarzami neutralnymi (NT) (p < 0,001) oraz prezentującymi strach oczami (SO) (p < 0,001). Również dla twarzy wyrażających strach w okolicy ust (SU) rejestrowano niższe średnie wartości ERP w porównaniu z twarzami neutralnymi (NT) (p = 0,083) PO3 PO4 O1 Oz [μV] 5 5 NTST SO SU Ryc. 39. Przebieg uśrednionych potencjałów ERP zarejestrowanych w eksperymencie 7 dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych (NT), linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających strach (ST), linia w kolorze zielonym odpowiada potencjałom zarejestrowanym dla twarzy wyrażających strach w okolicy oczu (SO), linia w kolorze niebieskim ilustruje potencjały dla twarzy wyrażających strach okolicą ust (SU). Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (140–180 ms), AP (160–250 ms) oraz EPN (180–250 ms) oraz okazującymi strach oczami (SO) (p = 0,088), lecz w tym przypadku różnica kształtowała się na poziomie tendencji statystycznej. Wyniki ilustrują ryc. 39–41. Podsumowując uzyskane wyniki, można stwierdzić, że zróżnicowanie obserwowano w przypadku wszystkich trzech komponentów. Wydaje się także, iż na poziomie reakcji systemu nerwowego widoczna jest tendencja do przetwarzania F3 Fz F4 ST SOSU Ryc. 40. Przebieg uśrednionych fal różnicowych zarejestrowanych w eksperymencie 7 dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czerwonym odpowiada różnicy potencjałów ERP dla twarzy wyrażających strach (ST) minus ERP dla twarzy neutralnych, linia w kolorze zielonym odpowiada różnicy potencjałów ERP dla twarzy wyrażających strach okolicą oczu (SO) minus ERP dla twarzy neutralnych, linia w kolorze niebieskim ilustruje różnicę potencjałów ERP dla twarzy wyrażających strach w okolicy ust (SU) minus ERP dla twarzy neutralnych. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (140–180 ms), AP (160–250 ms) oraz EPN (180–250 ms) twarzy z naturalną ekspresją strachu (ST) oraz wyrażających go za pomocą ust (SU) w podobny sposób. Dla pozostałych dwóch rodzajów bodźców, twarzy neutralnych (NT) oraz okazujących strach w okolicy oczu (SO), również zaobserwowano podobny przebieg ERP. Ryc. 41. Mapy potencjałów ERP prezentujące efekty ekspresji emocjonalnej uzyskane w zadaniu rozpoznawania ekspresji emocjonalnej w eksperymencie 7 (u góry) oraz w zadaniu rozpoznawania płci twarzy w eksperymencie 8 (u dołu). Mapy przedstawiają różnicę w średnich wartościach uzyskanych dla trzech testowanych komponentów: N170, AP oraz EPN. Kolory wskazujące na wartości ujemne oznaczają, że w odpowiedzi na prezentację twarzy wyrażających strach uzyskano niższe średnie wartości w porównaniu z twarzami neutralnymi. Kolory wskazujące na wartości dodatnie oznaczają, że dla twarzy wyrażających strach zanotowano wyższe wartości w porównaniu z twarzami neutralnymi ZADANIE ROZPOZNAWANIA EKSPRESJI TWARZY < ST SOSUSTSOSUSTSOSU 7.4.3. Dyskusja wyników uzyskanych w eksperymencie 7 Komponent P1 Jednym z celów eksperymentu było zweryfikowanie tezy dotyczącej charakterystyki efektu ekspresji emocjonalnej pojawiającego się w odniesieniu do amplitudy komponentu P1. W dwóch poprzednich eksperymentach na tym etapie przetwarzania obserwowano różnice w zapisie potencjałów ERP, gdy porównywano odpowiedzi mózgowe dla twarzy wyrażających radość i stan neutralny (eksperyment 5) lub gdy dokonywano porównań między twarzami neutralnymi i prezentującymi strach (eksperyment 6). Postawiono hipotezę, iż obserwowany rezultat może być związany z detekcją specyficznych elementów twarzy, których wygląd stanowi stosunkowo niezawodny wskaźnik pojawienia się ekspresji mimicznej. Przykładem mogą być układające się w uśmiech usta z odsłoniętymi zębami. Podobny wzorzec stwierdzono także dla zdjęć twarzy wyrażających strach wykorzystanych w poprzednim eksperymencie. Wyniki uzyskane w przeprowadzonym badaniu nie potwierdzają wspomnianej powyżej hipotezy. Nie zanotowano żadnych istotnych wyników w przypadku komponentu P1. Rezultaty dwóch poprzednich badań sugerowały, że efekt dotyczący amplitudy tego właśnie komponentu może być związany z detekcją specyfi cznych wzorców percepcyjnych, jak przykładowo otwarte usta z odsłoniętymi zębami. Jednak tym razem, pomimo zastosowania zestawu bodźców pozwalających na kontrolę tej charakterystyki twarzy, nie uzyskano potwierdzenia wspomnianej hipotezy. Niejasne są przyczyny takiego stanu rzeczy, lecz warto zauważyć, że rezultat w postaci modulacji P1 jest opisywany stosunkowo rzadko. Ponadto w obu poprzednich eksperymentach własnych, w których efekt taki zanotowano, instrukcja eksperymentalna nakazywała różnicowanie bodźców innych niż twarze, które z kolei były bodźcami nieistotnymi dla wykonania zadania. Stąd możliwe, że ta właśnie różnica proceduralna jest przyczyną braku efektu ekspresji emocjonalnej na wczesnych etapach przetwarzania mimiki emocjonalnej. Komponent N170 Efekt ekspresji emocjonalnej zanotowano dla amplitudy komponentu N170, który był silniej wyrażony w przypadku twarzy z ekspresją strachu w porównaniu z twarzami neutralnymi. Wynik ten nie jest zaskakujący, biorąc pod uwagę fakt, że zadanie wymagało od osób badanych różnicowania ekspresji mimicznej. Podobne rezultaty zanotowano w poprzednich eksperymentach, w których zastosowano zbliżoną instrukcję eksperymentalną (eksperymenty 1–3). Obserwowany rezultat stanowi więc kolejne potwierdzenie tezy, iż zaangażowanie uwagi o charakterze dowolnym moduluje przebieg procesu przetwarzania sygnałów mimicznych właśnie na etapie analizy strukturalnej. Co jednak ważne ze względu na wskazany wcześniej cel badania, różnica w wielkości amplitudy została zanotowana dla twarzy przedstawiających naturalną formę ekspresji strachu oraz dla twarzy wyrażającej tę emocję w okolicy ust. Średnia amplitudy tego komponentu uzyskana dla zdjęć twarzy okazujących strach w okolicy oczu była zbliżona do zarejestrowanej dla twarzy neutralnych. Na tej podstawie należałoby sądzić, że identyfikacja mimicznych sygnałów strachu w większym stopniu zależy od poprawnego rozpoznania zmian pojawia-jących się w okolicy ust niż w przypadku oczu. Co ważne, wyniki elektrofi zjo-logiczne są blisko powiązane z rezultatami analizy wskaźników behawioralnych, w których poprawność rozpoznania strachu dla twarzy wyrażających tę emocję okolicą ust była istotnie wyższa w porównaniu z twarzami przedstawiającymi strach oczami. Oznaczałoby to, że wbrew względnie powszechnej opinii to nie oczy, lecz okolica ust najdokładniej wyraża ekspresję emocjonalną. Argumentem wskazującym, iż wielkość oczu, a w szczególności białek oczu, może być specyficznym sygnałem wystąpienia strachu, są wyniki uzyskane przez Whalena i jego współpracowników (Whalen i in., 2004). Siła reakcji ciała migdałowatego dla ekspozycji oczu prezentujących strach była istotnie wyższa w porównaniu z podobnym bodźcem neutralnym. Ze względu jednak na brak porównywalnych danych dotyczących okolicy ust trudno o jednoznaczne wnioski. Komponent AP Zróżnicowanie wzorców przebiegu potencjałów ERP zanotowano także dla okolic czołowych. Podobnie jak w kilku poprzednich eksperymentach zaobserwowano różnice między zapisem uzyskanym dla twarzy wyrażających strach oraz neutralnych w postaci dodatkowej dodatniej fali, rejestrowanej począwszy od 160 ms po bodźcu (komponent AP). Co jednak istotne, podobny rezultat stwierdzono, porównując wzorce aktywności dla twarzy prezentujących strach okolicą ust oraz neutralnych. W przypadku twarzy przedstawiających strach tylko w okolicy oczu zarejestrowano zbliżone wartości średnie potencjału ERP jak dla twarzy neutralnych. Tym samym wyniki te sugerują podobne zróżnicowanie odpowiedzi mózgowych jak opisane powyżej dla N170. Można na tej podstawie przyjąć, że ekspozycja twarzy przedstawiających strach w jego naturalnej formie oraz wyłącznie okolicą ust powodowała mimowolne za-angażowanie zasobów uwagi. Taka interpretacja komponentu AP wydaje się najbardziej prawidłowa w świetle uzyskiwanych poprzednio wyników. Zaskakujący jest w tym przypadku brak podobnej zmiany w zapisie potencjałów wywołanych ekspozycją twarzy prezentujących strach wyłącznie w okolicy oczu. Trudno jednak wskazać przyczynę takiego stanu rzeczy, gdyż w literaturze przedmiotu brakuje doniesień dotyczących podobnych rezultatów. Komponent EPN Efekt ekspresji emocjonalnej obserwowany w przypadku komponentu EPN rejestrowanego w okolicach potylicznych także częściowo odpowiadał opisanemu powyżej wzorcowi. Zanotowano charakterystyczną dodatkową falę ujemną, gdy eksponowane były twarze wyrażające strach w naturalnej postaci (ST) w porównaniu z twarzami neutralnymi (NT) oraz z ekspresją strachu ograniczoną do okolic oczu (SO). Oznacza to, że twarze, których mimika emocjonalna była widoczna wyłącznie na poziomie oczu, były przetwarzane w porównywalny sposób jak bodziec neutralny. Jeśli więc hipoteza sugerująca, że komponent EPN jest korelatem oddziaływania z poziomu ciała migdałowatego, jest prawdziwa, to wówczas należy stwierdzić, iż struktura ta reagowała na ekspozycję tak zmodyfi kowanej ekspresji podobnie jak w przypadku twarzy neutralnej lub różnica w aktywacji ciała migdałowatego była niewystarczająca do wywołania odpowiednio silnego wpływu na rejony kory potylicznej. W pierwszym przypadku oznaczałoby to, że uzyskane w niniejszym badaniu rezultaty są niezgodne ze wspomnianymi powy-żej wynikami Whalena (Whalen i in., 2004). Jednak należy pamiętać, iż w eksperymencie Whalena i jego grupy zastosowano zdjęcia, na których widoczne były wyłącznie oczy bez pozostałych elementów twarzy, co stanowi dość istotną różnicę w porównaniu z niniejszym badaniem. Trudno bowiem podejrzewać, aby przebieg analizy strukturalnej twarzy był identyczny w przypadku ekspozycji całej twarzy (niniejsze badanie) oraz gdy eksponowane są wyłącznie oczy (badanie grupy Whalena). Jak wykazano we wcześniejszych eksperymentach, charakterystyka przebiegu analizy strukturalnej stanowi istotny czynnik warunkujący pojawienie się komponentu EPN. Ponadto Whalen i jego współpracownicy rejestrowali aktywność ciała mig-dałowatego, wykorzystując fMRI, technikę opierającą się na pomiarze reakcji hemodynamicznej, która ma niską rozdzielczość czasową. Z tego powodu trudno wskazać, jaką charakterystykę czasową miał obserwowany wzrost pobudzenia ciała migdałowatego. W opisanym powyżej eksperymencie własnym mierzono aktywność z zastosowaniem ERP, techniki o wysokiej rozdzielczości czasowej, która jednak nie pozwala na dokładne obrazowanie pobudzenia w strukturach podkorowych. Wnioskowanie dotyczące aktywacji ciała migdałowatego jest więc w tym przypadku oparte wyłącznie na sugestii, że komponent EPN może być odzwierciedleniem wpływu tej struktury na korę (Junghöfer, Schupp, Stark i Vaitl, 2005). Wydaje się więc, iż należałoby przeprowadzić dodatkowe badania pozwala-jące na wyciągnięcie jednoznacznych wniosków w odniesieniu do tego problemu. Warto jednak podkreślić, że wielkość komponentu EPN obrazuje skuteczność rozpoznawania ekspresji emocjonalnej w przypadku wszystkich trzech rodzajów twarzy prezentujących strach zastosowanych w niniejszym eksperymencie. Wyniki behawioralne wskazują, że naturalna forma tej ekspresji była rozpoznawana istotnie lepiej w porównaniu z obiema wersjami zmodyfi kowanymi komputerowo, jak również że twarze wyrażające strach w okolicach ust były częściej wskazywane jako emocjonalne w porównaniu z twarzami, na których strach widoczny był wyłącznie w okolicy oczu. Podobna gradacja efektu została zaobserwowana dla komponentu EPN. Najsilniejszy był on dla twarzy z ekspresją naturalną (ST), a zupełnie niewidoczny dla twarzy prezentujących strach ograniczony do okolic oczu (SO). Pośrednie wartości zanotowano dla twarzy, na których emocja ta była widoczna w okolicy ust (SU). W przypadku zróżnicowania obserwowanego dla komponentów N170 oraz AP zanotowano odmienny wzorzec. Ekspozycja twarzy neutralnych oraz wyrażających strach wyłącznie okolicą oczu wywoływała podobne odpowiedzi mózgu. Wyłącznie strach w jego naturalnej postaci lub zmodyfikowanej w taki sposób, że był wyeksponowany tylko w okolicy ust, powodował pojawienie się istotnych efektów. Wynik ten wskazuje na to, że komponent EPN jest korelatem procesów mających odmienną charakterystykę od tych, które są odzwierciedlane w postaci modulacji N170 lub komponentu AP. 7.5. Eksperyment 8 W eksperymencie tym wykorzystano zestaw twarzy wyrażających strach w wersji naturalnej i zmodyfikowanej oraz twarze neutralne, których użyto w poprzednim badaniu. Zastosowano jednak odmienną instrukcję eksperymentalną. W miejsce zadania nakazującego osobom badanym różnicowanie ekspresji emocjonalnej wprowadzono zadanie, w którym badani identyfikowali płeć osoby widocznej na zdjęciu. Ten rodzaj zadania został wcześniej wykorzystany także w eksperymencie 1, co pozwoliło na efektywną manipulację zaangażowania mechanizmu uwagi w proces przetwarzania twarzy. Dzięki takiej zmianie możliwe byłoby porównanie efektów ekspresji emocjonalnej uzyskiwanych dla tego samego zestawu zdjęć twarzy w dwóch odmiennych warunkach (eksperyment poprzedni oraz obecny). Oczywiście ze względu na fakt, iż w obu badaniach uczestniczyły inne osoby, porównanie to nie może zostać dokonane bezpośrednio. Na podstawie rezultatów wcześniejszych eksperymentów (1–3), w których zastosowano manipulację w odniesieniu do sposobu zaangażowania uwagi, możliwe jest jednak przypuszczenie, że wzorce związanych z rozpoznawaniem ekspresji emocjonalnej różnic w przebiegu potencjałów ERP będą odmienne od tych zarejestrowanych w eksperymencie 7, wykorzystującym identyczny zestaw bodźców. Dotyczy to przede wszystkim efektu modulacji komponentu N170, który do tej pory był rejestrowany wyłącznie w sytuacji, gdy uwaga była nakierowana na rozpoznawanie mimiki emocjonalnej. Na tej podstawie sugerowano już wcześniej, iż zróżnicowanie w zakresie amplitudy N170 jest związane z procesami kontrolowanego przetwarzania ekspresji emocjonalnej. Jednocześnie oczekiwano, że efekty obserwowane w poprzednim badaniu w odniesieniu do komponentów AP oraz EPN będą miały podobną charakterystykę również w przypadku niniejszego eksperymentu. 7.5.1. Opis metody Uczestnicy badania i procedura eksperymentalna W badaniu uczestniczyło 21 osób. W grupie tej znalazło się 15 kobiet i sześciu męż-czyzn (średnia wieku: 20,00 lat; SD = 2,26). Procedura użyta w tym eksperymencie była niemal identyczna jak w poprzednim. Wykorzystano ten sam zestaw zdjęć prezentujących naturalne (twarz wyrażająca strach w naturalnej postaci – ST; naturalna ekspresja neutralna – NT) oraz zmodyfikowane ekspresje emocjonalne (twarz okazująca strach oczami – SO; strach wyrażany w okolicy ust – SU). Jedyna zmiana dotyczyła instrukcji eksperymentalnej, która wymagała od uczestników dokonywania oceny płci osoby przedstawionej na zdjęciu oraz odpowiedniej reakcji. Kolejność prezentacji prób w poszczególnych kategoriach była losowa. Komponenty N170, AP i EPN mierzono odpowiednio dla okna czasowego 150–200, 170–250 oraz 200–260 ms po bodźcu. Schemat procedury przedstawiono na ryc. 37. Analiza statystyczna wyników behawioralnych uwzględniała jeden czynnik wewnątrzobiektowy: rodzaj ekspresji (ST, SO SU, NT). W analizie danych EEG również wykorzystano analizę wariancji z powtarzanym pomiarem uwzględniającą identyczny czynnik wewnątrzobiektowy: rodzaj ekspresji (ST, SO SU, NT). Zastosowano poprawki Greenhouse’a-Geissera, gdy było to konieczne. W opisie wyników podano skorygowane współczynniki prawdopodobieństwa. Dodatkowe analizy post-hoc przeprowadzono, wykorzystując metodę Bonferroniego. 7.5.2. Opis wyników Wyniki behawioralne Szybkość reakcji osób badanych w odpowiedzi na wszystkie cztery kategorie twarzy pozostawała na podobnym poziomie, stąd brak istotnego efektu dla czynnika rodzaj ekspresji emocjonalnej w odniesieniu do średnich czasów reakcji. W przypadku wskaźników poprawności reagowania zanotowano istotny efekt czynnika rodzaj bodźca [F(3,60) = 3,08; p = 0,034; ε = 0,802] sugerujący, że różnice w efektywno-ści wykonania zadania rozpoznawania płci twarzy są związane z wpływem ekspresji emocjonalnej. Jednak rezultaty porównań post-hoc nie przyniosły istotnych wyników. Stąd należy uznać, iż manipulacja rodzajem bodźca nie wywołała wyraźnego wpływu na poziom poprawności wykonywania zadania eksperymentalnego (ryc. 42). Wyniki elektrofizjologiczne Analiza przeprowadzona dla komponentu N170 wykazała istotny wpływ czynnika rodzaj ekspresji na amplitudę tego komponentu [F(3,60) = 3,97; p = 0,012; ε = 0,897]. Analizy post-hoc wskazują jednak tylko na różnicę między twarza Rodzaj ekspresji Rodzaj ekspresji Ryc. 42. Ilustracja zróżnicowania reakcji behawioralnych obserwowanego w eksperymencie 8. Ciemne słupki obrazują wskaźniki zanotowane dla zadania rozpoznawania płci twarzy wyrażających naturalną ekspresję neutralną (NT), strach w okolicy oczu (SO), strach w okolicy ust (SU) oraz naturalną ekspresję strachu (ST) mi wyrażającymi strach (ST) oraz neutralnymi (NT). Dla tych pierwszych zarejestrowano komponent N170 o wyższej amplitudzie (p = 0,012). Pozostałe porównania nie przyniosły istotnych wyników. Efekt ekspresji zanotowano także dla amplitudy komponentu AP [F(3,60) = 3,49; p = 0,021; ε = 0,923]. Również w tym przypadku analizy post-hoc wskazują na istotne różnice dla tej samej pary bodźców. Dla twarzy wyrażających strach (ST) notowano wyższe wartości średnie w porównaniu z neutralnymi (NT) (p = 0,037). Wyniki pozostałych porównań okazały się nieistotne. Wyraźne różnice w zapisie ERP, związane z wpływem ekspresji emocjonalnej, zaobserwowano także dla komponentu EPN [F(3,60) = 6,35; p < 0,001; ε = 0,967]. Jak wskazują wyniki porównań post-hoc, wartości uzyskane dla twarzy neutralnych były wyższe w porównaniu z wszystkimi pozostałymi rodzajami ekspresji: strachem w naturalnej postaci (ST) (p = 0,001), strachem okazywanym oczami (SO) (p = 0,007) oraz strachem prezentowanym okolicą ust (SU) (p = 0,037). Jednocześnie nie zanotowano żadnych różnic między poszczególnymi rodzajami twarzy emocjonalnych. Uzyskane wyniki zostały zilustrowane na ryc. 41 oraz 43–44. W podsumowaniu warto podkreślić, że twarze wyrażające strach w postaci naturalnej (ST) były przetwarzane odmiennie od twarzy neutralnych (NT) na każdym z testowanych etapów analizy. Zapisy ERP dla dwóch pozostałych typów ekspresji przybierały wartości pośrednie. Inaczej było w przypadku komponentu EPN, w którym twarze neutralne wywoływały odmienną odpowiedź kory wzrokowej w porównaniu ze wszystkimi pozostałymi twarzami, które w mniejszym lub większym stopniu wyrażały strach. FC1 FC2 [μV] AP [μV] AP 5 5 PO3 PO4 N170 N170 [μV] [μV PO7 N170 EPN O1Oz O2 [μV] [μV] [μV] 5 EPN 5 EPN 5 EPN NTST SO SU Ryc. 43. Przebieg uśrednionych potencjałów ERP zarejestrowanych w eksperymencie 8 dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czarnym przedstawia potencjały zarejestrowane w odpowiedzi na ekspozycję twarzy neutralnych (NT), linia w kolorze czerwonym odpowiada potencjałom uzyskanym dla twarzy wyrażających strach (ST), linia w kolorze zielonym odpowiada potencjałom zarejestrowanym dla twarzy wyrażających strach w okolicy oczu (SO), linia w kolorze niebieskim ilustruje potencjały dla twarzy wyrażających strach okolicą ust (SU). Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (150–200 ms), AP (170–250 ms) oraz EPN (200–260 ms) FC1 FC2 [μV] AP [μV] AP PO3 PO4 N170 N170 [μV] [μV] 200 [ms] PO7 N170 PO8 N170 [μV] [μV] [ms] EPN EPN O1Oz O2 [μV] [μV] [μV] [ms] [ms] EPN EPN EPN ST SOSU Ryc. 44. Przebieg uśrednionych fal różnicowych zarejestrowanych w eksperymencie 8 dla elektrod zlokalizowanych w okolicy czołowej (F3, FC1, Fz, FC2 i F4), potyliczno-skroniowej (PO7, PO3, PO4 i PO8) oraz potylicznej (O1, Oz i O2). Linia w kolorze czerwonym odpowiada różnicy potencjałów ERP dla twarzy wyrażających strach (ST) minus ERP dla twarzy neutralnych, linia w kolorze zielonym odpowiada różnicy potencjałów ERP dla twarzy wyrażających strach okolicą oczu (SO) minus ERP dla twarzy neutralnych, linia w kolorze niebieskim ilustruje różnicę potencjałów ERP dla twarzy wyrażających strach w okolicy ust (SU) minus ERP dla twarzy neutralnych. Okna czasowe dla poszczególnych komponentów zostały oznaczone dla odpowiednich elektrod: N170 (150–200 ms), AP (170–250 ms) oraz EPN (200–260) 7.5.3. Dyskusja wyników uzyskanych w eksperymencie 8 Wyniki uzyskane w opisanym powyżej eksperymencie stanowią swoiste uzupełnienie rezultatów zebranych w poprzednim badaniu. Z tego względu dyskusja tych wyników będzie nawiązywać bezpośrednio do obserwacji poczynionych przy okazji poprzedniego eksperymentu. Oczekiwano, że zastosowanie zdjęć przedstawiających twarze wyrażające strach w formie naturalnej oraz zmodyfi kowanej w zadaniu wymagającym identyfikacji płci osoby pokazanej na fotografi i spowoduje pojawienie się efektów ekspresji emocjonalnej o odmiennej charakterystyce w porównaniu z zadaniem wykorzystanym w eksperymencie 7, polegającym na różnicowaniu emocjonalnych sygnałów mimicznych. Założenie to do pewnego stopnia okazało się trafne. Zanotowano zróżnicowanie w przebiegu potencjałów ERP w odniesieniu do trzech komponentów. W pierwszym przypadku była to modulacja amplitudy N170. Zaobserwowano silniej wyrażony komponent N170 w reakcji na ekspozycję twarzy przedstawiającej strach w porównaniu z twarzami neutralnymi. Rezultat ten był jednak ograniczony wyłącznie do naturalnych wzorców ekspresji tych emocji. Wynik ten różni się więc od zanotowanego w eksperymencie 7, gdzie różnica dotyczyła także twarzy prezentujących strach w okolicy ust. Co ważne jednak, zanotowany efekt jest sam w sobie dość nieoczekiwany, gdyż został uzyskany w warunkach, które w zamyśle nie powinny angażować mechanizmu uwagi w analizę ekspresji emocjonalnej. Podobne zróżnicowanie, mające postać wzrostu amplitudy N170, było uprzednio obserwowane wyłącznie w przypadku zadań explicite wymagających oceny mimiki emocjonalnej i jednocześnie było nieobecne, gdy zadanie wymagało analizy innych charakterystyk twarzy (Wronka i Walentowska, 2011; zob. także eksperymenty 2–3). Trudno podać przyczynę pojawienia się tego efektu na podstawie jednego badania, lecz może to oznaczać, iż przedstawione wcześniej jego interpretacje należy traktować z ostrożnością. Efekt ekspresji emocjonalnej zaobserwowano także w przypadku okolic czo-łowych. Przyjmował on, podobnie jak w wielu wcześniej przedstawionych eksperymentach, postać dodatkowej dodatniej fali rejestrowanej dla twarzy emocjonalnych. Również tu efekt był ograniczony do twarzy wyrażających strach w pełnej formie (twarze ST). W poprzednim badaniu podobny rezultat uzyskano dodatkowo dla twarzy przedstawiających tę samą emocję w okolicy ust (twarze SU). Warto przy tym zwrócić uwagę na to, że siła efektu obserwowanego w niniejszym badaniu wydaje się mniejsza, choć ze względu na to, iż badane grupy różniły się liczebnością i nie zastosowano planu eksperymentalnego umożliwiającego porównania wewnątrzgrupowe, niniejsza sugestia jest osłabiona przez brak bezpo-średniego uzasadnienia w wynikach analiz statystycznych. Niemniej jeśli różnica w sile efektów byłaby rzeczywiście różna, oznaczałoby to, że w obu zadaniach wymagających odmiennego oddziaływania mechanizmu uwagi sygnały mimiczne mogły w różnym stopniu wywoływać mimowolne zaangażowanie zasobów uwagi. Z pewnością jednak taka sugestia jest trafna w odniesieniu do twarzy wyraża-jących strach w formie zmodyfi kowanej (SU), które w poprzednim badaniu wywoływały wyraźny komponent AP, niezaobserwowany dla tych samych bodźców w niniejszym eksperymencie. Odmienna sytuacja dotyczy przypadku komponentu EPN. Komponent ten był rejestrowany w niemal wszystkich dotychczas opisywanych badaniach własnych w okolicy potylicznej jako dodatkowa fala ujemna, pojawiająca się w reakcji na ekspozycję twarzy emocjonalnych. Rezultat w takiej postaci został zanotowany także w tym badaniu. Co ważne, średnie wartości potencjałów ERP rejestrowanych dla twarzy neutralnych były istotnie różne w porównaniu z wszystkimi uży-tymi w eksperymencie formami ekspresji strachu. Odmienny wynik zanotowano w poprzednim badaniu wykorzystującym identyczny zestaw bodźców. Wówczas komponent EPN został zaobserwowany tylko dla twarzy wyrażających strach w pełnej formie (ST) lub okazujących go w okolicy ust (SU), lecz był nieobecny dla twarzy, które strach przedstawiały tylko w okolicy oczu (SO). Zostało to zinterpretowane jako przesłanka, by sądzić, że ostatni z wymienionych rodzajów ekspresji był w rzeczywistości przetwarzany w sposób podobny jak twarze neutralne. Rezultaty uzyskane w niniejszym badaniu wskazują, iż wniosek ten może być nieprawdziwy. Nie wiadomo jednak, jaka mogłaby być przyczyna różnic obserwowanych w dwóch różnych zadaniach, a odnoszących się do tego samego typu bodźca. Co ważne w tym przypadku, komponent ten był przecież poprzednio traktowany jako korelat procesu o charakterze mimowolnym. Stąd nie oczekiwano wyraźnego wpływu uwagi na jego amplitudę. Biorąc pod uwagę charakterystykę komponentu EPN, należałoby uznać, że w jednym z dwóch ostatnich eksperymentów, z niejasnych przyczyn, komponent ten był rejestrowany niedo-kładnie, przynajmniej w odniesieniu do tej jednej wersji ekspresji strachu. Tym samym należy powstrzymać się od wyciągania jednoznacznych wniosków w tym przypadku. Oczywiście istnieje również możliwość, że podobnie było w związku z obserwowanym w niniejszym eksperymencie zróżnicowaniem amplitudy N170. W obu badaniach wykorzystujących identyczny zestaw bodźców nie zanotowano efektu ekspresji emocjonalnej dla komponentu P1. Jak sugerowano wcześniej przy okazji omawiania rezultatów eksperymentów 5 oraz 6, zróżnicowanie w tym zakresie może odpowiadać wczesnym etapom analizy pojedynczych elementów twarzy, które mogą mieć wyraźnie inny wygląd dla różnych rodzajów ekspresji emocjonalnej. Podejrzewano, że wynik rejestrowany dla P1 może mieć związek z eksponowaniem twarzy z otwartymi ustami i widocznymi zębami. Jednak brak podobnego rezultatu w innych wcześniejszych badaniach (eksperymenty 1–4) oraz w dwóch ostatnich każe podchodzić z dużą ostrożnością do takiej interpretacji. Jeśli wspomniany efekt odzwierciedla rzeczywiste procesy odbioru sygnałów emocjonalnych, to ma on charakter ulotny i rzadko jest rejestrowany. Równie dobrze jednak może to być dość przypadkowe zjawisko, którego podłoże jest zupełnie niejasne. Rozdział 8 Podsumowanie Precyzyjna ocena stanu afektywnego innej osoby z pewnością pozwala na dokładniejsze określenie relacji, w jakiej pozostajemy w danej chwili z tą osobą. Umiejętność dokonania takiej oceny ma istotne znaczenie dla naszego funkcjonowania społecznego. Wśród wielu różnych wskaźników, które mogą temu służyć, jednym z najbardziej wiarygodnych jest obserwacja zmian ekspresji emocjonalnej twarzy. Wydaje się, że teza taka jest obecnie powszechnie akceptowana w psychologii (Keltner i Ekman, 2005). Co więcej, panuje także zgoda, iż zarówno zdolność do nadawania, jak i odbierania komunikatów mimicznych mają postać adaptacji powstałych w procesie ewolucji. Dużo więcej kontrowersji budzi problem przebiegu procesu oceny mimiki emocjonalnej. Z jednej strony wskazuje się na ulotny charakter niektórych zmian kojarzonych z okazywaniem tzw. mikroekspresji oraz olbrzymią liczbę możliwych do wyróżnienia odmiennych form sygnałów mimicznych. Oznaczałoby to, iż od mechanizmu mózgowego, którego działanie stanowiłoby podstawę dla procesu różnicowania ekspresji emocjonalnej, wymagana jest niezwykła sprawność oraz precyzja działania. Z drugiej strony, dokonując codziennie oceny wyrazu mimicznego innych ludzi, możemy zauważyć, że przebiega ona niemal bez wysiłku. Ponadto wyniki wielu badań sugerują możliwość dokonywania oceny ekspresji emocjonalnej nawet w warunkach, w których ekspozycja bodźca uniemożliwia jego świadomy odbiór. Przypuszcza się również, iż procesy analizy tak prezentowanych sygnałów mimicznych przebiegają automatycznie, nie angażując mechanizmów poznawczych. Stąd sugestia, że wstępna ocena ekspresji, będąca procesem bardzo szybkim i często nieuświadomionym, może zachodzić bez wykorzystania kory mózgowej. Już sam fakt stosowania tak różnorodnej terminologii dla opisu tego samego zjawiska może wskazywać na duży stopień złożoności procesów uwi-kłanych w odbiór emocjonalnej ekspresji mimicznej. Zatem dokładne poznanie mózgowych mechanizmów leżących u podłoża tego procesu jest konieczne, by lepiej zrozumieć jego przebieg. 8.1. Elektrofizjologiczne korelaty rozpoznawania ekspresji emocjonalnej i ich znaczenie funkcjonalne Celem prezentowanej pracy była próba opisu działania mechanizmu rozpoznawania ekspresji emocjonalnej i określenia charakterystyki poszczególnych etapów tego procesu. W badaniach własnych opisanych w dwóch poprzednich rozdzia-łach podjęto próbę wyróżnienia elektrofi zjologicznych korelatów przetwarzania informacji, które mogą mieć związek z wczesnymi fazami różnicowania ekspresji emocjonalnej. W rezultacie wskazano na cztery niezależne komponenty potencjałów ERP, które w sposób mniej lub bardziej konsekwentny wykazywały wrażliwość na ekspozycję twarzy wyrażających odmienne stany emocjonalne. Oznacza to, że we wczesnym stadium przetwarzania ekspresji emocjonalnej możliwe jest wskazanie co najmniej czterech różnych efektów, które najprawdopodobniej odnoszą się do czterech odmiennych faz analizy sygnałów mimicznych, przy czym każda z nich odnosi się do innego procesu psychicznego oraz opiera się na aktyw-ności odmiennej grupy struktur mózgowych. Co ważne, poprzez zastosowanie odpowiednich manipulacji eksperymentalnych możliwe było określenie, w jakiej wzajemnej relacji pozostają poszczególne komponenty elektrofizjologiczne, a co za tym idzie, jak wzajemnie oddziałują na siebie poszczególne struktury mózgowe. W dużej mierze pozwala to na weryfikację hipotez odnoszących się do charakterystyki przetwarzania ekspresji emocjonalnej, jak również na wskazanie odpowiedzi przynajmniej na niektóre pytania dotyczące problemów związanych z tym tematem. Komponent P1 Ze względu na to, że ekspresja mimiczna jest w naturalnych warunkach odbierana niemal wyłącznie przez system wzrokowy, pierwszy z wyróżnionych etapów przetwarzania tego rodzaju informacji jest związany z aktywacją kory wzrokowej. Elektrofizjologicznym korelatem tego procesu jest komponent P1 obserwowany w zapisie potencjałów ERP około 100 ms po ekspozycji bodźca. Jak wspomniano wcześniej, komponent ten odpowiada najprawdopodobniej pobudzeniu wyższorzędowych rejonów kory wzrokowej położonych w brzusznej części płata potylicznego (Hillyard, Vogel i Luck, 1998; Hillyard i Anllo-Vento, 1998; Sams i in., 1997), przynajmniej w przypadku bodźców statycznych, takich jak fotografi e. W odniesieniu do procesów analizy percepcyjnej twarzy sugeruje się, że komponent P1 odzwierciedla bardzo wczesne etapy przetwarzania bodźców z tej kategorii. W tym czasie dochodzi do odróżnienia twarzy od innych obiektów (Herrmann i in., 2005; Liu, Harris i Kanwisher, 2002; Linkenkaer-Hansen i in., 1998). Jak twierdzą Maurer, Le Grand i Mondloch (2002; zob. także rozdział 2), aby twarz została odpowiednio skategoryzowana, konieczne jest określenie tzw. relacji pierwszego rzędu, czyli stwierdzenie obecności elementów twarzy ułożonych w odpowiedni sposób. Wymaga to oczywiście rozpoznania tych elementów. Stąd charakterystyka komponentu P1 może być, przynajmniej częściowo, zależna od wyglądu tych elementów i tym samym odwzorowywać ewentualne różnice w ich obrazie związane z ekspresją emocjonalną. Na taką możliwość wskazują również wyniki eksperymentów 5 oraz 6 opisanych w rozdziale 7. Przykładowo wielkość oczu może być jednym z elementarnych wskaźników pojawienia się ekspresji strachu, których wyróżnienie pozwalałoby na wstępną i szybką ocenę wyrazu mimicznego (Whalen i in., 2004). Również widok otwartych ust z odsło-niętymi zębami może być kojarzony z pojawieniem się ekspresji emocjonalnej. Co ważne, proces ten mógłby się odbywać na etapie poprzedzającym prawdopodobnie pełną analizę strukturalną twarzy. Wyodrębnienie tego rodzaju wskaźników pojawienia się emocjonalnych sygnałów mimicznych może także prowadzić do specyficznej aktywacji ciała migdałowatego (Whalen i in., 2004). Wyniki wskazujące, że na tym etapie przetwarzania twarzy można obserwować zróżnicowanie w aktywności kory mózgowej, są jednak stosunkowo nieliczne (Holmes, Kragh Nielsen i Green, 2008; Holmes i in., 2009, Pourtois i in., 2004; eksperymenty 5 oraz 6 w niniejszej pracy). Rezultaty te zostały zaobserwowane przy wykorzystaniu bardzo różnych procedur eksperymentalnych, co dodatkowo utrudnia ich interpretację. Niemniej jednak efekt w postaci modulacji komponentu P1 jest bez wątpienia najwcześniej rejestrowaną zmianą związaną z przetwarzaniem ekspresji emocjonalnej, która dodatkowo może być przypisana do określonego etapu analizy percepcyjnej twarzy. Prawdopodobnie etap ten stanowi wstęp do pełnej analizy strukturalnej twarzy, która zachodzi kilkadziesiąt milisekund później. Warto w tym miejscu zwrócić uwagę również na fakt, że możliwość obserwacji tego efektu może być zdeterminowana przez cechy indywidualne osób badanych. Jak bowiem wskazują wyniki uzyskane przez Amandę Holmes i jej współpracowników, obecność efektu ekspresji emocjonalnej w odniesieniu do amplitudy komponentu P1 może być uzależniona od poziomu lęku-cechy (Holmes, Kragh Nielsen i Green, 2008; Holmes i in., 2009). Na tym etapie przetwarzania bodźców wzrokowych można obserwować wyraźnie odmienne wzorce przebiegu ERP odzwierciedlone w postaci różnicy w amplitudzie P1 między osobami o niskich i wysokich wskaźnikach lęku-cechy (Walentowska i Wronka, 2010; w druku). Wyniki uzyskane w naszym laboratorium sugerują także, iż obserwowane dla P1 efekty lęku determinują obecność w zapisie potencjałów mózgowych późniejszych efektów ekspresji, takich jak EPN. Komponent N170 O wiele częściej rejestrowany jest efekt ekspresji emocjonalnej w odniesieniu do amplitudy komponentu N170. W tym przypadku obserwuje się silniej wyrażoną odpowiedź mózgu dla twarzy emocjonalnych w porównaniu z neutralnymi (Batty i Taylor, 2003; Blau i in., 2007; Miyoshi, Katayama i Morotomi, 2004; Pegna i in., 2008; Rigato, Farroni i Johnson, 2010; Sprengelmeyer i Jentzsch, 2006; Vlamings, Goffaux i Kemner, 2009). Podobną zależność zanotowano także w kilku eksperymentach opisanych w niniejszej pracy (eksperyment 1 zob. Wronka i Walentowska, 2011; eksperymenty 2–3 w rozdziale 6; eksperymenty 7–8 w rozdziale 7). Ze względu na to, że temu komponentowi oraz procesom, które mogą być powiązane z generowaniem N170, poświęcono dużą część rozdziału 4, nie będzie on tutaj dokładnie opisywany. Należy jednak pamiętać, iż stanowi on najprawdopodobniej zmianę z zapisie ERP, która jest uwarunkowana przez aktywność licznych struktur mózgu, takich jak zakręt wrzecionowaty (Halgren i in., 2000; Itier, Latinus i Taylor, 2006; Rossion i in., 1999a; Rossion, Joyce, Cottrell i Tarr, 2003) oraz okolice górnej bruzdy skroniowej (Itier i in., 2007; Itier and Taylor, 2004b). W modelu Haxby’ego te części kory wzrokowej były utożsamiane z elementami systemu mózgowego wyspecjalizowanego w analizie twarzy, przy czym zakręt wrzecionowaty był relatywnie bardziej związany z oceną stałych charakterystyk twarzy, istotnych dla rozpoznawania szeroko rozumianej tożsamości, podczas gdy okolice górnej bruzdy skroniowej łączono z analizą zmiennych charakterystyk twarzy, ważnych przy rozpoznawaniu między innymi ekspresji emocjonalnej (Haxby, Hoffman i Gobbini, 2000; 2002; Gobbini i Haxby, 2007; zob. także rozdział 2). Oznacza to, że obserwowane różnice w amplitudzie N170 odnoszą się bez-pośrednio do aktywności neuronów wybiórczo wrażliwych na ekspozycję twarzy. Istotny jest jednak przy tym fakt, iż efekt ekspresji emocjonalnej w odniesieniu do tego komponentu nie jest notowany w każdych warunkach, lecz niemal wyłącznie wówczas, gdy sygnały mimiczne są różnicowane w sposób kontrolowany. Problem relacji między zróżnicowaniem amplitudy N170 a sposobem zaangażowania uwagi nie był wcześniej badany w sposób systematyczny. W serii eksperymentów przedstawionych w rozdziale 6 wykazano jednak, że twarze emocjonalne wywołują N170 o wyższej amplitudzie wyłącznie wówczas, gdy osoby badane były explicite zaangażowane w rozpoznawanie sygnałów mimicznych. Jednocześnie podobny rezultat nie występował, gdy zadanie odnosiło się do tożsamości twarzy. Stąd wniosek, że przyczyną występowania różnic w przypadku N170 jest modulujący wpływ uwagi, co zostało dodatkowo potwierdzone rezultatami analizy lokalizacyjnej. Zanotowano w niej wyższą aktywację obszarów łączonych z przetwarzaniem twarzy w sytuacji, w której obserwowano także modulację N170. Nie oznacza to bynajmniej jednoznacznie, że zróżnicowanie o takiej charakterystyce może być zarejestrowane wyłącznie wówczas, gdy uwaga dowolna jest włączona w ocenę ekspresji emocjonalnej. Przykładowo, Batty i Taylor (2003) uzyskały podobny efekt, pomimo że zadanie nie polegało na odróżnianiu ekspresji emocjonalnych. Analogiczna sytuacja miała miejsce w badaniach Very Blau i jej grupy (Blau i in., 2007). Co jednak istotne, w obu eksperymentach nie zastosowano żadnego zadania związanego z eksponowanymi zdjęciami twarzy, tym samym nie można wykluczyć, że osoby badane mogły samowolnie zwracać uwagę na mimikę emocjonalną eksponowaną na fotografiach. Wszystko więc wskazuje, że na tym etapie przetwarzania ekspresji twarzy podstawową przyczyną zróżnicowania zapisu ERP jest modulujący wpływ uwagi dowolnej. Komponent AP Dopiero na późniejszych etapach przetwarzania mogą być rejestrowane komponenty ERP, których charakterystyka wskazuje na związek z procesami mimowolnego dekodowania znaczenia sygnałów mimicznych. Do tej grupy można zaliczyć obserwowany w okolicach czołowych komponent AP. Komponent przybierający postać fali dodatniej, pojawiającej się dla twarzy emocjonalnych, a nieobecnej dla neutralnych, uzyskiwano w różnych oknach czasowych, co jest prawdopodobnie w dużej mierze zdeterminowane różnicami w procedurach wykorzystywanych w badaniach. Przykładowo, w pracach grupy Eimera (Holmes, Vuilleumier i Ei-mer, 2003; Eimer i Holmes, 2002) komponent ten był rejestrowany wyjątkowo wcześnie, bo około 120 ms po bodźcu. Jednak w przypadku większości badań pojawia się on około 40–60 ms później (Ashley, Vuilleumier i Swick, 2004; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Wronka i Walentowska, 2011). Oznacza to, że początek tej fali staje się widoczny w zapisie ERP mniej więcej w tym samym czasie, gdy rejestrowana jest maksymalna wartość dla N170. Wyjątkiem są dwie wspomniane powyżej wczesne prace Eimera i jego współpracowników. Stąd wniosek, że ten etap przetwarzania ekspresji emocjonalnej następuje nie wcześniej niż przed zakończeniem procesów, których korelatem jest N170. Czas trwania komponentu AP również wykazuje stosunkowo duże zróżnicowanie, między kilkadziesiąt a kilkaset milisekund, przy czym niejasne są czynniki warunkujące tę jego charakterystykę. Komponent ten został zarejestrowany w kilku z przeprowadzonych eksperymentów własnych opisanych w dwóch poprzednich rozdziałach (eksperyment 1 zob. Wronka i Walentowska, 2011; eksperymenty 3 oraz 6–8). Warto w tym miejscu bliżej się przyjrzeć warunkom, w jakich był on obserwowany, co ma istotne znaczenie dla określenia znaczenia funkcjonalnego tego komponentu. Procedury wykorzystane w tych badaniach różniły się bowiem istotnie między sobą, jak również od tych wykorzystywanych w badaniach grupy Eimera. Możliwe jest jednak określenie charakterystycznych cech wspólnych przynajmniej dla niektórych warunków eksperymentalnych, w których komponent ten był obserwowany, jak również tych, gdy był on nieobecny. Po pierwsze, komponent AP może być obserwowany, gdy uwaga jest skierowana na te część przestrzeni, w której eksponowana jest twarz (Holmes, Vuilleumier i Eimer, 2003; Eimer i Holmes, 2002; Ashley, Vuilleumier i Swick, 2004; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006). Taką charakterystykę można także przypisać procedurom wykorzystanym we wszystkich eksperymentach własnych, które zaowocowały rejestracją komponentu AP (eksperyment 1 zob. Wronka i Walentowska, 2011; eksperymenty 3 oraz 6–8). W tej sytuacji rodzaj wykonywanego w tym czasie zadania, a więc sposób zaangażowania mechanizmu uwagi, nie ma większego znaczenia. Niezależnie więc od tego, czy osoba badana dokonuje oceny tożsamości, czy ekspresji emocjonalnej, możliwe jest wywołanie tej specyficznej zmiany w zapisie ERP dla twarzy emocjonalnych. Po drugie, komponent AP nie jest widoczny, gdy zadanie wymaga kontrolowanego alokowania uwagi w inną część przestrzeni aniżeli ta, w której prezentowana jest twarz. Często w badaniach stosuje się wówczas dodatkową manipulację polegającą na tym, że w tym obszarze przestrzeni eksponowane są inne bodźce, istotne dla wykonania zadania i tym samym silnie angażujące mechanizm uwagi (Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006; Holmes, Vuilleumier i Eimer, 2003; Eimer i Holmes, 2007). Na tej podstawie można założyć, że wyłącznie wówczas, gdy twarz pojawia się w ognisku uwagi, możliwe jest wywołanie specyfi cznego procesu, którego elektrofizjologicznym korelatem jest komponent AP. Stąd hipoteza, która pojawiła się już przy okazji omawiania wyników poszczególnych eksperymentów własnych przedstawionych w pracy, iż komponent ten może odzwierciedlać mimowolne angażowanie mechanizmu uwagi w przetwarzanie ekspresji emocjonalnej poprzez uruchomienie wolnych zasobów uwagi. Aby taki proces mógł nastąpić, konieczny jest jednak dostęp do wolnych, niezagospodarowanych zasobów uwagi oraz efektywne przetwarzanie na poziomie kory wzrokowej. Jeśli bowiem pobudzenie kory będzie stłumione w wyniku maskowania wstecznego, jak w eksperymentach 4 oraz 5, wówczas, pomimo że twarz pojawia się w ognisku uwagi, nie dochodzi do pojawienia się procesu, którego korelatem jest komponent AP. Komponent EPN Innym korelatem procesów mimowolnego różnicowania ekspresji emocjonalnej jest ujemna fala obserwowana w okolicy potylicznej około 200 ms po ekspozycji bodźca. W tym przypadku prezentacja twarzy emocjonalnych prowadzi do negatywizacji zapisu w porównaniu z bodźcami neutralnymi. Komponent ten określany jako early posterior negativity (EPN) może być rejestrowany niemal niezależnie od rodzaju zadania wykonywanego przez osobę badaną. Wskazują na to wyniki licznych eksperymentów własnych (eksperyment 1 zob. także Wronka i Walentowska, 2011; eksperymenty 2–4 oraz 6–8). Efekt o podobnej charakterystyce był także wielokrotnie notowany przez innych badaczy przy wykorzystaniu zdjęć twarzy (Eimer, Kiss i Holmes; 2008; Sato i in., 2001; Schupp i in., 2004b; Leppänen i in., 2007), ale także innych bodźców wzrokowych zawierających treści emocjo-genne (Schupp i in., 2003a; 2003b; 2004a). Ważne w tym kontekście wydaje się również to, że efekt ekspresji emocjonalnej w postaci komponentu EPN może być rejestrowany także wówczas, gdy sposób prezentacji twarzy uniemożliwia badanym spostrzeganie sygnałów mimicznych na poziomie świadomym (Eimer, Kiss i Holmes; 2008; zob. także eksperyment 4). Sugeruje się, że komponent ten jest wynikiem zwrotnego modulującego od-działywania struktur podkorowych, między innymi ciała migdałowatego. Od-działywanie to powoduje wzrost pobudzenia kory wzrokowej, co przekłada się na efektywniejsze przetwarzanie docierających do systemu danych sensorycznych. Oznacza to, że ciało migdałowate po zarejestrowaniu stymulacji o dużym znaczeniu afektywnym wpływa zwrotnie na przetwarzane w dalszej kolejności bodźce wzrokowe. Dzięki temu możliwa jest precyzyjniejsza ocena zmian w środowisku. Co jednak istotne, zjawisko to jest ograniczone przez przebieg analizy strukturalnej twarzy, gdyż ekspozycja tego bodźca w pozycji odwróconej, która zaburza ten rodzaj analizy, skutkuje równocześnie brakiem komponentu EPN. Wynik taki został uzyskany w trzech eksperymentach wykorzystujących ten rodzaj manipulacji (eksperymenty 4–6). Możliwość oddziaływania przez ciało migdałowate na procesy zachodzące w korze wzrokowej sugerowana była także przez przez innych badaczy (Vuilleumier i Pourtois, 2007). Wynik ten jest zgodny z rezultatami prac wykorzystujących techniki neurobrazowania (Pessoa, McKenna, Gutierrez i Ungerleider, 2002; Vuilleumier, Armony, Driver i Dolan, 2001; Vuilleumier i in., 2004). Również badania anatomiczne wskazują na istnienie połączeń między ciałem migdałowa-tym a poszczególnymi elementami kory wzrokowej, w tym jej pierwszorzędowej części (Amaral, Behniea i Kelly, 2003; Catani i in., 2003). Wydaje się również, że wpływ z poziomu ciała migdałowatego obserwowany w eksperymentach sto-sujących pomiar reakcji hemodynamicznej jest równoległy do oddziaływań mechanizmu uwagi (Pessoa, McKenna, Gutierrez i Ungerleider, 2002; Vuilleumier, Armony, Driver i Dolan, 2001). Relacje między poszczególnymi korelatami rozpoznawania ekspresji emocjonalnej Stwierdzone w przeprowadzonych eksperymentach zmiany we właściwościach poszczególnych, opisanych powyżej, elektrofizjologicznych korelatów przetwarzania ekspresji emocjonalnej pozwalają na wyciągnięcie wielu wniosków odnoszących się do układu czasowego interesującego nas procesu. Ponadto możliwe jest określenie wzajemnych relacji między poszczególnymi procesami, będącymi kolejnymi fazami analizy sygnałów mimicznych, odzwierciedlonych w postaci specyficznych komponentów ERP. Przykładem może być to, że efekt ekspresji emocjonalnej obserwowany w odniesieniu do komponentu P1 był obserwowany w zadaniach (eksperymenty 5–6), w których nie notowano modulacji amplitudy komponentu N170 (eksperymenty 1–3, 7–8). W tym przypadku trudno jednak o jednoznaczne wnioski dotyczące wzajemnych zależności między procesami, których komponenty są korelatami. Dużo więcej można natomiast powiedzieć o relacjach łączących N170 oraz dwa komponenty związane z procesami o charakterze mimowolnym, czyli AP oraz EPN. Po pierwsze, fakt, iż obserwowane są one w innych oknach czasowych, sugeruje jednoznacznie czasowe relacje między nimi. Analiza strukturalna odzwierciedlana przez N170 poprzedza procesy związane z generowaniem AP oraz EPN, lecz nie odwrotnie. Biorąc pod uwagę to, że modulacja wielkości N170 może być związana z procesami o charakterze dowolnym, efekty zaś w postaci komponentów AP oraz EPN raczej odzwierciedlają mimowolne różnicowanie ekspresji emocjonalnej, należałoby uznać, iż korelaty procesów kontrolowanych pojawiają się wcześniej niż w przypadku procesów mimowolnych. Taki układ czasowy efektów jest niezgodny ze stosunkowo powszechnym przekonaniem, że przetwarzanie automatyczne wyprzedza przetwarzanie o charakterze dowolnym. Warto jednak zauważyć, iż podobne zależności odnoszące się do czasowej charakterystyki elektrofizjologicznych korelatów procesów mimowolnych oraz dowolnych obserwuje się w przypadku przetwarzania innych bodźców wzrokowych. Przykładowo, modulacja amplitudy komponentów P1 oraz N1 obserwowana około 100–200 ms po bodźcu, utożsamiana z odgórnym wpływem mechanizmu uwagi, jest rejestrowana konsekwentnie w badaniach dotyczących funkcjonowania uwagi przestrzeni (Anllo-Vento, Luck i Hillyard, 1998; Hillyard, Vogel i Luck, 1998; Hillyard i Anllo--Vento, 1998; Wronka, 2004). Jednocześnie korelat mimowolnej alokacji uwagi w przestrzeni, w postaci komponentu N2pc, jest notowany na późniejszym etapie przetwarzania (Luck i Hillyard, 1994; Woodman i Luck, 1999). Można nawet postawić tezę, że odwrotny układ obu rodzajów procesów nie miałby większego sensu. Skoro bowiem jakaś grupa procesów ma charakter automatyczny, oznacza to, iż mają one podobny charakter niezależnie od zaangażowania uwagi, a informacja będąca rezultatem tego rodzaju przetwarzania jest uzyskiwana zawsze w tym samym momencie. Jeśli więc funkcją uwagi dowolnej jest takie sterowanie procesami analizy danych sensorycznych, aby przyspieszyć i zwiększyć efektywność rejestracji istotnych zmian w otoczeniu, to jej wpływ powinien być związany z oddziaływaniem na tych etapach przetwarzania informacji, które poprzedzają mimowolne różnicowanie stymulacji. Teza taka byłaby zgodna z wynikami uzyskanymi w badaniach własnych dotyczących rozpoznawania ekspresji mimicznej, jak również wspomnianymi powyżej, odnoszącymi się do przetwarzania innych bodźców wzrokowych. Po drugie, występowanie efektu dla N170 nie determinuje wielkości później-szych efektów, czyli amplitudy AP oraz EPN. Oznacza to, że wpływ mechanizmu uwagi wywierany na procesy analizy strukturalnej nie powoduje zmiany w przebiegu procesów o charakterze mimowolnym. Jednakże nie oznacza to, iż procesy mózgowe leżące u podłoża komponentów AP oraz EPN są całkowicie niezależne od procesów, których korelatem jest N170. Jak sugerują wyniki eksperymentów 4–6, ekspozycja twarzy w pozycji odwróconej, co zaburza przebieg analizy strukturalnej twarzy, skutkuje zanikiem komponentu EPN. Podobna zależność może być również notowana dla komponentu AP. W tym jednak przypadku stwierdzono to wyłącznie w eksperymencie 6, gdzie ekspozycja twarzy w pozycji normalnej prowadziła do pojawienia się charakterystycznej fali dodatniej w okolicach czołowych, nieobecnej dla twarzy inwertowanych. Rezultaty sugerują, że mimowolne różnicowanie ekspresji emocjonalnej jest efektywne w sytuacji, gdy przetwarzanie danych sensorycznych na wczesnych etapach przebiega prawidłowo i pozwala na względnie precyzyjne określenie właściwości bodźca. Po trzecie, wzrost zaangażowania uwagi w przetwarzanie bodźców innych niż twarze może skutkować tłumieniem procesów zachodzących w trakcie analizy strukturalnej i w rezultacie prowadzić do zaniku EPN. Taki skutek zanotowano w eksperymencie 5. Może on być interpretowany jako argument wspierający tezę, iż uwaga może na wczesnych etapach przetwarzania modulować w sposób istotny procesy analizy bodźców wzrokowych, w tym także twarzy emocjonalnych. Jest to zgodne z modelami funkcjonowania mechanizmu uwagi zakładającymi, że jej zaangażowanie w przetwarzanie jednego rodzaju bodźca powoduje wzrost aktywacji w strukturach mózgowych, odpowiadających za analizę tego bodźca i jednocześnie może wywołać spadek pobudzenia w innych częściach systemu, związanych z przetwarzaniem innych cech tego bodźca lub odpowiadających za rozpoznawanie innych rodzajów obiektów (Beck i Kastner, 2009; Duncan, 2006; Kastner i Ungerleider, 2000; 2001; Pessoa, Kastner i Ungerleider, 2002). W rezultacie więc różnicowanie ekspresji emocjonalnej przebiega w sposób mniej efektywny, co skutkuje także zmianą w funkcjonowaniu tych części układu nerwowego, które zajmują się oceną znaczenia emocjonalnego stymulacji. W tym przypadku może chodzić o brak zróżnicowanej odpowiedzi ciała migdałowatego, które jest sugerowanym źródłem komponentu EPN. Podobną redukcję pobudzenia ciała migdałowatego wywołaną przez manipulację sposobem zaangażowania mechanizmu uwagi zanotowano w badaniach zespołu Pessoa (Pessoa, McKenna, Gutierrez i Ungerleider, 2002) i Silvert (Silvert i in., 2007). Biorąc pod uwagę wszystkie te zależności, można stwierdzić, że procesy mimowolnego różnicowania ekspresji emocjonalnej nie mają więc charakteru w pełni automatycznego, gdyż zależą do pewnego stopnia od sposobu funkcjonowania mechanizmu uwagi (Pessoa, 2005). Po czwarte, oba komponenty łączone z mimowolnym przetwarzaniem ekspresji emocjonalnej wydają się odzwierciedlać relatywnie niezależne grupy procesów. Wniosek ten jest oparty na obserwacji, że pojawienie się jednego z tych komponentów nie gwarantuje obecności drugiego. Faktem jest jednak, iż komponent EPN był konsekwentnie rejestrowany niemal we wszystkich przeprowadzonych eksperymentach, podczas gdy komponent AP wykazywał dużą zmienność. Różnice dotyczą więc nie tylko procesów psychicznych powiązanych z oboma komponentami, lecz także warunków, w których obie grupy procesów mogą być obserwowane. W przypadku komponentu AP sugerowano, że jest on korelatem mimowolnego angażowania niezagospodarowanych wcześniej zasobów uwagi. Komponent ten może odzwierciedlać aktywność rejonów kory czołowej wrażliwych na ekspozycję ekspresji emocjonalnej. Rejony te to przede wszystkim obszary brzuszno-przyśrodkowe płata czołowego (Nakamura i in., 1999; Philips i in., 1998; Sprengelmeyer i in., 1998). Uważa się także, iż pełnią one istotną rolę w integracji danych związanych ze znaczeniem afektywnym docierającej do układu stymulacji oraz informacji dotyczących norm i reguł kierujących zachowaniem w określonych sytuacjach społecznych (Adolphs, 1999; Brothers, 1990; Frith i Frith, 1999; 2003; Stone, Baron-Cohen i Knight, 1998; por. także Wronka, 2008). Możliwe jednak również, że komponent AP jest korelatem pobudzenia innych elementów kory czołowej, jak przykładowo zakręt obręczy oraz przyśrodkowe części płata czołowego, które są powiązane z wczesną fazą aktywacji mechanizmu uwagi (Wronka, Kaiser i Coenen, 2008; 2012). Rozstrzygnięcie problemu lokalizacji mózgowego źródła tego komponentu wymaga w oczywisty sposób dalszych badań. Niezależnie jednak od tego, które fragmenty płata czołowego uczestniczą w jego generowaniu, należy podkreślić, że odzwierciedla on najprawdopodobniej procesy o charakterze poznawczym w przeciwieństwie do komponentu EPN, który może być utożsamiany z wpływem ciała migdałowatego na poziom aktywacji kory wzrokowej i tym samym obrazuje raczej procesy oceny znaczenia afektywnego stymulacji. Jak system nerwowy analizuje sygnały mimiczne? Biorąc więc pod uwagę zasygnalizowane zależności, możliwe jest przedstawienie szkicu modelu odnoszącego się do przebiegu procesów analizy ekspresji emocjonalnej. Wstępne etapy tego procesu są nierozłącznie związane z przetwarzaniem twarzy w obrębie korowej części systemu wzrokowego. Należy więc pamiętać, że mimika emocjonalna nie jest analizowana niezależnie od innych charakterystyk twarzy, lecz jest wyłącznie jednym z wielu aspektów tego bodźca opracowywanym w obrębie mózgowego systemu wyspecjalizowanego w przetwarzaniu twarzy. Po-czątkowo twarz jest spostrzegana w formie zbioru elementów, które są ułożone w określony sposób, co pozwala określić, czy rzeczywiście mamy do czynienia z twarzą, oraz umożliwia opis wyglądu poszczególnych jej fragmentów. Już w tej fazie możliwe jest wyodrębnienie sygnałów, które w mniej lub bardziej jednoznaczny sposób mogą stanowić wskaźnik pojawienia się ekspresji emocjonalnej. Mowa tu o zmianie w wyglądzie pojedynczych elementów twarzy, takich jak oczy czy usta. W rezultacie możliwe jest zarejestrowanie efektu ekspresji emocjonalnej w zapisie ERP w postaci modulacji amplitudy komponentu P1. Może to prowadzić do wielu reakcji pojawiających się na późniejszych etapach (np. pojawienie się komponentów AP i EPN). Jednakże ze względu na to, że zmiana w wyglądzie pojedynczej części twarzy może mieć zbliżony charakter w wielu, bardzo często różnych sytuacjach, wskaźniki tego rodzaju, jak zmiana wielkości oczu, nie są też wystarczającym sygnałem, by wywołać silną zmianę w działaniu całego systemu, szczególnie gdy jest on w danej chwili zaangażowany w aktywność, która nie ma bezpośred-niego związku ze spostrzeganym wyrazem mimicznym. Oznacza to, że możemy oczekiwać efektów ekspresji emocjonalnej wynikających z detekcji specyfi cznego wyglądu pojedynczych elementów twarzy wyłącznie w sytuacji, gdy mechanizm uwagi nie jest intensywnie wykorzystywany, a zasoby uwagi mogą być w łatwy sposób uaktywnione i mimowolnie przypisane procesom oceny mimiki emocjonalnej (komponent AP). Ten etap analizy jest jednak stosunkowo słabo poznany i wymaga przeprowadzenia wielu badań, aby wyciągnąć jednoznaczne wnioski. Dużo więcej wiadomo o kolejnym etapie przetwarzania twarzy, który jest odzwierciedlony w postaci komponentu N170. Jak zostało to szczegółowo przedstawione w rozdziale 4, komponent ten, obserwowany około 140–200 ms po ekspozycji twarzy, jest traktowany jako korelat procesów analizy strukturalnej. Oznacza to, że w tej fazie dokonywana jest ocena wzajemnych relacji między elementami twarzy, przy czym wiele wskazuje, iż może ona dotyczyć zarówno stałych, jak i zmiennych charakterystyk twarzy. Mielibyśmy więc do czynienia z licznymi procesami zachodzącymi jednocześnie. Komponent N170 byłby więc wypadkową aktywności grupy struktur powiązanych z tymi procesami. Potwierdza to obserwacja sugerująca, że źródło N170 jest położone w kilku częściach kory okolic skroniowo-potylicznych. W tej fazie przetwarzania twarzy można także zarejestrować specyfi czny efekt ekspresji emocjonalnej, polegający na wzroście amplitudy N170 w odpowiedzi na bodźce emocjonalne w porównaniu z neutralnymi. Na oddolnie wywołaną aktywację struktur biorących udział w analizie strukturalnej nakłada się wówczas dodatkowe oddziaływanie, którego źródłem jest mechanizm uwagi. W rezultacie następuje zmiana porównywalna do tej, którą można obserwować niemal zawsze, gdy uwaga wpływa na procesy percepcyjne. Przykładowo, jeśli zadanie wymaga różnicowania koloru obiektu, wówczas notowany jest wzrost aktywacji rejonu V4 kory wzrokowej, łączonego z analizą tej właśnie cechy obiektu (Beck i Kastner, 2009; Kastner i Ungerleider, 2000; 2001). Podobna zmiana w odniesieniu do ekspresji emocjonalnej może mieć postać wzrostu aktywacji tych grup neuronów, które są lokalizowane w okolicach górnej bruzdy skroniowej i w specyfi czny sposób są pobudzane, gdy eksponowane są sygnały mimiczne. Ze względu jednak na to, że efekt ten był do tej pory systematycznie badany niemal wyłącznie przy wykorzystaniu metod o niskiej rozdzielczości przestrzennej (ERP), trudno o jednoznaczne potwierdzenie tej tezy. Podobną wadą obarczone są eksperymenty własne. Stąd trudno określić, czy zakładany wzrost pobudzenia neuronów położonych w obrębie górnej bruzdy skroniowej i wrażliwych na sygnały mimiczne jest źródłem modulacji N170. Uzasadnione więc wydaje się przeprowadzenie podobnej serii eksperymentów przy zastosowaniu metod neuroobrazowania. W rezultacie związanych z wpływem uwagi dowolnej zmian w pobudzeniu struktur kory skroniowej ocena ekspresji emocjonalnej może być dokonywana z większą precyzją, co wpływa na dobór odpowiedniej reakcji behawioralnej oraz szybkość jej planowania i egzekucji. Z podobną zależnością mamy do czynienia, gdy w zadaniach wymagających różnicowania koloru bodźca rejestrowany jest wzrost pobudzenia w obszarze V4 oraz odpowiednie efekty behawioralne. Należy też jednak pamiętać, że w całości zjawiska tego rodzaju odnoszą się do procesów o charakterze poznawczym. Zarówno bowiem wzrost amplitudy N170, jak i póź-niejsze efekty behawioralne nie mogą być utożsamiane z reakcją emocjonalną. Co równie istotne, niezależnie od wpływu mechanizmu uwagi związanego z kontrolowanym rozpoznawaniem ekspresji emocjonalnej sam przebieg analizy strukturalnej nie ulega prawdopodobnie istotnej zmianie. Jeśli twarz jest prezentowana w normalnej pozycji, wówczas analiza ta jest efektywna i ocena wzajemnych relacji między elementami twarzy jest bardzo precyzyjna. Jeśli jednak twarz jest eksponowana w odwróconej pozycji, to wówczas analiza strukturalna jest silnie zaburzana, a procesy przetwarzania takiego bodźca angażują relatywnie silniej obszary kory wzrokowej przeznaczone do obróbki obiektów innych niż twarz. Biorąc to pod uwagę, można oczekiwać, że skuteczne zróżnicowanie emocjonalnych sygnałów mimicznych będzie możliwe wyłącznie wtedy, gdy analiza strukturalna przebiega normalnie. Wszelkie nieprawidłowości w trakcie tej analizy będą skutkować niedokładną oceną znaczenia afektywnego bodźca, co zostało wykazane w eksperymentach 4–6, w których ekspozycja twarzy w odwróconej pozycji spowodowała zanik efektów ekspresji emocjonalnej rejestrowanych na późniejszych etapach (EPN). Z podobną sytuacją mamy do czynienia, gdy mechanizm uwagi jest silnie za-angażowany w przetwarzanie obiektów innych niż twarz. Może to prowadzić do stłumienia aktywności w obrębie systemu wyspecjalizowanego w przetwarzaniu twarzy na rzecz innych części kory wzrokowej. Zbliżone zjawiska obserwowano wielokrotnie w badaniach dotyczących oddziaływania uwagi na procesy percepcyjne. Gdy zadanie wymaga różnicowania koloru, dochodzi do wzrostu aktywacji kory w rejonie V4, wyspecjalizowanym w dekodowaniu tego aspektu bodźca. Równocześnie można zanotować spadek pobudzenia w innych rejonach kory wzrokowej, przykładowo w obszarze MT łączonym z analizą ruchu obiektów. Jeśli jednak dochodzi do zmiany instrukcji eksperymentalnej i wymagamy od badanego oceny ruchu obiektów, co oczywiście pociąga za sobą zmianę w funkcjonowaniu mechanizmu uwagi, to ten sam bodziec wywołuje wzrost pobudzenia rejestrowanego dla MT i jednoczesny spadek w rejonie V4 (Beck i Kastner, 2009; Kastner i Ungerleider, 2001). Nie ma podstaw, by sądzić, że w odniesieniu do systemu wyspecjalizowanego w przetwarzaniu twarzy podobnego efektu modulującego nie można obserwować. Przeciwnie, badania wykorzystujące techniki neuroobrazowania jednoznacznie sugerują, iż skutki tego rodzaju można rejestrować dla całego systemu wzrokowego, w tym zakrętu wrzecionowatego oraz rejonu górnej bruzdy skroniowej. Podsumowując rozważania dotyczące roli procesów przetwarzania twarzy, których korelatem jest komponent N170, musimy stwierdzić, że efekt ekspresji emocjonalnej rejestrowany w tym przypadku jest powiązany z działaniem mechanizmu uwagi dowolnej. Mechanizm ten wpływa na elementy kory biorące udział w przetwarzaniu twarzy, będące też źródłem komponentu N170, co pozwala na szybszą i precyzyjniejszą ocenę ekspresji emocjonalnej. W rezultacie możliwe jest skuteczniejsze reagowanie na zmiany stanu afektywnego osoby, którą obserwujemy. Cały ten proces nie musi się jednak wiązać z pojawieniem się reakcji emocjonalnej. Jeśli analiza, której korelatem jest N170, przebiega bez zakłóceń, to niezależnie od tego, czy uwaga jest czy też nie jest zaangażowana w ocenę ekspresji mimicznej, jej rezultatem może być stwierdzenie, w jakiej relacji względem siebie pozostają poszczególne części twarzy i jak te relacje ulegają zmianie. Innymi słowy, system jest w stanie określić wzorzec mimiki twarzy. W sytuacji, gdy wzorzec ten odpowiada którejś z prototypowych form ekspresji emocjonalnej, system może spowodować zmianę w działaniu innych mechanizmów kontrolujących zachowanie. W rezultacie możliwe jest wywołanie zmiany w funkcjonowaniu mechanizmu uwagi, który zwrotnie skieruje zasoby do przetwarzania informacji pochodzących z systemu wzrokowego lub przynajmniej zostanie tymczasowo uwrażliwiony na te sygnały. Proces ten może zostać odwzorowany w zapisie potencjałów ERP w postaci komponentu AP. Znając warunki, w jakich komponent ten może być rejestrowany, możemy również określić, w jakich sytuacjach może zachodzić proces mimowolnego anga-żowania mechanizmu uwagi w formie przedstawionej powyżej. Po pierwsze, twarz powinna być eksponowana w centralnej części pola widzenia lub uwaga powinna być zogniskowana na twarzy. W obu przypadkach mamy do czynienia z prawid-łowo przebiegającą analizą percepcyjną bodźca i możliwością precyzyjnego opisu ekspresji emocjonalnej w obrębie kory wzrokowej. Innymi słowy, dane sensoryczne dotyczące twarzy są najdokładniej przetwarzane, jeśli pochodzą z centralnej części pola widzenia lub obszaru, na który skierowane jest ognisko uwagi. Po drugie, pewna pula zasobów uwagi musi pozostawać wolna i powinna istnieć możliwość ich wykorzystania. Jeśli więc w momencie prezentacji twarzy mechanizm uwagi jest silnie zaangażowany w przetwarzanie bodźców innego rodzaju lub inny rodzaj procesu poznawczego, wówczas może dojść do wykorzystania ich pełnej puli i w rezultacie informacja dotycząca ekspresji emocjonalnej nie wywoła zmian w funkcjonowaniu mechanizmu uwagi. W takiej sytuacji nie można obserwować pojawienia się komponentu AP. Opisaną powyżej zależność dobrze ilustrują wyniki eksperymentów przeprowadzonych przez autora pracy (eksperyment 1 zob. Wronka i Walentowska, 2011; eksperymenty 3 oraz 6–8), jak i prace wcześniejsze (Holmes, Vuilleumier i Eimer, 2003; Eimer, Holmes i McGlone, 2003; Holmes, Kiss i Eimer, 2006). Jak zostało to także zaobserwowane w dwóch eksperymentach wykorzystujących podprogową prezentację bodźca, proces analizy percepcyjnej musi być stosunkowo wysoce zaawansowany, aby informacja dotycząca mimiki emocjonalnej wpłynęła na aktywność płata czołowego. Odmienny związek z procesami zachodzącymi na poziomie kory wzrokowej można odnotować w przypadku komponentu EPN. Jest on obserwowany w okolicy kory potylicznej i – jak wcześniej sugerowano – może stanowić wynik modulującego oddziaływania ciała migdałowatego. Jak stwierdzono w przeprowadzonych eksperymentach własnych, komponent ten pojawia się niezależnie od sposobu zaangażowania mechanizmu uwagi w przetwarzanie twarzy. Ponadto może być zarejestrowany w warunkach uniemożliwiających świadomy odbiór ekspresji emocjonalnej. Wydaje się więc, że ciało migdałowate jest w stanie zareagować także w sytuacji niepełnej informacji o bodźcu. Świadczą o tym również wyniki badań wykorzystujących techniki neuroobrazowania zaprezentowane w rozdziale 5. Nie oznacza to jednak, że struktura ta będzie wykazywać specyficzny wzrost pobudzenia w odniesieniu do twarzy emocjonalnych niezależnie od warunków. Okazuje się, iż zaburzenie analizy strukturalnej powoduje zanik komponentu EPN, co może sugerować brak wybiórczej reakcji układu limbicznego. Tym samym prawidłowy przebieg analizy strukturalnej byłby warunkiem koniecznym do wywołania odpowiedzi ciała migdałowatego i pojawienia się komponentu EPN. Drugim charakterystycznym czynnikiem determinującym możliwość rejestracji EPN, podobnie jak reakcji ciała migdałowatego, jest modulujący wpływ uwagi. Jak wynika z badań Luiza Pessoa i jego grupy (Pessoa, McKenna, Gutierrez i Ungerleider, 2002), silne zaangażowanie uwagi w innej części pola widzenia niż ta, w której prezentowana jest twarz, powoduje, że specyficzna reakcja ciała migdałowatego nie jest rejestrowana. Podobny rezultat obserwowano także w innych badaniach (Silvert i in., 2007). Porównanie wyników eksperymentów 5 oraz 6 powadzi również do podobnego wniosku. O ile w pierwszym z nich EPN zanotowano dla twarzy eksponowanych w normalnej pozycji, o tyle w drugim, przy zastosowaniu zadania wymagającego większego zaangażowania w jego wykonanie, komponent ten był zdecydowanie słabiej wy-rażony. W obu jednak prezentacja twarzy w pozycji odwróconej spowodowała, iż EPN był zupełnie niewidoczny. Wyniki uzyskane w odniesieniu do komponentu EPN sugerują więc, że etapem poprzedzającym reakcję ciała migdałowatego jest analiza strukturalna twarzy, niezależnie od poziomu uświadomienia bodźca. Obserwowana zależność ma istotne znaczenie w świetle koncepcji zakładającej, że przesyłanie informacji do ciała migdałowatego może się odbywać za pośrednictwem połączeń podkorowych, omijając korę wzrokową. Taka wizja przebiegu procesów różnicowania ekspresji emocjonalnej opierała się na propozycji teoretycznej przedstawionej przez LeDoux (1995; 2000; zob. także LeDoux i Phelps, 2005) na podstawie wyników doświadczeń na szczurach. Wykazano w nich możliwość przekazywania informacji o działaniu bodźca słuchowego do ciała migdałowatego bez pośrednictwa kory mózgowej. Proces ten odbywał się przy wykorzystaniu włókien nerwowych łączących ciała kolankowate przyśrodkowe, będące najwyżej położonym podkorowym elementem drogi słuchowej, oraz ciało migdałowate, stanowiące element układu limbicznego biorącego udział w wywoływaniu reakcji emocjonalnych i ocenie znaczenia afektywnego stymulacji (LeDoux, Sakaguchi i Reis, 1983). Wyniki tych badań skłoniły LeDoux do uznania, że informacja z narządów zmysłów może dotrzeć do układu limbicznego poprzez dwa odmienne systemy połączeń. Jeden z nich angażowałby poszczególne elementy dróg nerwowych biegnących od receptorów do kory mózgowej, a następnie połączenia między korą a układem limbicznym. Drugi system połączeń omijałby struktury korowe, wykorzystując aksony łączące podkorowe elementy systemów sensorycznych, jak ciała kolankowate przyśrodkowe, z częściami układu limbicznego. Oba systemy połączeń powiązane byłyby z odmiennymi formami analizy stymulacji. Wskazywano, że dokładna analiza znaczenia emocjonalnego bodźca wymaga przetwarzania informacji na poziomie kory, które jednak jest relatywnie wolne i bardzo złożone. Ocena afektywna stymulacji może być dokonana dużo szybciej, gdy informacja zostanie przekazana do układu limbicznego bez pośrednictwa kory mózgowej. W tym jednak wypadku możemy mieć do czynienia wyłącznie z bardzo niedokładnym określeniem wartości emocjonalnej. Należy pamiętać, że prace eksperymentalne LeDoux zostały przeprowadzone na szczurach z wykorzystaniem procedur prostego warunkowania klasycznego. Sam autor w interpretacji uzyskanych wyników postulował, iż opisany powyżej podział odnosi się do procesów przetwarzania bodźców każdego rodzaju, lecz głównie stanowiących sygnał zagrożenia. Późniejsze prace przynosiły jednak rezultaty, które nie były do końca zgodne z propozycją LeDoux. Okazało się bowiem, że u gryzoni różnicowanie bodźców sygnalizujących zagrożenie od tych, które go nie oznaczają, jest możliwe wyłącznie przy udziale kory (Jarrell i in., 1987; Kuniecki, Coenen i Kaiser, 2002). Ponadto podano w wątpliwość możliwość istnienia u naczelnych połączeń między ciałami kolankowatymi a ciałem migdałowatym (Pessoa, 2005). Postulat dotyczący możliwości przekazywania sygnałów do ciała migdałowa-tego z ominięciem systemów korowych można odnaleźć także w pracach Öhmana oraz Morrisa (Morris, Öhman i Dolan, 1998; 1999; Morris, De Gelder, Weiskrantz i Dolan, 2001), w których sugerowano, że podkorowe połączenia kierujące impulsy nerwowe do ciała migdałowatego wykorzystują wzgórki górne śródmózgowia oraz jądra poduszki wzgórza. Jak jednak przedstawiono w rozdziale 5, hipoteza ta opiera się na wynikach badań z udziałem pacjenta G.Y. oraz dwóch eksperymentów z wykorzystaniem techniki neuroobrazowania przeprowadzonych na osobach zdrowych. Jeśli uwzględnimy, że technika ta nie pozwala na określenie porządku czasowego dla pobudzenia rejestrowanego w różnych strukturach mózgu oraz dodatkowo weźmiemy pod uwagę niejasności dotyczące badań wspomnianego pacjenta, to będziemy musieli stwierdzić, iż teza ta ma bardzo słabe umocowanie w danych empirycznych. Mówiąc wprost, nie ma przekonujących danych pozwalających na stwierdzenie, że informacja dotycząca ekspresji emocjonalnej może być przekazywana do struktur układu limbicznego bez pośrednictwa kory wzrokowej. Z tezą tą zgadzają się także wyniki uzyskane w badaniach własnych. Brak jest także argumentów świadczących o tym, że aktywacja ciała migdałowatego następuje wcześniej niż pobudzenie obszarów korowych. Dużo więcej jest danych sugerujących, iż reakcja ciała migdałowatego pojawia się później niż aktywacja rejestrowana na poziomie kory (zob. rozdział 5). Reasumując, należy podkreślić, że opisane w pracy wyniki badań własnych oraz innych zespołów sugerują, iż przebieg procesu oceny ekspresji emocjonalnej ma charakter złożony. Możliwe jest wyróżnienie czterech etapów tego procesu, mających odrębne komponenty elektrofizjologiczne w postaci komponentów P1, N170, AP oraz EPN. Każdy z nich jest uwarunkowany przez wiele czynników, wśród których jednym z najistotniejszych jest aktywność mechanizmu uwagi. Każdy z wymienionych korelatów posiada specyficzny zespół generatorów mózgowych i jest powiązany z innymi procesami na poziomie psychicznym. Część z nich ma związek z procesami o charakterze kontrolowanym, jak na przykład zaangażowanie uwagi o charakterze dowolnym. W przypadku innych zakłada się raczej ich mimowolny charakter. Należy jednak również zaznaczyć, że obraz procesów przetwarzania ekspresji emocjonalnej w formie przedstawionej w niniejszej pracy jest z oczywistych względów niepełny, gdyż obejmuje wyłącznie wczesne fazy analizy sygnałów mimicznych. Głównym powodem takiego stanu rzeczy są ograniczenia dotyczące wielkości pracy. By uwzględnić również późniejsze etapy przetwarzania mimiki emocjonalnej, które także charakteryzuje duży stopień złożoności, praca musiałaby zostać poszerzona o kolejne rozdziały. Ponadto celem przeprowadzonych badań własnych był opis właśnie wczesnych faz różnicowania ekspresji emocjonalnej. Literatura cytowana Adolphs R. (1999). Social cognition and the human brain. Trends in Cognitive Sciences, 3, 469–479. Adolphs R. i Tranel D. (2003). Amygdala damage impairs emotion recognition from scenes only when they contain facial expressions. Neuropsychologia, 41, 1281–1289. Adolphs R., Tranel D. i Damasio A.R. (1998). The human amygdala in social judgment. Nature, 393, 470–474. Adolphs R., Tranel D., Damasio H. i Damasio A.R. (1994). Impaired recognition of emotion in facial expressions following bilateral damage to the human amygdala. Nature, 372, 669– 672. Adolphs R., Tranel D., Damasio H. i Damasio A.R. (1995). Fear and the human amygdala. Journal of Neuroscience, 15, 5879–5891. Adolphs R., Tranel D., Hamann S., Young A.W., Calder A.J., Phelps E.A., Anderson A., Lee G.P. i Damasio A.R. (1999). Recognition of facial emotion in nine individuals with bilateral amygdala damage. Neuropsychologia, 37, 1111–1117. Aguirre G.K., Singh R. i D’Esposito M. (1999). Stimulus inversion and the responses of face and object-sensitive cortical areas. NeuroReport, 10, 189–194. Aguirre G.K., Zarahn E. i D’Esposito M. (1998). An area within human ventral cortex sensitive to “building” stimuli: Evidence and implications. Neuron, 21, 373–383. Allison T., McCarthy G., Nobre A., Puce A. i Belger A. (1994). Human extrastriate visual cortex and the perception of faces, words, numbers, and colors. Cerebral Cortex, 5, 544–554. Allison T., Puce A. i McCarthy G. (2000). Social perception from visual cues: Role of the STS region. Trends in Cognitive Sciences, 4, 267–278. Allison T., Puce A., Spencer D.D. i McCarthy G. (1999). Electrophysiological studies of human face perception. I: Potentials generated in occipitotemporal cortex by face and nonface stimuli. Cerebral Cortex, 9, 415–430. Amaral D.G., Behniea H. i Kelly J.L. (2003). Topographic organization of projections from the amygdala to the visual cortex in macaque monkey. Neuroscience, 118, 1099–1120. Amaral D.G. Price J.L., Pitkanen A. i Carmichael S.T. (1992). Anatomical organization of the primate amygdaloid complex, [w:] J.P. Aggleton (red.), The amygdala: neurobiological as-pects of emotion, memory, and mental dysfunction (s. 1–66). New York, NY: John Wiley & Sons. Anderson A.K., Christoff K., Panitz D., De Rosa E. i Gabrieli J.D. (2003). Neural correlates of the automatic processing of threat facial signals. Journal of Neuroscience, 23, 5627–5633. Anderson A.K. i Phelps E.A. (2000). Expression without recognition: Contributions of the hu man amygdala to emotional communication. Psychological Science, 11, 106–111. Andrews T.J. i Schluppeck D. (2004). Neural responses to mooney images reveal a modular representation of faces in human visual cortex. NeuroImage, 21, 91–98. Anllo-Vento L., Luck S.J. i Hillyard S.A. (1998). Spatio-temporal dynamics of attention to color: evidence from human electrophysiology. Human Brain Mapping, 6, 216–238. Armony J.L. i Dolan R.J. (2002). Modulation of spatial attention by fear-conditioned stimuli: An event-related fMRI study. Neuropsychologia, 40, 817–826. Ashley V., Vuilleumier P. i Swick D. (2004). Time course and specificity of event-related potentials to emotional expressions. NeuroReport, 15, 211–216. Atkinson A.P., Heberlein A.S. i Adolphs R. (2007). Spared ability to recognise fear from static and moving whole-body cues following bilateral amygdala damage. Neuropsychologia, 45, 2772–2782. Bachevalier J., Meunier M., Lu M.X. i Ungerleider L.G. (1997). Thalamic and temporal cortex input to medial prefrontal cortex in rhesus monkeys. Experimental Brain Research, 115, 430–444. Balconi M. i Lucchiari C. (2007). Consciousness and emotional facial expression recognition: Subliminal/supraliminal stimulation effect on N200 and P300 ERPs. Journal of Psychophysiology, 21, 100–108. Bargh J.A. (1997). The automaticity of everyday life, [w:] R.S. Wyer (red.), Advances in social cognition: The automaticity of everyday life (s. 1–61). Hillsdale, NJ: Lawrence Erlbaum. Baron-Cohen S., Ring H.A., Wheelright S., Bullmore E.T., Brammer M.J., Simmons A. i Williams S.C.R. (1999). Social intelligence in the normal and autistic brain: an fMRI study. European Journal of Neuroscience, 11, 1891–1898. Baron-Cohen S., Campbell R., Karmiloff-Smith A., Grant J. i Walker J. (1995). Are children with autism blind to the mentalistic significance of the eyes? British Journal of Developmen-tal Psychology, 13, 379–398. Baron-Cohen S. (1995). The eye direction detector (EDD) and the shared attention mechanism (SAM): two cases for evolutionary psychology, [w:] C. Moore i P.J. Dunham (red.), Joint Attention: Its Origins and Role in Development (s. 41–59). Hillsdale, NJ: Lawrence Erlbaum. Bartels A. i Zeki S. (2000). The neural basis of romantic love. NeuroReport, 11, 3829–3834. Barton J.J., Cherkasova M.V., Press D.Z., Intriligator J.M. i O’Connor M. (2004). Perceptual functions in prosopagnosia. Perception, 33, 939–956. Batty M. i Taylor M.J. (2003). Early processing of the six basic facial emotional expressions. Cognitive Brain Research, 17, 613–620. Bauman M.D., Lavenex P., Mason W.A., Capitanio J.P. i Amaral D.G. (2004). Th e development of social behavior following neonatal amygdala lesions in rhesus monkeys. Journal of Cognitive Neuroscience, 16, 1388–1411. Beck D.M. i Kastner S. (2009). Top-down and bottom-up mechanisms in biasing competition in the human brain. Vision Research, 49, 154–1165. Bentin S., Allison T., Puce A., Perez E. i McCarthy G. (1996). Electrophysiological studies of face perception in humans. Journal of Cognitive Neuroscience, 8, 551–565. Bentin S. i Deouell L.Y. (2000). Structural encoding and identification in face processing: ERP evidence for separate mechanisms. Cognitive Neuropsychology, 17, 35–54. Bentin S., Deouell L.Y. i Soroker N. (1999). Selective visual streaming in face recognition: Evidence from developmental prosopagnosia. NeuroReport, 10, 823–827. Bentin S., Taylor M.J., Rousselet G.A., Itier R.J., Caldara R., Schyns P.G., Jacques C. i Rossion B. (2007). Controlling interstimulus perceptual variance does not abolish N170 face sensitivity. Nature Neuroscience, 10, 801–802. Benton A. (1980). The neuropsychology of facial recognition. American Psychologist, 35, 176–186. Behrmann M. i Avidan G. (2005). Congenital prosopagnosia: face-blind from birth. Trends in Cognitive Sciences, 9, 180–187. Bestmann S., Ruff C.C., Blakemore C., Driver J. i Thilo K.V. (2007). Spatial attention changes excitability of human visual cortex to direct stimulation. Current Biology, 17, 134–139. Biele C. i Grabowska A. (2006). Sex differences in perception of emotion intensity in dynamic and static facial expressions. Experimental Brain Research, 171, 1–6. Billings L.S., Harrison D.W. i Alden J.D. (1993). Age differences among women in the functional asymmetry for bias in facial aff ect perception. Bulletin of the Psychonomic Society, 31, 317–320. Blake R. i Logothetis N.K. (2002). Visual competition. Nature Reviews Neuroscience, 3, 13–23. Blau V.C., Maurer U., Tottenham N., McCandliss B. (2007). Th e face-specific N170 component is modulated by emotional expression. Behavioral and Brain Functions, 3, 7. Bötzel K. i Grüsser O.J. (1989). Electric brain potentials evoked by pictures of faces and non faces: a search for „face-specifi c” EEG-potentials. Experimental Brain Research, 77, 349– –360. Bötzel K., Schulze S. i Stodieck R.G. (1995). Scalp topography and analysis of intracranial sources of face-evoked potentials. Experimental Brain Research, 104, 135–143. Breen N., Caine D. i Coltheart M. (2000). Models of face recognition and delusional misidentification: A critical review. Cognitive Neuropsychology, 17, 55–71. Breiter H.C., Etcoff N.L., Whalen P.J., Kennedy W.A., Rauch S.L., Buckner R.L., Strauss M.M., Hyman S.E. i Rosen B.R. (1996). Response and habituation of the human amygdala during visual processing of facial expression. Neuron, 17, 875–887. Brett M., Johnsrude I.S. i Owen A.M. (2002). The problem of functional localization in the human brain. Nature Reviews Neuroscience, 3, 243–249. Brothers L. (1990). The social brain: a project for integrating primate behaviour and neurophysiology in a new domain. Concepts in Neuroscience, 1, 27–51. Bruce V. (1982). Changing faces: Visual and non-visual coding processes in face recognition. British Journal of Psychology, 73, 105–116. Bruce V. (1986). Influences of familiarity on the processing of faces. Perception, 15, 387–397. Bruce V. i Young A.W. (1986). Understanding face recognition. British Journal of Psychology, 77, 305–327. Bruyer R., Laterre C., Seron X., Feyereisen P., Strypstein E., Pierrard E. i Rectem D. (1983). A case of prosopagnosia with some preserved covert remembrance of familiar faces. Brain and Cognition, 2, 257–284. Bullier J. (2001). Integrated model of visual processing. Brain Research Reviews, 36, 96–107. Busey T.A. i Vanderkolk J.R. (2005). Behavioral and electrophysiological evidence for confi g-ural processing in fi ngerprint experts. Vision Research, 45, 431–448. Butter C.M. i Snyder D.R. (1972). Alternations in aversive and aggressive behaviors following orbital frontal lesions in rhesus monkeys. Acta Neurobiologiae Experimentalis, 32, 525–565. Caharel S., d’Arripe O., Ramon M., Jacques C. i Rossion B. (2009). Early adaptation to repeated unfamiliar faces across viewpoint changes in the right hemisphere: Evidence from the N170 ERP component. Neuropsychologia, 47, 639–643. Calder A.J., Burton A.M., Miller P., Young A.W. i Akamatsu S. (2001). A principal component analysis of facial expressions. Vision Research, 41, 1179–1208. Calder A.J., Keane J., Lawrence A.D. i Manes F. (2004). Impaired recognition of anger following damage to the ventral striatum. Brain, 127, 1958–1969. Calder A.J., Keane J., Manes F., Antoun N. i Young A.W. (2000). Impaired recognition and experience of disgust following brain injury. Nature Neuroscience, 3, 1077–1078. Calder A.J. i Young A.W. (2005). Understanding the recognition of facial identity and facial expression. Nature Reviews Neuroscience, 6, 641–651. Calder A.J., Young A.W., Keane J. i Dean M. (2000). Confi gural information in facial expres-sion perception. Journal of Experimental Psychology: Human Perception and Performance, 26, 527–551. Calder A.J., Young A.W., Rowland D., Perrett D.I., Hodges J.R. i Etcoff N.L. (1996). Facial emo-tion recognition after bilateral amygdala damage: Differentially severe impairment of fear. Cognitive Neuropsychology, 13, 699–745. Calvert G.A., Bullmore E.T., Brammer M.J., Campbell R., Williams S.C., McGuire P.K., Wood-ruff P.W., Iversen S.D. i David A.S. (1997). Activation of auditory cortex during silent lipreading. Science, 276, 593–596. Campanella S., Hanoteau C., Dèpy D., Rossion B., Bruyer R., Crommenlinck M. i Guèrit J.M. (2000). Right N170 modulation in a face discrimination task: an account for categorical perception of familiar faces. Psychophysiology, 37, 796–806. Campbell R., Brooks B., de Haan E. i Roberts T. (1996). Dissociating face processing skills: decisions about lipread speech, expression and identity. Quarterly Journal of Experimental Psychology Section A: Human Experimental Psychology, 49, 295–314. Castelli F., Happe F., Frith U. i Frith C. (2000). Movement and mind: A functional imaging study of perception and interpretation of complex intentional movement patterns. Neuroimage, 12, 314–325. Catani M., Jones D.K., Donato R. i Ffytche D.H. (2003). Occipito-temporal connections in the human brain. Brain, 126, 2093–2107. Cauquil A.S., Edmonds G.E. i Taylor M.J. (2000). Is the face-sensitive N170 the only ERP not affected by selective attention? NeuroReport, 11, 2167–2171. Chao L.L., Haxby J.V. i Martin A. (1999): Attribute-based neural substrates in temporal cortex for perceiving and knowing objects. Nature Neuroscience, 2, 913–919. Clarke S., Lindemann A., Maeder P., Borruat F.X. i Assal G. (1997). Face recognition and postero-inferior hemispheric lesions. Neuropsychologia, 35, 1555–1563. Colby C. i Goldberg M. (1999). Space and attention in parietal cortex. Annual Review of Neuroscience, 22, 319–349. Collishaw S.M. i Hole G.J. (2000). Featural and configurational processes in the recognition of faces of diff erent familiarity. Perception, 29, 893–909. Corbetta M. (1998). Frontoparietal cortical networks for directing attention and the eye to visual locations: identical, independent, or overlapping neural systems? Proceedings of the National Academy of Sciences USA, 95, 831–838. Corbetta M., Shulman G.L., Miezin F.M. i Petersen S.E. (1995). Superior parietal cortex activation during spatial attention shifts and visual feature conjunction. Science, 270, 802–805. Crews W.D. i Harrison D.W. (1994). Cerebral asymmetry in facial affect perception by women: neuropsychological effects of depressive mood. Perceptual and Motor Skills, 79, 1667–1679. Critchley H., Daly E., Phillips M., Brammer M., Bullmore E., Williams S., Van Amelsvoort T., Robertson D., David A. i Murphy D. (2000). Explicit and implicit neural mechanisms for processing of social information from facial expressions: A functional magnetic resonance imaging study. Human Brain Mapping, 9, 93–105. Damasio A.R. (1999). Błąd Kartezjusza. Emocje, rozum i ludzki mózg. Poznań: Dom Wydawniczy Rebis. Damasio A.R., Damasio H. i Van Hoesen G.W. (1982). Prosopagnosia: anatomic basis and behavioral mechanisms. Neurology, 32, 331–341. Dannlowski U., Ohrmann P., Bauer J., Kugel H., Arolt V., Heindel W. i Suslow T. (2007). Amy-gdala reactivity predicts automatic negative evaluations for facial emotions. Psychiatry Re-search: Neuroimaging, 154, 13–20. Darby D. i Walsh K. (2008). Neuropsychologia kliniczna Walsha. Gdańsk: GWP. Darwin C. (1872/1988). O wyrazie uczuć u człowieka i zwierząt. Warszawa: PWN. de Gelder B., Bachoud-Lévi A.C. i Degos J.D. (1998). Inversion superiority in visual agnosia may be common to a variety of orientation-polarised objects besides faces. Vision Research, 38, 2855–2861. de Gelder B., Pourtois G. i Weiskrantz L. (2010). Fear recognition in the voice is modulated by unconsciously recognized facial expressions but not by unconsciously recognized aff ective pictures. Proceedings of the National Academy of Sciences of the United States of America, 99, 4121–4126. de Gelder B. i Rouw R. (2000). Structural encoding precludes recognition of face parts in pro-sopagnosia. Cognitive Neuropsychology, 17, 89–102. de Gelder B., Vroomen J., Pourtois G. i Weiskrantz L. (1999). Non-conscious recognition of affect in the absence of striate cortex. NeuroReport, 10, 3759–3763. De Renzi E. (1986). Prosopagnosia in two patients with CT scan evidence of damage confi ned to the right hemisphere. Neuropsychologia, 24, 385–389. De Renzi E., Faglioni P., Grossi D. i Nichelli P. (1991). Apperceptive and associative forms of prosopagnosia. Cortex, 27, 213–221. Deffke I., Sander T., Heidenreich J., Sommer W., Curio G., Trahms L. i Lueschow A. (2007). MEG/EEG sources of the 170-ms response to faces are co-localized in the fusiform gyrus. NeuroImage, 35, 1495–1501. Dering B., Martin C.D., Moro S., Pegna A.J. i Thierry G. (2011). Face-sensitive processes one hundred milliseconds after picture onset. Frontiers in Human Neuroscience, 5, 93. doi: 10.3389/fnhum.2011.00093. Desimone R. (1991). Face-selective cells in the temporal cortex of monkeys. Journal of Cognitive Neuroscience, 3, 1–8. Diamond R. i Carey S. (1986). Why faces are and are not special: an eff ect of expertise. Journal of Experimental Psychology: General, 115, 107–117. Domańska Ł. (2004). Więźniowie Podzielonej Przestrzeni. Lublin: Wydawnictwo UMCS. Downing P., Liu J. i Kanwisher N. (2001). Testing cognitive models of visual attention with fMRI and MEG. Neuropsychologia, 39, 1329–1342. Driver J., Davis G., Ricciardelli P., Kidd P., Maxwell E. i Baron-Cohen S. (1999). Gaze perception triggers reflexive visuospatial orienting. Visual Cognition, 6, 509–540. Duchaine B.C. (2000). Developmental prosopagnosia with normal confi gural processing. NeuroReport, 11, 79–83. Duchaine B.C., Dingle K., Butterworth E. i Nakayama K. (2004). Normal greeble learning in a severe case of developmental prosopagnosia. Neuron, 43, 469–473. Duchaine B.C., Nieminen-von Wendt T., New J. i Kulomäki T. (2003). Dissociations of visual recognition in a developmental agnosic: Evidence for separate developmental processes. Neurocase, 9, 380–389. Dufour V., Pascalis O. i Petit O. (2006). Face processing limitation to own species in primates, a comparative study in brown capuchins, Tonkean macaques and humans. Behavioural Processes, 73, 107–113. Duncan J. (2006). Brain mechanisms of attention. Quarterly Journal of Experimental Psychol-ogy, 59, 2–27. Eibl-Eibesfeldt I. (1987). Miłośc i nienawiść. Warszwa: PWN. Eimer M. (1996). The N2pc component as an indicator of attentional selectivity. Electroencephalography and Clinical Neurophysiology, 99, 225–234. Eimer M. (1998). Does the face-specific N170 component reflect the activity of a specialized eye processor? NeuroReport, 9, 2945–2948. Eimer M. (2000a). Th e face-specific N170 reflects late stages in the structural encoding of faces. NeuroReport, 11, 2319–2324. Eimer M. (2000b). Event-related brain potentials distinguish processing stages involved in face perception and recognition. Clinical Neurophysiology, 111, 694–705. Eimer M. (2000c). Effects of face inversion on the structural encoding and recognition of faces. Evidence from event-related brain potentials. Cognitive Brain Research, 10, 145–158. Eimer M. (2000d). Attentional modulations of event-related brain potentials sensitive to faces. Cognitive Neuropsychology, 17, 103–116. Eimer M. (2011a). The face-sensitive N170 component of the event-related brain potential, [w:] A.J. Calder, G. Rhodes, M. Johnson i J. Haxby (red.), The Oxford Handbook of Face Perception (s. 329–344). Oxford: University Press. Eimer M. (2011b). The face-sensitivity of the N170 component. Frontiers in Human Neuro-science, 5, 119. doi: 10.3389/fnhum.2011.00119. Eimer M. i Holmes A. (2002). An ERP study on the time course of emotional face processing. NeuroReport, 13, 427–431. Eimer M. i Holmes A. (2007). Event-related brain potential correlates of emotional face processing. Neuropsychologia, 45, 15–31. Eimer M., Holmes A. i McGlone F. (2003). The role of spatial attention in the processing of facial expression: An ERP study of rapid brain responses to six basic emotions. Cognitive, Affective, and Behavioral Neuroscience, 3, 97–110. Eimer M. i Kiss M. (2007). Attentional capture by task-irrelevant fearful faces is revealed by the N2pc component. Biological Psychology, 74, 108–112. Eimer M., Kiss M. i Holmes A. (2008). Links between rapid ERP responses to fearful faces and conscious awareness. Journal of Neuropsychology, 2, 165–181. Eimer M. i McCarthy R.A. (1999). Prosopagnosia and structural encoding of faces: Evidence from event-related potentials. NeuroReport, 10, 255–259. Ekman P. i Friesen W.V. (1976). Pictures of facial aff ect. Palo Alto, CA: Consulting Psychologists Press. Ellis H.D. (2007). Delusions: A suitable case for imaging? International Journal of Psychophysiology, 63, 146–151. Ellis H.D. i Lewis M.B. (2001). Capgras delusion: a window on face recognition. Trends in Cognitive Sciences, 5, 149–156. Ellis A.W., Young A.W. i Critchley E.M.R. (1989). Loss of memory for people following tempo-ral lobe damage. Brain, 112, 1469–1483. Emery N.J., Lorincz E.N., Perrett D.I., Oram M.W. i Baker C.I. (1997). Gaze following and joint attention in rhesus monkeys (Macaca mulatta). Journal of Comparative Psychology, 111, 286–293. Epstein R., Harris A., Stanley D. i Kanwisher N. (1999). The parahippocampal place area: Recognition, navigation or encoding? Neuron, 23, 115–125. Epstein R. i Kanwisher N. (1998). A cortical representation of the local visual environment. Nature, 392, 598–601. Etcoff N.L. (1984). Selective attention to facial identity and facial emotion. Neuropsychologia, 22, 281–295. Evans J.J., Heggs A.J., Antoun N. i Hodges J.R. (1995). Progressive prosopagnosia associated with selective right temporal lobe atrophy: a new syndrome? Brain, 118, 1–13. Farah M.J. (1990). Visual agnosia. Cambridge, MA: MIT Press. Farah M.J. (1996). Is face recognition ‘special’? Evidence from neuropsychology. Behavioural Brain Research, 76, 181–189. Farah M.J., Levison K.L. i Klein K.L. (1995). Face perception and within-category discrimination in prosopagnosia. Neuropsychologia, 33, 661–674. Farah M.J., Rabinowitz C., Quinn G.E. i Liu G.T. (2000). Early commitment of neural sub-strates for face recognition. Cognitive Neuropsychology, 17, 117–123. Farah M.J., Wilson K.D., Drain H.M. i Tanaka J.W. (1995). The inverted face inversion eff ect in prosopagnosia: Evidence for mandatory, face-specific perceptual mechanisms. Vision Research, 35, 2089–2093. Farroni T., Csibra G., Simion F. i Johnson M.H. (2002). Eye contact detection in humans from birth. Proceedings of the National Academy of Sciences USA, 99, 9602–9605. Farroni T., Johnson M.H., Menon E., Zulian L., Faraguna D. i Csibra G. (2005). Newborns’ preference for face-relevant stimuli: Effects of contrast polarity. Proceedings of the National Academy of Sciences USA, 102, 17245–17250. Feinberg T.E., Schindler R.J., Ochoa E., Kwan P.C. i Farah M.J. (1994). Associative visual agnosia and alexia without prosopagnosia. Cortex, 30, 395–411. Foxe J.J. i Simpson G.V. (2002). Flow in activation from V1 to frontal cortex in humans. A framework for defining ‘early’ visual processing. Experimental Brain Research, 142,139–150. Freire A. i Lee K. (2001). Face recognition in 4- to 7-year-olds: Processing of confi gural, featural, and paraphernalia information. Journal of Experimental Child Psychology, 80, 347–371. Freire A., Lee K. i Symons L.A. (2000) The face-inversion effect as a deficit in the encoding of configural information: Direct evidence. Perception, 29, 159–170. Friesen C.K. i Kingstone A. (1998). The eyes have it! Reflexive orienting is triggered by nonpredictive gaze. Psychonomic Bulletin and Review, 5, 490–495. Frith C.D. i Frith U. (1999). Interacting minds: A biological basis. Science, 286, 1692–1695. Frith U. i Frith C.D. (2003). Development and neurophysiology of mentalizing. Philosophical Transactions of the Royal Society B, 358, 459–447. Fuchs M., Kastner J., Wagner M., Hawes S. i Ebersole J.S. (2002). A standardized boundary element method volume conductor model. Clinical Neurophysiology, 113, 702–712. Gallagher H.L., Happe F., Brunswick N., Fletcher P.C., Frith U. i Frith C.D. (2000). Reading the mind in cartoons and stories: An fMRI study of ‘theory of mind’ in verbal and nonverbal tasks. Neuropsychologia, 38, 11–21. Gallagher H.L., Jack A.I., Roepstorff A. i Frith C.D. (2002). Imaging the intentional stance in a competitive game. Neuroimage, 16, 814–821. Gauthier I., Behrmann M. i Tarr M.J. (1999). Can face recognition really be dissociated from object recognition? Journal of Cognitive Neuroscience, 11, 349–370. Gauthier I. i Bukach S. (2007). Should we reject the expertise hypothesis? Cognition, 103, 322– 330. Gauthier I. i Logothetis N.K. (2000). Is face recognition not so unique aft er all? Cognitive Neuropsychology, 17, 125–142. Gauthier I., Skudlarski P., Gore J.C. i Anderson A.W. (2000). Expertise for cars and birds re-cruits brain areas involved in face recognition. Nature Neuroscience, 3, 191–197. Gauthier I. i Tarr M.J. (1997). Becoming a ‘Greeble’ expert: Exploring the face recognitionmechanism. Vision Research, 37, 1673–1682. Gauthier I., Tarr M.J., Anderson A.W., Skudlarski P. i Gore J.C. (1999). Activation of the middle fusiform ‘face area’ increases with experience in recognizing novel objects. Nature Neuro-science, 2, 568–573. Gauthier I., Tarr M.J., Moylan J., Anderson A.W., Skudlarski P. i Gore J.C. (2000). Does visual subordinate-level categorization engage the functionally-defi ned fusiform face area? Cognitive Neuropsychology, 17, 143–163. Gauthier I., Tarr M.J., Moylan J., Skudlarski P., Gore J.C., Anderson A.W. (2000). Th e fusiform ‘face area’ is part of a network that processes faces at the individual level. Journal of Cognitive Neuroscience, 12, 495–504. Gauthier I., Williams P., Tarr M.J. i Tanaka J.W. (1998). Training ‘Greeble’ experts: A framework for studying expert object recognition processes. Vision Research, 38, 2401–2428. Gazzaniga M. (1997). O tajemnicach ludzkiego umysłu. Warszawa: Książka i Wiedza. Geldart S., Mondloch C., Maurer D., de Schonen S. i Brent H. (2002). Th e effects of early visual deprivation on the development of face processing. Developmental Science, 5, 490–501. George N., Evans J., Fiori N., Davidoff J. i Renault B. (1996). Brain events related to normal and moderately scrambled faces. Cognitive Brain Research, 4, 65–76. George N., Jemel B., Fiori N., Chaby L. i Renault B. (2005). Electrophysiological correlates of facial decision: Insights from upright and upside-down Mooney-face perception. Cognitive Brain Research, 24, 663–673. George M.S., Ketter T.A., Gill D.S., Haxby J.V., Ungerleider L.G., Herscovitch P. i Post R.M. (1993). Brain regions involved in recognizing facial emotion or identity: an oxygen-15 PET study. Journal of Neuropsychiatry and Clinical Neurosciences, 5, 384–394. Gobbini M.I. i Haxby J.V. (2006). Neural response to the visual familiarity of faces. Brain Re-search Bulletin, 71, 76–82. Gobbini M.I. i Haxby J.V. (2007). Neural systems for recognition of familiar faces. Journal of Neurophysiology, 45, 32–41. Gobbini M.I., Leibenluft E., Santiago N. i Haxby J.V. (2004). Social and emotional attachment in the neural representation of faces. NeuroImage, 22, 1628–1635. Golby A.J., Gabrieli J.D.E., Chiao J.Y. i Eberhardt J.L. (2001). Differential responses in the fusi-form region to same-race and other-race faces. Nature Neuroscience, 4, 845–850. Goren C.C., Sarty M. i Wu P.J.K. (1975). Visual following and pattern discrimination of face-like stimuli by newborn infants. Pediatrics, 56, 544–549. Gorno-Tempini M.L., Price C.J., Josephs O., Vandenberghe R., Cappa S.F., Kapur N. i Frackowiak R.S.J. (1998). The neural systems sustaining face and proper-name processing. Brain, 121, 2103–2118. Grabowska A. (2011). Percepcja, [w:] T. Górska, A. Grabowska i J. Zagrodzka (red.), Mózg a zachowanie (s. 171–216). Warszawa: PWN. Gratton G., Coles M.G.H. i Donchin E. (1983). A new method for off-line removal of ocular artifact. Electroencephalography and Clinical Neurophysiology, 55, 468–484. Greene J.D., Sommerville R.B., Nystrom L.E., Darley J.M. i Cohen J.D. (2001). An fMRI investigation of emotional engagement in moral judgment. Science, 293, 2105–2108. Grüsser O.J. i Landis T. (1991). Faces lost: Prosopagnosia, [w:] Visual agnosias and other dis-turbances of visual perception and cognition: vision and visual dysfunction (s. 259–286). Amsterdam: MacMillan. Habib M. i Sirigu A. (1987). Pure topographical disorientation: a definition and anatomical basis. Cortex, 23, 73–85. Haig N.D. (1984). Th e effect of feature displacement on face recognition. Perception, 13, 505– –512. Halgren E., Baudena P., Heit G., Clarke M. i Marinkovic K. (1994). Spatio-temporal stages in face and word processing. 1. Depth recorded potentials in the human occipital and parietal lobes. Journal of Physiology, 88, 1–50. Halgren E., Dale A.M., Sereno M.I., Tootell R.B.H., Marinkovic K. i Rosen B.R. (1999). Loca-tion of human face-selective cortex with respect to retinotopic areas. Human Brain Map-ping, 7, 29–37. Halgren E., Raij T., Marinkovic K., Jousmäki V. i Hari R. (1995). Magnetic fields evoked by faces in the human brain: 1. Topography and source locations. Society for Neuroscience Abstracts, 21, 662. Halgren E., Raij T., Marinkovic K., Jousmäki V. i Hari R. (2000). Cognitive response profi le of the human fusiform face area as determinate by MEG. Cerebral Cortex, 10, 69–81. Halit H., de Haan M. i Johnson M.H. (2000). Modulation of event-related potentials by prototypical and atypical faces. NeuroReport, 11, 1871–1875. Hamann S.B. i Adolphs R. (1999). Normal recognition of emotional similarity between facial expressions following bilateral amygdala damage. Neuropsychologia, 37, 1135–1141. Hamann S.B., Stefanacci L., Squire L.R., Adolphs R., Tranel D., Damasio H. i Damasio, A.R. (1996). Recognizing facial emotion. Nature, 379, 497. Han S., He X. i Woods D.L. (2000). Hierarchical processing and level-repetition effect as in-dexed by early brain potentials. Psychophysiology, 37, 817–830. Hanley J.R., Young A.W. i Pearson N. (1989). Defective recognition of familiar people. Cognitive Neuropsychology, 6, 179–210. Harries M. i Perrett D.I. (1991). Visual processing of faces in temporal cortex: physiological evidence for a modular organization and possible anatomical correlates. Journal of Cognitive Neuroscience, 3, 9–24. Harris A.M., Duchaine B.C. i Nakayama K. (2005). Normal and abnormal face selectivity of the M170 response in developmental prosopagnosics. Neuropsychologia, 43, 2125–2136. Harris A. i Nakayama K. (2008). Rapid adaptation of the M170 response: Importance of face parts. Cerebral Cortex, 18, 467–476. Harrison D.W., Gorelczenko P.M. i Cook J. (1990). Sex differences in the functional asymmetry for facial aff ect perception. International Journal of Neuroscience, 52, 11–16. Hasselmo M.E., Rolls E.T. i Baylis G.C. (1989). The role of expression and identity in face-selective responses of neurons in the temporal visual cortex of the monkey. Behavioural Brain Research, 32, 203–218. Haxby J.V., Gobbini M.I., Furey M.L., Ishai A., Schouten J.L., Pietrini P. (2001). Distributed and overlapping representation of faces and objects in ventral temporal cortex. Science, 293, 2425–2429. Haxby J.V., Hoffman E.A. i Gobbini M.I. (2000). The distributed human neural system for face perception. Trends in Cognitive Sciences, 4, 223–233. Haxby J.V., Hoff man E.A. i Gobbini M.I. (2002). Human neural systems for face recognition and social communication. Biological Psychiatry, 51, 59–67. Haxby J.V., Ungerleider L.G., Clark V.P., Schouten J.L., Hoff man E.A., Martin A. (1999). Th e effect of face inversion on activity in human neural systems for face and object perception. Neuron, 22, 189–199. Hayes A. (1988). Identification of two-tone images: some implications for high- and low spa-tial-frequency processes in human vision. Perception, 17, 429–436. Hecaen H. i Angelergues R. (1962). Agnosia for faces (prosopagnosia). Archives of Neurology, 7, 24–32. Henke K., Schweinberger S.R., Grigo A., Klos T. i Sommer W. (1998). Specificity of face recognition: Recognition of exemplars of non-face objects in prosopagnosia. Cortex, 34, 289–296. Henson R.N., Mattout J., Singh K.D., Barnes G.R., Hillebrand A. i Friston K. (2007). Population-level inferences for distributed MEG source localisation under multiple constraints: application to face-evoked fi elds. NeuroImage, 38, 422–438. Herzyk A. (2005). Wprowadzenie do neuropsychologii klinicznej. Warszawa: Scholar. Hietanen J. (1999). Does your gaze direction and head orientation shift my visual attention? NeuroReport, 10, 3443–3447. Hillyard S.A. i Anllo-Vento L. (1998). Event-related brain potentials in the study of visual se-lective attention. Proceedings of the National Academy of Sciences USA, 95, 781–787. Hillyard S.A., Teder-Sälejärvi W.A. i Münte T.F. (1998). Temporal dynamics of early perceptual processing. Current Opinion in Neurobiology, 8, 202–210. Hillyard S.A., Vogel E.K. i Luck S.J. (1998). Sensory gain control (amplification) as a mechanism of selective attention: electrophysiological and neuroimaging evidence. Philosophical Transactions of the Royal Society B, 353, 1257–1270. Hoffman E. i Haxby J.V. (2000). Distinct representations of eye gaze and identity in the distributed human neural system for face perception. Nature Neuroscience, 3, 80–84. Hole G. (1994). Configurational factors in the perception of unfamiliar faces. Perception, 23, 65–74. Hole G., George P.A. i Dunsmore V. (1999). Evidence for holistic processing of faces viewed as photographic negatives. Perception 28, 341–359. Holmes A., Kiss M. i Eimer M. (2006). Attention modulates the processing of emotional ex-pression triggered by foveal faces. Neuroscience Letters, 394, 48–52. Holmes A., Kragh Nielsen M. i Green S. (2008). Effects of anxiety on the processing of fearful and happy faces: An event-related potential study. Biological Psychology, 77, 159–173. Holmes A., Kragh Nielsen M., Tipper S. i Green S. (2009). An electrophysiological investigation into the automaticity of emotional face processing in high versus low trait anxious individuals. Cognitive, Affective, and Behavioral Neuroscience, 9, 323–334. Holmes A., Vuilleumier P. i Eimer M. (2003). The processing of emotional facial expression is gated by spatial attention: Evidence from event-related brain potentials. Cognitive Brain Research, 16, 174–184. Hood B.M., Willen J.D. i Driver J. (1998). Adult’s eyes trigger shifts of visual attention in human infants. Psychological Science, 9, 131–134. Hornak J., Rolls E.T. i Wade D. (1996). Face and voice expression identification in patients with emotion and behavioural changes following ventral frontal lobe damage. Neuropsychologia, 34, 247–261. Hugdahl K., Iversen P.M. i Johnsen B.H. (1993). Laterality for facial expressions: does the sex of the subject interact with the sex of the stimulus face? Cortex, 29, 325–331. Ishai A., Haxby J.V. i Ungerleider L.G. (2002). Visual imagery of famous faces: Effects of mem-ory and attention revealed by fMRI. NeuroImage, 17, 1729–1741. Ishai A., Pessoa L., Bikle P.C. i Ungerleider L.G. (2004). Repetition suppression of faces is mod-ulated by emotion. Proceedings of the National Academy of Sciences USA, 101, 9827–9832. Ishai A., Schmidt C.F. i Boesiger B. (2005). Face perception is mediated by a distributed cortical network. Brain Research Bulletin, 67, 87–93. Ishai A., Ungerleider L.G. i Haxby J.V. (2000). Distributed neural systems for the generation of visual images. Neuron, 28, 979–990. Ishai A., Ungerleider L.G., Martin A., Schouten J.L. i Haxby J.V. (1999). Distributed representation of objects in the human ventral visual pathway. Proceedings of the National Academy of Sciences USA, 96, 9379–9384. Itier R.J., Alain C., Sedore K. i McIntosh A.R. (2007). Early face processing specificity: It’s in the eyes! Journal of Cognitive Neuroscience, 19, 1815–1826. Itier R.J., Latinus M. i Taylor M.J. (2006). Face, eye and object early processing: What is the face specifi city? NeuroImage, 29, 667–676. Itier R.J. i Taylor M.J. (2002). Inversion and contrast polarity reversal affect both encoding and recognition processes of unfamiliar faces: a repetition study using ERPs. Neuroimage, 15, 353–372. Itier R.J. i Taylor M.J. (2004a). N170 or N1? Spatiotemporal differences between object and face processing using ERPs. Cerebral Cortex, 14, 132–142. Itier R.J. i Taylor M.J. (2004b). Source analysis of the N170 to faces and objects. NeuroReport, 15, 1261–1265. Jarrell T.W., Gentile C.G. Romanski L.M., McCabe P.M. i Schneiderman N. (1987). Involvement of cortical and thalamic auditory regions in retention of differential bradycardia con-ditioning to acoustic conditioned stimuli in rabbits. Brain Research, 412, 285–94. Jaśkowski P. (2004). Zarys psychofi zjologii. Warszawa: WSFiZ. Jaśkowski P. (2009). Neuronauka poznawcza. Jak mózg tworzy umysł. Warszawa: Vizja Press & IT. Jeffreys D.A. (1989). A face-responsive potential recorded from the human scalp. Experimental Brain Research, 78, 193–202. Jemel B., George N., Chaby L., Fiori N. i Renault B. (1999). Differential processing of part-to-whole and part-to-part face priming: An ERP study. NeuroReport, 10, 1069–1075. Jemel B., Schuller A.M., Cheref-Khan Y., Goffaux V., Crommelinck M., Bruyer R. (2003). Stepwise emergence of the face-sensitive N170 event-related potential component. Neuro-Report, 14, 2035–2039. Johnson M.H., Dziurawiec S., Ellis H. i Morton J. (1991). Newborns’ preferential tracking of face-like stimuli and its subsequent decline. Cognition, 40, 1–19. Jolicoeur P., Sessa P., Dell’Acqua R. i Robitaille N. (2006a). Attentional control and capture in the attentional blink paradigm: evidence from human electrophysiology. European Journal of Cognitive Psychology, 18, 560–578. Jolicoeur P., Sessa P., Dell’Acqua R., Robitaille N. (2006b). On the control of visual spatial attention: evidence from human electrophysiology. Psychological Research, 70, 414–424. Joyce C. i Rossion B. (2005). The face-sensitive N170 and VPP components manifest the same brain processes: Th e effect of reference electrode site. Clinical Neurophysiology, 116, 2613– 2631. Jurcak V., Tsuzuki D. i Dan I. (2007). 10/20, 10/10, and 10/5 systems revisited: Their validity as relative head-surface-based positioning systems. NeuroImage, 34, 1600–1611. Kanwisher N. (2000). Domain specificity in face perception. Nature Neuroscience, 3, 759–763. Kanwisher N., McDermott J. i Chun M.M. (1997). The fusiform face area: A module in human extrastriate cortex specialized for face perception. Journal of Neuroscience, 1711, 4302–4311. Kanwisher N., Tong F. i Nakayama K. (1998). Th e effect of face inversion on the human fusi-form face area. Cognition, 68, B1–B11. Kanwisher N. i Yovel G. (2006). The fusiform face area: a cortical region specialized for the perception of faces. Philosophical Transactions of the Royal Society B, 361, 2109–2128. Kastner S. i Ungerleider L.G. (2000). Mechanisms of visual attention in the human cortex. An-nual Review of Neuroscience, 23, 315–341. Kastner S. i Ungerleider L.G. (2001). The neural basis of biased competition in human visual cortex. Neuropsychologia, 39, 1263–1276. Keltner D. i Ekman P. (2005). Wyrażanie emocji twarzą, [w:] M. Lewis i J.M. Haviland-Jones (red.), Psychologia emocji (s. 307–323). Gdańsk: GWP. KillgoreW.D.S. i Yurgelun-Todd D.A. (2004). Activation of the amygdala and anterior cingulate during nonconscious processing of sad versus happy faces. NeuroImage, 21, 1215–1223. Kirita T. i Endo M. (1995). Happy face advantage in recognizing facial expressions. Acta Psy-chologica, 89, 149–163. Kiss M. i Eimer M. (2008). ERPs reveal subliminal processing of fearful faces. Psychophysiology, 45, 318–326. Klatzky R.L., Martin G.L. i Kane R.A. (1982a). Influence of social-category activation on processing of visual information. Social Cognition, 1, 95–109. Klatzky R.L., Martin G.L. i Kane R.A. (1982b). Semantic interpretation effects on memory for faces. Memory and Cognition, 10, 195–206. Klüver H. i Bucy P.C. (1939). Preliminary analysis of functions of the temporal lobes in mon-keys. Archives in Neurology and Psychiatry, 42, 979–1000. Kolb B. i Taylor L. (1990). Neocortical substrates of emotional behavior, [w:] N.L. Stein, B. Leventhal i T. Trabasso (red.), Psychological and biological approaches to emotion (s. 115–144). Hillsdale, NJ: Lawrence Erlbaum. Kossut M. (2011). Neuroplastyczność, [w:] T. Górska, A. Grabowska i J. Zagrodzka (red.), Mózg a zachowanie (s. 590–613). Warszawa: PWN. Kress T. i Daum I. (2003). Event-related potentials reflect impaired face recognition in patients with congenital prosopagnosia. Neuroscience Letters, 352, 133–136. Krolak-Salmon P., Hénaff M.A., Isnard J., Tallon-Baudry C., Guénot M., Vighetto A., Bertrand O.i Mauguière F. (2003). An attention modulated response to disgust in human ventral anterior insula. Annals of Neurology, 53, 446–453. Krolak-Salmon P., Hénaff M.A., Vighetto A., Bertrand O. i Mauguière F. (2004). Early amygda-la reaction to fear spreading in occipital, temporal, and frontal cortex: A depth electrode ERP study in humans. Neuron, 42, 665–676. Lancaster J.L., Woldorff M.G., Parsons L.M., Liotti M., Freitas C.S., Rainey L., Kochunov P.V., Nickerson D., Mikiten S.A. i Fox P.T. (2000). Automated Talairach Atlas labels for functional brain mapping. Human Brain Mapping, 10, 120–131. Landis T., Cummings J.L., Christen L., Bogen J.E. i Imhof H.G. (1986). Are unilateral right posterior cerebral lesions sufficient to cause prosopagnosia? Clinical and radiological fi ndings in six additional cases. Cortex, 22, 243–252. Langner O., Dotsch R., Bijlstra G., Wigboldus D.H.J., Hawk S.T. i van Knippenberg A. (2010). Presentation and validation of the Radboud Faces Database. Cognition and Emotion, 24, 1377–1388. Langton S.R.H. i Bruce V. (1999). Reflexive visual orienting in response to the social attention of others. Visual Cognition, 6, 541–568. Lavie N. (1995). Perceptual load as a necessary condition for selective attention. Journal of Experimental Psychology: Human Perception and Performance, 21, 451–468. Leder H. i Bruce V. (1998). Local and relational aspects of face distinctiveness. Quarterly Journal of Experimental Psychology. Section A, 51, 449–473. Leder H. i Bruce V. (2000). When inverted faces are recognized: The role of confi gural information in face recognition. Quarterly Journal of Experimental Psychology. Section A, 53, 513–536. LeDoux J.E. (1995). Emotion: clues form the brain. Annual Review of Psychology, 46, 209–235. LeDoux J. (2000). Mózg emocjonalny. Tajemnicze podstawy życia emocjonalnego. Poznań: Media Rodzina of Poznań. LeDoux J. i Phelps E. (2005). Sieci emocjonalne w mózgu, [w:] M. Lewis i J.M. Haviland-Jones (red.), Psychologia emocji (s. 210–229). Gdańsk: GWP. LeDoux J.E., Sakaguchi A. i Reis D.J. (1983). Subcortical efferent projections of the medial geniculate nucleus mediate emotional responses conditioned to acoustic stimuli. Journal of Neuroscience, 4, 683–698. Lee K. i Freire A. (1999). Th e effects of face configuration change on shape perception: A new illusion. Perception, 28, 1217–1226. Le Grand R., Mondloch C.J., Maurer D. i Brent H.P. (2001). Neuroperception: Early visual experience and face processing. Nature, 410, 890. Leibenluft E., Gobbini M.I., Harrison T. i Haxby J.V. (2004). Mothers’ neural activation in re-sponse to pictures of their children and other children. Biological Psychiatry, 56, 225–232. Leonard C.M., Rolls E.T., Wilson F.A.W. i Baylis G.C. (1985). Neurons in the amygdala of the monkey with responses selective for faces. Behavioural Brain Research, 15, 159–176. Leppänen J.M., Kaupinnen P., Peltola M.J. i Hietanen J.K. (2007). Diff erential electrocortical responses to increasing intensities of fearful and happy emotional expressions. Brain Re-search, 1166, 103–109. Leppänen J.M., Tenhunen M. i Hietanen J.K. (2003). Faster choice-reaction times to positive than to negative facial expressions: The role of cognitive and motor processes. Journal of Psychophysiology, 17, 113–123. Letourneau S.M. i Mitchell T.V. (2008). Behavioral and ERP measures of holistic face processing in a composite task. Brain and Cognition, 67, 234–245. Liddell B.J., Williams L.M., Rathjen J., Shevrin H. i Gordon E. (2004). A temporal dissociation of subliminal versus supraliminal fear perception: An event-related potential study. Journal of Cognitive Neuroscience, 16, 479–486. Linkenkaer-Hansen K., Palva J.M., Sams M., Hietanen J.K., Aronen H.J. i Ilmoniemi R.J. (1998). Face-selective processing in human extrastriate cortex around 120 ms after stimulus onset revealed by magneto- and electroencephalography. Neuroscience Letters, 253, 147–150. Liu J., Harris A. i Kanwisher N. (2002). Stages of processing in face perception: an MEG study. Nature Neuroscience, 5, 910–916. Liu J., Higuchi M., Marantz A. i Kanwisher N. (2000). The selectivity of the occipitotemporal M170 for faces. NeuroReport, 11, 337–341. Liu L., Ioannides A.A. i Streit M. (1999). Single trial analysis of neurophysiological correlates of the recognition of complex objects and facial expressions of emotion. Brain Topography, 11, 291–303. Lorenz K. (2003). Tak zwane zło. Warszawa: PIW. Lu S.T., Hämäläinen M., Hari R., Ilmoniemi R., Lounasmaa O.V., Sams M. i Vilkman V. (1991). Seeing faces activates three separate areas outside the occipital visual cortex in man. Neuroscience, 43, 287–290. Luck S.J. i Hillyard S.A. (1994). Spatial filtering during visual search: Evidence from human electrophysiology. Journal of Experimental Psychology: Human Perception and Performance, 20, 1000–1014. Łosiak W. (2007). Psychologia emocji. Warszawa: WAiP. Macchi Cassia V., Turati C. i Simion F. (2004). Can a nonspecific bias toward top-heavy pat-terns explain newborns’ face preference? Psychological Science, 15, 379–383. Malone D.R., Morris H.H., Kay M.C. i Levin H.S. (1982). Prosopagnosia: a double dissociation between the recognition of familiar and unfamiliar faces. Journal of Neurology, Neurosurgery, and Psychiatry, 45, 820–822. Mancini J., de Schonen S., Deruelle C. i Massoulier A. (1994). Face recognition in children with early right or left brain damage. Developmental Medicine and Child Neurology, 36, 156–166. Maurer D., Le Grand R. i Mondloch C.J. (2002). The many faces of confi gural processing. Trends in Cognitive Science, 6, 255–260. Mayer E. i Rossion B. (2007). Prosopagnosia, [w:] O. Godefroy i J. Bogousslavsky (red.), Th e behavioral and cognitive neurology of stroke (s. 315–334). Cambridge: University Press. Mazziotta J., Toga A., Evans A., Fox P., Lancaster J., Zilles K., Woods R., Paus T., Simpson G., Pike B., Holmes C., Collins L., Thompson P., MacDonald D., Iacoboni M., Schormann T., Amunts K., Palomero-Gallagher N., Geyer S., Parsons L., Narr K., Kabani N., Le Goual-her G., Boomsma D., Cannon T., Kawashima R. i Mazoyer B. (2001). A probabilistic atlas and reference system for the human brain: International Consortium for Brain Mapping (ICBM). Philosophical Transactions of the Royal Society B, 356, 1293–1322. McCabe K., Houser D., Ryan L., Smith V. i Trouard T. (2001). A functional imaging study of cooperation in two-person reciprocal exchange. Proceedings of the National Academy of Sciences of the United States of America, 98, 11832–11835. McCarthy G. (2000). Physiological studies of face processing in humans, [w:] M.S. Gazzaniga (red.), The new cognitive neurosciences (s. 393–409). Cambridge, MA: MIT Press. McCarthy G., Puce A., Belger A. i Allison T. (1999). Electrophysiological studies of human face perception. II: Response properties of face-specific potentials generated in occipitotemporal cortex. Cerebral Cortex, 9, 431–444. McCarthy G., Puce A., Gore J.C. i Allison T. (1997). Face-specific processing in the human fusiform gyrus. Journal of Cognitive Neuroscience, 9, 605–610. McGurk H. i MacDonald J. (1976). Hearing lips and seeing voices. Nature, 264, 746–748. McKone E. i Robbins R.A., (2007). The evidence rejects the expertise hypothesis: Reply to Gauthier & Bukach. Cognition, 103, 331–336. McNeil J.E. i Warrington E.K. (1993). Prosopagnosia: a face-specifi c disorder. Quarterly Journal of Experimental Psychology Section A: Human Experimental Psychology, 46, 1–10. Mesulam M.M. (1981). A cortical network for directed attention and unilateral neglect. Annals of Neurology, 10, 309–325. Michel C., Caldara R. i Rossion B. (2006). Same-race faces are perceived more holistically than other-race faces. Visual Cognition, 14, 55–73. Michel C., Rossion B., Han J., Chung C.S. i Caldara R. (2006). Holistic processing is fi nely tuned for faces of one’s own race. Psychological Science, 17, 608–615. Milner A.D. i Goodale M.A. (2008). Mózg wzrokowy w działaniu. Warszawa: PWN. Miyoshi M., Katayama J. i Morotomi T. (2004). Face-specific N170 component is modulated by facial expressional change. NeuroReport, 15, 911–914. Moore C.D., Cohen M.X. i Ranganath C. (2006). Neural correlates of expert skills in visual working memory. Journal of Neuroscience, 26, 11187–11196. Montgomery K.J., Seeherman K.R. i Haxby J.V. (2009). The well-tempered social brain. Psychological Science, 20, 1211–1213. Morris J.S., de Bonis M. i Dolan R.J. (2002). Human amygdala responses to fearful eyes. NeuroImage, 17, 214–222. Morris J.S., de Gelder B., Weiskrantz L. i Dolan R.J. (2001). Diff erential extrageniculostriate and amygdala responses to presentation of emotional faces in a cortically blind fi eld. Brain, 124, 1241–1252. Morris J.S., Friston K.J., Büchel C., Frith C.D., Young A.W., Calder A.J. i Dolan R.J. (1998). A neuromodulatory role for the human amygdala in processing emotional facial expres-sions. Brain, 121, 47–57. Morris J.S., Frith C.D., Perrett D.I., Rowland D., Young A.W., Calder A.J. i Dolan R.J. (1996). A diff erential neural response in the human amygdala to fearful and happy facial expres-sions. Nature, 383, 812–815. Morris J.S., Öhman A. i Dolan R.J. (1998). Conscious and unconscious emotional learning in the human amygdala. Nature, 393, 467–470. Morris J.S., Öhman A. i Dolan R.J. (1999). A subcortical pathway to the right amygdala me-diating ‘unseen’ fear. Proceedings of the National Academy of Sciences USA, 96, 1680–1685. Morton J. i Johnson M.H. (1991). CONSPEC and CONLERN: A two-process theory of infant face recognition. Psychological Review, 98, 164–181. Moscovitch M., Winocur G. i Behrmann M. (1997). What is spe cial about about face recognition? Nineteen experiments on a person with visual obiect agnosia and dyslexia but normal face recognition. Journal of Cognitive Neuroscience, 9, 555–604. Mouchetant-Rostaing Y., Giard M.H., Bentin S., Aguera P.E. i Pernier J. (2000). Neurophysiological correlates of face gender processing in humans. European Journal of Neuroscience, 12, 303–310. Munneke J., Heslenfeld D.J. i Theeuwes J. (2008). Directing attention to a location in space results in retinotopic activation of primary visual cortex. Brain Research, 1222, 184–191. Murphy S.T. i Zajonc R.B. (1993). Affect, cognition, and awareness: Affective priming with optimal and suboptimal stimulus exposures. Journal of Personality and Social Psychology, 64, 723–739. Nakamura K., Kawashima R., Ito K., Sugiura M., Kato T., Nakamura A., Hatano K., Nagumo S., Kubota K., Fukuda H. i Kojima S. (1999). Activation of the right inferior frontal cortex during assessment of facial emotion. Journal of Neurophysiology, 82, 1610–1614. Narumoto J., Okada T., Sadato N., Fukui K. i Yonekura Y. (2001). Attention to emotion modu-lates fMRI activity in human right superior temporal sulcus. Cognitive Brain Research, 12, 225–231. Nelson C.A. (2001). The Development and Neural Bases of Face Recognition. Infant and Child Development, 10, 3–18. Neville H.J., Bavelier D., Corina D., Rauschecker J., Karni A., Lalwani A., Braun A., Clark V., Jezzard P. i Turner R. (1998). Cerebral organization for language in deaf and hearing sub-jects: biological constraints and effects of experience. Proceedings of the National Academy of Sciences USA, 95, 922–929. Nichols T.E. i Holmes A.P. (2002). Nonparametric permutation tests for functional neuroimaging: a primer with examples. Human Brain Mapping, 15, 1–25. Nimchinsky E.A., Gilissen E., Allman J.M., Perl D.P., Erwin J.M. i Hof P.R. (1999). A neuronal morphologic type unique to humans and great apes. Proceedings of the National Academy of Sciences USA, 96, 5268–5273. Nobre A.C., Sebestyen G.N., Gitelman D.R., Mesulam M.M., Frackowiak R.S.J. i Frith C.D. (1997). Functional localization of the system for visuospatial attention using positron emission tomography. Brain, 120, 515–533. Nunez P.L. i Srinivasan R. (2006). Electric fields of the brain: the neurophysics of EEG. New York, NY: Oxford University Press. Nuwer M.C., Comi G., Emerson R., Fugslang-Frederiksen A., Guerit J.M., Hinrichs H., Ikeda A., Luccas F.J.C. i Rappelsburger P. (1998). IFCN standards for digital recording of clinical EEG. Electroencephalography and Clinical Neurophysiology, 106, 259–261. O’Craven K.M., Downing P.E. i Kanwisher N. (1999). fMRI evidence for objects as the units of attentional selection. Nature, 401, 584–587. Ohme R.K. (2003). Podprogowe informacje mimiczne: ujęcie eksperymentalne. Warszawa: Wydawnictwo IPPAN i SWPS. Ohme R.K., Augustynowicz M. i Kukliński K. (2001). Przedświadome rozróżnianie ekspresji mimicznej. Studia Psychologiczne, 39, 29–40. Ohme R.K., Kukliński K. i Sweklej J. (2001). Metody badań ekspresji mimicznej. Studia Psychologiczne, 39, 11–28. Ohme R.K., Pochwatko G. i Błaszczak W. (1999). Paradygmat afektywnego poprzedzania: w poszukiwaniu nowej procedury badawczej. Studia Psychologiczne, 37, 7–28. Ono T. i Nishijo H. (2000). Neurophysiological basis of emotion in primates: neuronal re-sponses in the monkey amygdala and anterior cingulate cortex, [w:] M.S. Gazzaniga (red.), The new cognitive neurosciences (s.1099–1114). Cambridge, MA: MIT Press. Op de Beeck H., Baker C.I., DiCarlo J.J. i Kanwisher N. (2006). Discrimination training alters object representations in human extrastriate cortex. Journal of Neuroscience, 26, 13025– –13036. Oram M. i Perrett D.I. (1996). Integration of form and motion in the anterior superior temporal polysensory area (STPa) of the Macaque monkey. Journal of Neurophysiology, 76, 109–129. Öhman A. (2002). Automaticity and the amygdala: Nonconscious responses to emotional faces. Current Directions in Psychological Science, 11, 62–66. Palermo R. i Rhodes G. (2007). Are you always on my mind? A review of how face perception and attention interact. Neuropsychologia, 45, 75–92. Parry F.M., Young A.W., Saul J.S.M. i Moss A. (1990). Dissociable face processing impairments after brain injury. Journal of Clinical and Experimental Neuropsychology, 13, 545–558. Pascalis O., de Haan M. i Nelson C.A. (2002). Is face processing species-specific during the fi rst year of life? Science, 296, 1321–1323. Pascalis O., Scott L.S., Kelly D.J., Shannon R.W., Nicholson E., Coleman M. i Nelson C.A. (2005). Plasticity of face processing in infancy. Proceedings of the National Academy of Science USA, 102, 5297–5300. Pascual-Marqui R.D. (2002). Standardized low-resolution brain electromagnetic tomography (sLORETA): technical details. Methods & Findings in Experimental and Clinical Pharmacology, 24, 5–12. Pasley B.N., Mayes L.C. i Schultz R.T. (2004). Subcortical discrimination of unperceived ob-jects during binocular rivalry. Neuron, 42, 163–172. Payne B.R., Lomber S.G., MacNeil M.A. i Cornwell P. (1996). Evidence for greater sight in blindsight following damage of primary visual cortex early in life. Neuropsychologia, 34, 741–774. Pegna A.J., Landis T. i Khateb A. (2008). Electrophysiological evidence for early non-conscious processing of fearful facial expressions. International Journal of Psychophysiology, 70, 127–136. Pelphrey K.A. i Morris J.P. (2006). Brain mechanisms for interpreting the actions of others from biological-motion cues. Current Directions in Psychological Science, 15, 136–140. Perrett D.I., Harries M.H., Mistlin A.J., Hietanen J.K., Benson P.J., Bevan R., Thomas S., Ortega J., Oram M.W. i Brierly K. (1990). Social signals analyzed at the single cell level: someone is looking at me, something touched me, something moved! International Journal of Com-parative Psychology, 4, 25–55. Perrett D.I., Mistlin A.J., Chitty A.J., Smith P.A.J., Potter D.D., Broennimann R. i Harries M. (1988). Specialized face processing and hemispheric asymmetry in man and monkey: Evidence from single unit and reaction times studies. Behavioural Brain Research, 29, 245–258. Perrett D.I., Rolls E.T. i Caan W. (1982). Visual neurones responsive to faces in the monkey temporal cortex. Experimental Brain Research, 47, 329–342. Perrett D.I., Smith P.A.J., Potter D.D., Mistlin A.J., Head A.S., Milner A.D. i Jeeves M.A. (1984). Neurones responsive to faces in the temporal cortex: studies of functional organization, sensitivity to identity and relation to perception. Human Neurobiology, 3, 197–208. Perrett D.I., Smith P.A.J., Potter D.D., Mistlin A.J., Head A.S., Milner A.D. i Jeeves M.A. (1985). Visual cells in the temporal cortex sensitive to face view and gaze direction. Proceedings of the Royal Society B, 223, 293–317. Pessoa L. (2005). To what extent are emotional visual stimuli processed without attention and awareness? Current Opinion in Neurobiology, 15, 188–196. Pessoa L., Japee S., Sturman D. i Ungerleider L.G. (2006). Target visibility and visual awareness modulate amygdala responses to fearful faces. Cerebral Cortex, 16, 366–375. Pessoa L., Japee S. i Ungerleider L.G. (2005). Visual awareness and the detection of fearful faces. Emotion, 5, 243–247. Pessoa L., Kastner S. i Ungerleider L.G. (2002). Attentional control of the processing of neutral and emotional stimuli. Cognitive Brain Research, 15, 31–45. Pessoa L., McKenna M., Gutierrez E. i Ungerleider L.G. (2002). Neural processing of emo-tional faces requires attention. Proceedings of the National Academy of Science USA, 99, 11458–11463. Phillips M.L., Young A.W., Scott S.K., Calder A.J., Andrew C., Giampietro V., Williams S.C.R., Bullmore E.T., Brammer M. i Gray J.A. (1998). Neural responses to facial and vocal expres-sions of fear and disgust. Proceedings of the Royal Society B, 265, 1809–1817. Phillips M.L., Young A.W., Senior C., Brammer M., Andrew C., Calder A.J., Bullmore E.T., Perrett D.I., Rowland D., Williams S.C.R., Gray J.A. i David A.S. (1997). A specifi c neural substrate for perceiving facial expressions of disgust. Nature, 389, 495–498. Posner M.I. i Petersen S.E. (1990). The attention system of the human brain. Annual Review of Neuroscience, 13, 25–42. Pourtois G., Dan E.S., Grandjean D., Sander D. i Vuilleumier P. (2005). Enhanced extrastriate visual response to bandpass spatial frequency filtered fearful faces: Time course and topographic evoked-potentials mapping. Human Brain Mapping, 26, 65–79. Pourtois G., Grandjean D., Sander D. i Vuilleumier P. (2004). Electrophysiological correlates of rapid spatial orienting towards fearful faces. Cerebral Cortex, 14, 619–633. Price J.L. (2002). Limbic System, [w:] V.S. Ramachandran (red.), Encyclopedia of the human brain (s. 695–702). San Diego, CA: Academic Press. Puce A., Allison T., Bentin S., Gore J.C. i McCarthy G. (1998). Temporal cortex activation of humans viewing eye and mouth movements. Journal of Neuroscience, 18, 2188–2199. Puce A., Allison T. i McCarthy G. (1999). Electrophysiological studies of human face perception. III: Effects of top-down processing on face-specifi c potentials. Cerebral Cortex, 9, 445–458. Rebai M., Poiroux S., Bernard C. i Lalonde R. (2001). Event-related potentials for category--specifi c information during passive viewing of faces and objects. International Journal of Neuroscience, 106, 209–226. Rhodes G., Byatt G., Michie P.T. i Puce A. (2004). Is the fusiform face area specialized for faces, individuation, or expert individuation? Journal of Cognitive Neuroscience, 16, 189–203. Rigato S., Farroni T. i Johnson M.H. (2010). The shared signal hypothesis and neural responses to expressions and gaze in infants and adults. Social, Cognitive & Affective Neuroscience, 5, 88–97. Rilling J.K., Sanfey A.G., Aronson J.A., Nystrom L.E. i Cohen J.D. (2004). The neural correlates of theory of mind within interpersonal interactions. Neuroimage, 22, 1694–1703. Robbins R.A. i McKone E. (2007). No face-like processing for objects of expertise in three behavioural tasks. Cognition, 103, 34–79. Rosburg T., Ludowig E., Dümpelmann M., Alba-Ferrara L., Urbach H. i Elger C.E. (2010). Th e effect of face inversion on intracranial and scalp recordings of event-related potentials. Psychophysiology, 47, 147–157. Rossion B., Caldara R., Seghier M., Schuller A.M., Lazeyras F. i Mayer E. (2003). A network of occipito-temporal face-sensitive areas besides the right middle fusiform gyrus is necessary for normal face processing. Brain, 126, 2381–2395. Rossion B., Campanella S., Gomez C., Delinte A., Debatisse D., Liard L., Dubois S., Bruyer R., Crommelinck M. i Guérit J.-M. (1999a). Task modulation of brain activity related to familiar and unfamiliar face processing: An ERP study. Clinical Neurophysiology, 110, 449–462. Rossion B., Delvenne J.-F., Debatisse D., Goffaux V., Bruyer R., Crommelinck M. i Guérit J.-M. (1999b). Spatio-temporal localization of the face inversion eff ect: an event-related potentials study. Biological Psychology, 50, 173–189. Rossion B., Dricot L., De Volder A., Bodart J.M., Crommelinck M., de Gelder B. i Zoontjes R. (2000). Hemispheric asymmetries for whole-based and parts-based face processing in the human fusiform gyrus. Journal of Cognitive Neuroscience, 12, 793–802. Rossion B. i Gauthier I. (2002). How does the brain process upright and inverted faces? Behavioral and Cognitive Neuroscience Reviews, 1, 63–75. Rossion B., Gauthier I., Goffaux V., Tarr M.J. i Crommelinck M. (2002). Expertise training with novel objects leads to left-lateralized facelike electrophysiological responses. Psychological Science, 13, 250–257. Rossion B., Gauthier I., Tarr M.J., Despland P., Bruyer R., Linotte S. i Crommelinck M. (2000). The N170 occipito-temporal component is delayed and enhanced to inverted faces but not to inverted objects: an electrophysiological account of face-specific processes in the human brain. NeuroReport, 11, 69–74. Rossion B. i Jacques C. (2008). Does physical interstimulus variance account for early elec-tro-physiological face sensitive responses in the human brain? Ten lessons on the N170. NeuroImage, 39, 1959–1979. Rossion B., Joyce C.A., Cottrell G.W. i Tarr M.J. (2003). Early lateralization and orienting tuning for face, word, and object processing in the visual cortex. NeuroImage, 20, 1609–1624. Sagiv N. i Bentin S. (2001). Structural encoding of human and schematic faces: Holistic and part-based processes. Journal of Cognitive Neuroscience, 13, 937–951. Sams M., Hietanen J.K., Hari R., Ilmoniemi R.J. i Lounasmaa O.V. (1997). Face-specifi c re-sponses from the human interior occipito-temporal cortex. Neuroscience, 77, 49–55. Sato W., Kochiyama T., Yoshikawa S. i Matsumura M. (2001). Emotional expression boosts early visual processing of the face: ERP recording and its decomposition by independent component analysis. NeuroReport, 12, 709–714. Saxe R. i Kanwisher N. (2003). People thinking about thinking people. The role of the temporoparietal junction in “theory of mind”. Neuroimage, 19, 1835–1842. Schiltz C., Sorger B., Caldara R., Ahmed F., Mayer E., Goebel R. i Rossion B. (2006). Impaired face discrimination in acquired prosopagnosia is associated with abnormal response to individual faces in the right middle fusiform gyrus. Cerebral Cortex, 16, 574–586. Schmolesky M.T., Wang Y., Hanes D.P., Thompson K.G., Leutgeb S., Schall J.D. i Leventhal A.G. (1998). Signal timing across the macaque visual system. Journal of Neurophysiology, 79, 3272–3278. Schultz R.T., Romanski L.M. i Tsatsanis K.D. (2000). Neurofunctional models of autism and Asperger syndrome: clues from neuroimaging, [w:] A. Klin, F. Volkmar i S. Sparrow (red.), Asperger Syndrome (s. 172–209). New York, NY: Guilford Publications. Schupp H.T., Junghöfer M., Weike A.I. i Hamm A.O. (2003a). Emotional facilitation of sensory processing in the visual cortex. Psychological Science, 14, 7–13. Schupp H.T., Junghöfer M., Weike A.I. i Hamm A.O. (2003b). Attention and emotion: an ERP analysis of facilitated emotional stimulus processing. NeuroReport, 14, 1107–1110. Schupp H.T., Junghöfer M., Weike A.I. i Hamm A.O. (2004a). Selective processing of briefl y presented affective pictures: an ERP analysis. Psychophysiology, 41, 441–449. Schupp H.T., Öhman A., Junghöfer M., Weike A.I., Stockburger J. i Hamm A.O. (2004b). Th e facilitated processing of threatening faces. Emotion, 4, 189–200. Schwarzlose R.F., Baker C.I. i Kanwisher N. (2005). Separate face and body selectivity on the fusiform gyrus. Journal of Neuroscience, 25, 11055–11059. Schweinberger S.R. i Burton A.M. (2003). Covert recognition and the neural system for face processing. Cortex, 39, 9–30. Schweinberger S.R., Pickering E.C., Jentzsch I., Burton A.M. i Kaufmann J.M. (2002). Event--related brain potential evidence for a response of inferior temporal cortex to familiar face repetitions. Cognitive Brain Research, 14, 398–409. Sergent J., Otha S. i Macdonald B. (1992). Functional neuroanatomy of face and object processing. A positron emission tomography study. Brain, 115, 15–36. Sergent J., Ohta S., Macdonald B. i Zuck E. (1994). Segregated processing of identity and emo-tion in the human brain: a PET study. Visual Cognition, 1, 349–369. Sergent J. i Signoret J. (1992). Varieties of functional deficits in prosopagnosia. Cerebral Cortex, 2, 375–388. Shibata T., Nishijo H., Tamura R., Miyamoto K., Eifuku S., Endo S. i Ono T. (2002). Generators of visual evoked potentials for faces and eyes in the human brain as determined by dipole localization. Brain Topography, 15, 51–63. Sinha P. i Poggio T. (1996). I think I know that face. Nature, 384, 404. Sprengelmeyer R. i Jentzsch I. (2006). Event related potentials and the perception of intensity in facial expressions. Neuropsychologia, 44, 2899–2906. Sprengelmeyer R., Rausch M., Eysel U.T. i Przuntek H. (1998). Neural structures associated with recognition of facial expressions of basic emotions. Proceedings of the Royal Society B, 265, 1927–1931. Stanners R.F., Byrd D.M. i Gabriel R. (1985). The time it takes to identify facial expressions: Effects of age, gender of subject, sex of sender, and type of expression. Journal of Nonverbal Behavior, 9, 201–213. Steeves J.K., Culham J.C., Duchaine B.C., Pratesi C.C., Valyear K.F., Schindler I., Humphrey G.K., Milner A.D. i Goodale M.A. (2006). The fusiform face area is not suffi cient for face recognition: evidence from a patient with dense prosopagnosia and no occipital face area. Neuropsychologia, 4, 594–609. Stone V.E., Baron-Cohen S. i Knight R.T. (1998). Frontal lobe contributions to the Th eory of Mind. Journal of Cognitive Neuroscience, 10, 640–656. Streit M., Ioannides A.A., Liu L., Wölwer W., Dammers J., Gross J., Gaebel W. i Müller-Gärtner H.W. (1999). Neurophysiological correlates of the recognition of facial expressions of emo-tion as revealed by magnetoencephalography. Cognitive Brain Research, 7, 481–491. Sugase Y., Yamane S., Ueno S. i Kawano K. (1999). Global and fine information coded by single neurons in the temporal visual cortex. Nature, 400, 869–873. Surguladze S.A., Brammer M.J., Young A.W., Andrew C., Travis M.J., Williams S.C.R. i Philips M.L. (2003). A preferential increase in the extrastriate response to signals of danger. NeuroImage, 19, 1317–1328. Szeląg E. (2011). Mózgowe mechanizmy mowy, [w:] T. Górska, A. Grabowska i J. Zagrodzka (red.), Mózg a zachowanie (s. 489–524). Warszawa: PWN. Tamietto M., Latini Corazzini L., de Gelder B. i Geminiani G. (2006). Functional asymmetry and interhemispheric cooperation in the perception of emotions from facial expressions. Experimental Brain Research, 171, 389–404. Tanaka J.W. i Curran T. (2001). A neural basis for expert object recognition. Psychological Science. 12, 43–47. Tarr M.J. i Gauthier I. (2000). FFA: a flexible fusiform area for subordinate-level visual processing automatized by expertise. Nature Neuroscience, 3, 764–769. Taylor M.J. (2002). Non-spatial attentional effects on P1. Clinical Neurophysiology, 113, 1903– –1908. Taylor M.J., Edmonds G.E., McCarthy G. i Allison T. (2001). Eyes first! Eye processing develops before face processing in children. Neuroreport, 12, 1671–1676. Taylor M.J., Itier R.J., Allison T. i Edmonds G.E. (2001). Direction of gaze effects on early face processing: eyes-only versus full faces. Cognitive Brain Research, 10, 333–340. Taylor M.J., McCarthy G., Saliba E. i Degiovanni E. (1999). ERP evidence of developmental changes in processing of faces. Clinical Neurophysiology, 110, 910–915. Thierry G., Martin C.D., Downing P.E. i Pegna A.J. (2007). Controlling for interstimulus per-ceptual variance abolishes N170 face selectivity. Nature Neuroscience, 10, 505–511. Tippet L.J., Milller L.A. i Farah M.J. (2000). Prosopamnesia: a selective impairment in face learning. Cognitive Neuropsychology, 17, 241–255. Tomasello M., Call J. i Hare B. (1998). Five primate species follow the visual gaze of conspecifics. Animal Behaviour, 55, 1063–1069. Tong F., Meng M. i Blake R. (2006). Neural bases of binocular rivalry. Trends in Cognitive Sciences, 10, 502–511. Tong F., Nakayama K., Vaughan J.T. i Kanwisher N. (1998). Binocular rivalry and visual awareness in human extrastriate cortex. Neuron, 21, 753–759. Tottenham N., Tanaka J.W., Leon A.C., McCarry T., Nurse M., Hare T.A., Marcus D.J., Westerlund A., Casey B.J. i Nelson C. (2009). The NimStim set of facial expressions: judgements from untrained research participants. Psychiatry Research, 168, 242–249. Tranel D., Damasio A.R. i Damasio H. (1998). Intact recognition of facial expression, gender, and age in patients with impaired recognition of face identity. Neurology, 38, 690–696. Turati C., Simion F., Milani I. i Umiltà C. (2002). Newborns’ preference for faces: What is cru-cial? Developmental Psychology, 38, 875–882. Turk D.J., Handy T.C. i Gazzaniga M.S. (2005). Can perceptual expertise account for the own-race bias in face recognition? A split-brain study. Cognitive Neuropsychology, 22, 877–883. Valenza E., Simion F., Macchi Cassia V. i Umiltà C. (1996). Face preference at birth. Journal of Experimental Psychology, 22, 892–903. Vecera S. i Johnson M. (1995). Gaze detection and the cortical processing of faces: evidence from infants and adults. Visual Cognition, 2, 59–87. Vlamings P.H.J.M., Goffaux V. i Kemner C. (2009). Is the early modulation of brain activity by fearful facial expressions primarily mediated by coarse low spatial frequency information? Journal of Vision, 9, 1–13. Vuilleumier P. (2000). Faces call for attention: Evidence from patients with visual extinction. Neuropsychologia, 38, 693–700. Vuilleumier P., Armony J.L., Clarke K., Husain M., Driver J. i Dolan R.J. (2002). Neural re-sponse to emotional faces with and without awareness: event-related fMRI in a parietal patient with visual extinction and spatial neglect. Neuropsychologia, 40, 2156–2166. Vuilleumier P., Armony J.L., Driver J. i Dolan R.J. (2001). Effects of attention and emotion on face processing in the human brain: An event-related fMRI study. Neuron, 30, 829–841. Vuilleumier P. i Pourtois G. (2007). Distributed and interactive brain mechanisms during emotion face perception: Evidence from functional neuroimaging. Neuropsychologia, 45, 174–194. Vuilleumier P., Richardson M.P., Armony J.L., Driver J. i Dolan R.J. (2004). Distant infl uences of amygdala lesion on visual cortical activation during emotional face processing. Nature Neuroscience, 7, 1271–1278. Vuilleumier P. i Schwartz S. (2001). Emotional facial expressions capture attention. Neurology, 56, 153–158. Walentowska W. i Wronka E. (2010). Anxiety modulates involuntary processing of emotional expression. International Journal of Psychophysiology, 77, 278–279. Walentowska W. i Wronka E. (w druku). Trait anxiety and involuntary processing of facial emotions. International Journal of Psychophysiology. Walker P.M. i Tanaka J.W. (2003). An encoding advantage for own-race versus other-race faces. Perception, 32, 1117–1125. Walsh K. (2001). Jak rozumieć uszkodzenia mózgu. Podstawy diagnozy neuropsychologicznej. Warszawa: IPiN. Watanabe S., Kakigi R. i Puce A. (2003). The spatiotemporal dynamics of the face inversion ef-fect: a magneto- and electro-encephalographic study. Neuroscience, 116, 879–895. Whalen P.J. (1998). Fear, vigilance, and ambiguity: Initial neuroimaging studies of the human amygdala. Current Directions in Psychological Science, 7, 177–188. Whalen P.J., Kagan J., Cook R.G., Davis F.C., Kim H., Polis S., McLaren D.G., Somerville L.H., McLean A.A., Maxwell J.S. i Johnstone T. (2004). Human amygdala responsivity to masked fearful eye whites. Science, 306, 2061. Whalen P.J., Rauch S.L., Etcoff N.L., McInerney S.C., Lee M.B. i Jenike M.A. (1998). Masked presentations of emotional facial expressions modulate amygdala activity without explicit knowledge. Journal of Neuroscience, 18, 411–418. Whitely A.M. i Warrington E.K. (1977). Prosopagnosia: a clinical, psychological, and anatomi-cal study of three patients. Journal of Neurology, Neurosurgery, and Psychiatry, 40, 395–403. Wicker B., Michel F., Henaff M.A. i Decaty J. (1998). Brain regions involved in the perception of gaze: a PET study. NeuroImage, 8, 221–227. Williams M.A., McGlone F., Abbott D.F. i Mattingley J.B. (2005). Differential amygdala re-sponses to happy and fearful facial expressions depend on selective attention. NeuroImage, 24, 417–425. Williams M.A., Morris A.P., McGlone F., Abbott D.F. i Mattingley J.B. (2004). Amygdala re-sponses to fearful and happy facial expressions under conditions of binocular suppression. Journal of Neuroscience, 24, 2898–2904. Winston J.S., Henson R.N.A., Fine-Goulden M.R. i Dolan R.J. (2004). fMRI-adaptation reveals dissociable neural representations of identity and expression in face perception. Journal of Neurophysiology, 92, 1830–1839. Winston J.S., O’Doherty J. i Dolan R.J. (2003). Common and distinct neural responses during direct and incidental processing of multiple facial emotions. NeuroImage, 20, 84–97. Winston J.S., Strange B.A., O’Doherty J. i Dolan R.J. (2002). Automatic and intentional brain responses during evaluation of trustworthiness of faces. Nature Neuroscience, 5, 277–283. Winston J.S., Vuilleumier P. i Dolan R.J. (2003). Effects of low-spatial frequency components of fearful faces on fusiform cortex activity. Current Biology, 13, 1824–1829. Wojciulik E., Kanwisher N. i Driver J. (1998). Covert visual attention modulates face-specifi c activity in the human fusiform gyrus: fMRI study. Journal of Neurophysiology, 79, 1574– –1578. Woodman G.F. i Luck S.J. (1999). Electrophysiological measurement of rapid shifts of attention during visual search. Nature, 400, 867–869. Wronka E. (2004). Uwaga! – mózg w działaniu. O neuronalnych podstawach mechanizmu uwagi. Studia Psychologiczne, 42, 11–23. Wronka E. (2008). W poszukiwaniu biologicznej twarzy inteligencji emocjonalnej, [w:] M. Śmieja i J. Orzechowski (red.), Inteligencja emocjonalna – fakty, mity, kontrowersje (s. 175– –194). Warszawa: PWN. Wronka E., Kaiser J. i Coenen A.M.L. (2008). The auditory P3 from passive and active three-stimulus oddball paradigm. Acta Neurobiologiae Experimentalis, 68, 362–373. Wronka E., Kaiser J. i Coenen A.M.L. (2012). Neural generators of the auditory evoked potential components P3a and P3b. Acta Neurobiologiae Experimentalis, 72, 51–64. Wronka E., Kuniecki M., Kaiser J. i Coenen A.M.L. (2007). The P3 produced by auditory stim-uli presented in a passive and active condition: modulation by visual stimuli. Acta Neurobiologiae Experimentalis, 67, 155–164. Wronka E. i Walentowska W. (2011). Attention modulates emotional expression processing. Psychophysiology, 48, 1047–1056. Wronka E., Walentowska W. i Asanowicz D. (2010). Hemispheric asymmetry and the attentional bias toward emotional faces. International Journal of Psychophysiology, 77, 279. Xu Y., Liu J. i Kanwisher N. (2005). The M170 is selective for faces, not for expertise. Neuropsychologia, 43, 588–597. Yin R.K. (1969). Looking at upside-down faces. Journal of Experimental Psychology, 81, 141–145. Young A.W. i Ellis H.D. (1989). Childhood prosopagnosia. Brain and Cognition, 9, 16–47. Young A.W., Hellawell D. i Hay D. (1987). Configural information in face perception. Perception, 10, 747–759. Young A.W., McWeeny K.H., Hay D.C. i Ellis A.W. (1986). Matching familiar and unfamiliar faces on identity and expression. Psychological Research, 48, 63–68. Young A.W., Newcombe F., de Haan E.H.F., Small M. i Hay D.C. (1993). Face perception aft er brain injury: selective impairments affecting identity and expression. Brain, 116, 941–959. Yovel G. i Kanwisher N. (2004). Face perception: Domain specific, not process specifi c. Neuron, 44, 889–898. Yovel G. i Kanwisher N. (2005). The neural basis of the behavioral face-inversion eff ect. Cur-rent Biology, 15, 2256–2262. Yovel G., Levy J., Grabowecky M. i Paller K.A. (2003). Neural correlates of the left -visual-fi eld superiority in face perception appear at multiple stages of face processing. Journal of Cognitive Neuroscience, 15, 462–474. Yue X., Tjan B.S. i Biederman I. (2006). What makes faces special? Vision Research, 46, 3802– –3811. Zald D.H. (2003). The human amygdala and the emotional evaluation of sensory stimuli. Brain Research Reviews, 41, 88–123. Redaktor Dorota Węgierska Korekta Katarzyna Jagieła Skład i łamanie Hanna Wiechecka Wydawnictwo Uniwersytetu Jagiellońskiego Redakcja: ul. Michałowskiego 9/2, 31-126 Kraków tel. 12-631-18-81, tel./fax 12-631-18-83