Dołącz do czytelników
Brak wyników

Mózg i umysł , Laboratorium

14 września 2016

Zmysłowe nastroje

17

Czasem wystarczy chwila, by wiedzieć, jak ktoś się czuje. Usta w podkówkę, rozedrgany głos, wilgotna dłoń – mózg błyskawicznie scala informacje pochodzące z różnych zmysłów i tworzy obraz emocji przeżywanych przez naszego rozmówcę.

Rankiem w sklepie, w tramwaju w drodze do pracy czy w windzie wiozącej nas do biura – wszędzie spotykamy innych ludzi. Zwykle w mgnieniu oka jesteśmy w stanie ocenić, w jakim są nastroju. Wcale nie muszą nam o tym mówić, bowiem wysyłają – świadomie lub mimowolnie – szereg sygnałów niewerbalnych. Szeroki uśmiech, nos spuszczony na kwintę lub wykrzywione gniewem usta często mówią więcej o nastroju niż tysiąc słów. Pewny i mocny albo słabiutki i cichy głos to kolejna wskazówka. Wiele zdradza również sylwetka (czy ktoś jest przygarbiony i ma spuszczoną głowę, czy wręcz przeciwnie – stoi wyprostowany i patrzy pewnie przed siebie) oraz sposób chodzenia (czy osoba idzie pewnie, sprężystym krokiem, czy szura butami). W ułamku sekundy nasz mózg łączy te różnorodne informacje w jedno ogólne wrażenie. Dzieje się to w automatyczny sposób, więc zwykle nawet nie zdajemy sobie z tego sprawy.

Paul Ekman, psycholog z University of California w San Francisco, pionier badań nad emocjami, przez wiele lat przyglądał się ekspresji mimicznej. Obserwacje i badania, które prowadził razem z Wallace’em Friesenem w Papui-Nowej Gwinei, pozwoliły mu opracować system kodowania ruchów twarzy. Na podstawie aktywności określonych mięśni Ekman dokonał klasyfikacji emocjonalnych wyrazów twarzy. Na przykład o radości świadczy nie tylko uniesienie kącików ust, za co odpowiada mięsień jarzmowy większy, lecz także specyficzne marszczenie się skóry wokół oczu – a do tego potrzebna jest aktywność mięśnia okrężnego oka. Innymi słowy, ze szczerym uśmiechem mamy do czynienia tylko wtedy, gdy „śmieją się” również oczy. Badacze emocji wykorzystują złożone systemy oceny, które pozwalają im z całą pewnością stwierdzić, z jaką emocją mają do czynienia i czy jest ona szczera. A w jaki sposób nasz mózg dokonuje tak skomplikowanej analizy ekspresji emocji podczas naszych codziennych kontaktów z ludźmi?

Emocjonalny radar
Zespół Nancy Kanwisher, neurobiologa z Massachusetts Institute of Technology, dokonał przełomu w badaniach poświęconych rozpoznawaniu emocji. W 1997 roku amerykańscy badacze zidentyfikowali obszar w ludzkim mózgu, który reaguje na twarze. Leży on w zakręcie wrzecionowatym płata skroniowego. Naukowcy nazywają ten rejon wrzecionowatym ośrodkiem analizy twarzy. Patrik Vuilleumier, neurolog z Université de Genève, odkrył z kolei, że rejon ten jest połączony m.in. z obszarami mózgowymi związanymi z emocjami, a zwłaszcza z ciałem migdałowatym. W 2001 roku przeprowadził badanie z użyciem funkcjonalnego rezonansu magnetycznego, które pokazało, że zakręt wrzecionowaty był bardziej pobudzony wtedy, gdy badani oglądali wystraszone twarze, niż gdy przyglądali się twarzom o neutralnym wyrazie. Vuilleumier doszedł do wniosku, że wrzecionowaty ośrodek analizy twarzy najwyraźniej otrzymuje informację zwrotną z ciała migdałowatego – innymi słowy wspomaga ono proces analizy twarzy, jeśli malują się na niej emocje.

Jednak nie tylko wyraz twarzy zdradza, co czuje druga osoba. Znaczenie mają również inne sygnały. Na przykład o strachu, oprócz szeroko otwartych oczu, świadczą także gesty obronne i zmiana tonu głosu. Zatem, aby stwierdzić, w jakim ktoś jest nastroju, uwzględniamy konfigurację różnych wskazówek. Naukowcy prowadzą badania, w których przyglądają się takiej wielozmysłowej analizie. I rzeczywiście, okazuje się, że jeśli oprócz informacji wzrokowych, czyli na przykład wyrazu twarzy, otrzymujemy także informacje z innych kanałów zmysłowych, np. dane słuchowe w postaci intonacji, wtedy szybciej i z większą pewnością rozpoznajemy emocję malującą się na twarzy innej osoby.

Jak jednak mózgowi udaje się z ogromu bodźców wydobyć te, które mają istotne znaczenie w rozpoznawaniu emocji? W poszukiwaniach odpowiedzi na to pytanie bardzo duży udział mieli Barry Stein, neurobiolog z Wake Forest University w Winston-Salem i Alex Meredith, anatom z Virginia Commonwealth University w Richmond. Naukowcom tym, w oparciu o pomiar aktywności mózgów kotów, udało się określić podstawowe zasady, które odpowiadają za integrację sygnałów wizualnych i akustycznych. W ludzkim mózgu przypuszczalnie odpowiadają za nią te same mechanizmy.

Generalnie, im trudniej rozszyfrować bodziec wzrokowy, tym intensywniej szukamy innych wskazówek. Na przykład w sytuacji, gdy wyraz czyjejś twarzy nie budzi żadnych wątpliwości, w analizie opieramy się przede wszystkim na nim, natomiast mniejszą uwagę przywiązujemy do innych wskazówek. Jeśli z kolei mamy trudności z określeniem, co właściwie wyraża czyjaś mina, zakres naszej uwagi ulega automatycznie poszerzeniu. Mózg szuka dodatkowych informacji, w większym stopniu polegając na takich danych, jak głos czy postawa.

Oznacza to, że uwaga odgrywa ważną rolę podczas łączenia w całość danych pochodzących z różnych źródeł. Zgodnie z tzw. modelem top-down, czyli kontroli odgórnej, wyższe mechanizmy kontroli poznawczej analizują nowe dane wzrokowe i oceniają je w kontekście już posiadanych informacji czy oczekiwań. W efekcie kierujemy uwagę na inne dane zmysłowe.
Krytycy tego podejścia argumentują, że tak przebiegający proces integrowania informacji zajmuje zbyt dużo czasu. Uważają, że niezwykła szybkość, z jaką mózg łączy sygnały pochodzące z wielu zmysłów, przemawia raczej za oddolnym modelem przetwarzania, czyli bottom-up. Zakłada on, że mózg łączy różne informacje już na wczesnym etapie procesu spostrzegania, np. w polach pierwotnej kory wzrokowej i słuchowej, czyli obszarach mózgu aktywnych podczas analizy cech bodźców, które spowodowały pobudzenie neuronów w mózgu. Innymi słowy, dane pochodzące z różnych zmysłów docierają do wyższych obszarów mózgu niejako w pakiecie.

Obrazy i dźwięki
Aby sprawdzić zasadność obydwu modeli w odniesieniu do integrowania informacji pochodzących z wielu zmysłów, naukowcy sięgnęli po techniki neuroobrazowania. Chcieli przede wszystkim wskazać te obszary mózgu, które reagują na informacje zmysłowe, niezależnie od kanału, z którego pochodzą. Takie rejony ulegałyby pobudzeniu zarówno wtedy, kiedy widzimy, jak młotek uderza w gwóźdź, jak i wtedy, gdy tylko słyszymy odgłos uderzania.

W 2000 roku zespół R...

Ten artykuł dostępny jest tylko dla Prenumeratorów.

Sprawdź, co zyskasz, kupując prenumeratę.

Zobacz więcej

Przypisy