Dlaczego osoby z autyzmem odczytują emocje w inny sposób?

Zaburzenia ze spektrum autyzmu polegają na problemach w nawiązywaniu relacji społecznych, wynikają one zwłaszcza z trudności w interpretacji mimiki twarzy. Jak wygląda odczytywanie emocji u osób z autyzmem?

We wcześniejszym wpisie wyjaśniłam, że osoby z autyzmem mają trudność z poprawnym odczytaniem emocji, jaką jest gniew. Dzisiaj skupimy się na tym, skąd konkretnie wynikają problemy osób z zaburzeniami ze spektrum autyzmu. Jak wygląda odczytywanie emocji u osób z autyzmem?

Grupa naukowców z Uniwersytetu Tohoku korzystając z modelu sieci neuronowej, który jest w stanie odzwierciedlić pracę mózgu na komputerze, odkryła co stoi za tym, że osoby z autyzmem odczytują emocje w inny sposób. Wyniki badań zostały opublikowane w magazynie „Scientific Reports” w lipcu 2021 roku.

Odczytywanie emocji u osób z autyzmem

Jak osoby z autyzmem interpretują emocje?

Naukowcy wykorzystali teorię przetwarzania predykcyjnego, by odpowiedzieć sobie na postawione pytanie.

„Ludzie rozpoznają emocje takie, jak smutek i gniew patrząc na mimikę twarzy. Jednak dotychczas niewiele było wiadomo na temat tego, jak rozpoznajemy emocje na podstawie informacji z wyrazu twarzy. Nie jest również jasne, jakie zmiany zachodzą w procesie, który prowadzi do tego, że osoby z zaburzeniami ze spektrum autyzmu mają problemy z odczytywaniem wyrazu twarzy” – powiedział Yuta Takahashi.

Przetwarzanie predykcyjne zakłada, że ludzki mózg nieustannie tworzy przewidywania na temat dopływających do niego bodźców, co pozwala na wprowadzanie odpowiedniego działania oraz dostosowania się do sytuacji nawet, gdyby założenie było błędne. Mimika tutaj pozwala na zmniejszenie błędu przewidywania.

Zobacz: Paradoks emocji, czy potrafimy poprawnie odczytywać intensywne emocje?

Odczytywanie emocji u osób z autyzmem

Model sztucznej sieci neuronowej, którą stworzyli naukowcy uwzględnił teorię przetwarzania predykcyjnego oraz odtworzył cały proces rozwojowy poprzez naukę przewidywania tego, w jaki sposób części twarzy będą ruszać się na filmach przedstawiających mimikę. Następnie skupiska emocji zostały uporządkowane w modelu sieci neuronalnej, przy czym nie posiadał on wiedzy na temat tego, jaki wyraz twarzy odpowiada danej emocji. Model mógł generalizować nieznane wyrazy twarzy, które nie zostały zaprogramowane wcześniej, odtwarzając mimikę oraz minimalizując błędy przewidywania.

W ten sposób naukowcy przeprowadzili eksperymenty i wywołali nieprawidłowości w aktywności neuronów. Miało to na celu zbadanie ich wpływu na rozwój uczenia się i cechy poznawcze. W modelu, w którym heterogeniczność aktywności była zmniejszona, obniżyła się również zdolność generalizacji, co doprowadziło do niepowodzenia w identyfikowaniu nieznanej emocji, czyli do zjawiska, z którym mamy do czynienia przy autyzmie.

Według Takahashiego badanie to wyjaśniło, że teoria predykcyjnego przetwarzania może być rozwiązaniem zagadki trudności w rozpoznawaniu emocji na podstawie wyrazu twarzy u osób z zaburzeniami ze spektrum autyzmu. Dzięki odkryciom naukowców możliwe będzie opracowanie odpowiednich zaleceń dla osób z trudnościami w identyfikacji emocji.

Źródło: https://neurosciencenews.com/aans-asd-facial-expression-19065/

Diana Nowek

Jestem profilerem behawioralnym oraz badaczem komunikacji niewerbalnej. Od wielu lat prowadzę firmę szkoleniowo-doradczą o nazwie Institute of Nonverbal Communication, w ramach której prowadzę badania z użyciem technologii biosensorycznych.

Share this post