Dołącz do czytelników
Brak wyników

Psychologia i życie

11 stycznia 2019

NR 1 (Styczeń 2019)

Był sobie robot

47

Roboty przyszłości będą naszymi współpracownikami, opiekunami, towarzyszami. Aby nasze relacje z nimi były udane, projektanci muszą czerpać z wiedzy psychologicznej.

W piekarni ciasto na chleb ramię w ramię z człowiekiem ugniata robot. Po ukończeniu tego zadania przechodzi do kolejnego – najpierw przygląda się, jak pracownik polewa ciasteczka lukrem, po czym sam sprawnie kontynuuje pracę. Po drugiej stronie ulicy, w ośrodku opieki dziennej, uśmiechnięty robot o przyjaznym głosie pomaga dziecku wytrzeć rozlane mleko, a potem przyłącza się do grupy maluchów i towarzyszy im w układaniu klocków.

Być może takie sceny wcale nie są odległą przyszłością. – Roboty wchodzące w interakcje z ludźmi – w tym kierunku zmierza robotyka – tłumaczy Brian Scassellati, profesor informatyki, nauk poznawczych oraz inżynierii mechanicznej z Yale University. Pierwsze autonomiczne roboty, czyli działające bez wsparcia człowieka-operatora, były projektowane tak, by mogły wykonywać potencjalnie niebezpieczne prace, często z dala od ludzi, wyjaśnia dr Cynthia Breazeal z Massachusetts Institute of Technology, gdzie kieruje Personal Robots Group. Ich zadaniem było eksplorowanie głębin oceanów, wnętrz wulkanów czy powierzchni Marsa. Jednak następne pokolenie robotów będzie musiało zmierzyć się z bardziej skomplikowanym wyzwaniem, niż badanie powierzchni Czerwonej Planety: współpracą z człowiekiem na co dzień – w domu, szkole, szpitalu czy w miejscu pracy. Aby stworzyć takie roboty, projektanci będą musieli korzystać z wiedzy psychologicznej z zakresu komunikacji, percepcji, inteligencji społeczno-emocjonalnej czy teorii umysłu. –

Chcemy mieć roboty, które potrafią się od nas uczyć i które nas uczą, świadome i przewidujące nasze działania – wyjaśnia dr Deborah Forster z University of California w San Diego. 

Jednak zaprojektowanie robotów, które rozumieją ludzi, to dopiero połowa sukcesu. Projektanci muszą też wziąć pod uwagę, jakie cechy powinien posiadać robot, aby człowiek mu zaufał i chciał wchodzić z nim w interakcje. 

Moralny kompas

W przyszłości roboty społeczne staną przed moralnymi dylematami. 

Co ma zrobić robot-opiekun osoby starszej, gdy ta prosi o lek przeciwbólowy, a on nie może skontaktować się z lekarzem? Albo jak robot ma postąpić, gdy widzi, że 10-latek nabroił? Takie sytuacje wymagają znajomości norm społecznych i moralnych, zachowania zgodnego z tą wiedzą oraz umiejętności rozpoznania, kiedy ktoś je łamie. 

Prof. Bertram Malle i prof. Matthias Scheutz wskazują trzy obszary, które należy przemyśleć w związku z projektowaniem robotów z „moralnym kompasem”. Po pierwsze, trzeba zrozumieć, jakie oczekiwania moralne mają ludzie wobec autonomicznych podmiotów.

Po drugie, trzeba zaprojektować mechanizmy, które umożliwią robotom przetwarzanie danych z obszaru moralności oraz działanie w określonych ramach moralnych. Po trzecie, ludzie będą musieli zastanowić się nad statusem moralnym robotów. Na przykład jeśli robot skrzywdzi człowieka, to czy będzie odpowiadać za swój czyn? Czy będzie mieć prawo do obrony i czy sam będzie chroniony przed krzywdą ze strony człowieka? Odpowiedzi na te pytania będą miały realne skutki. Choć konieczność obrony przed robotami, które zeszły na złą drogę, jest jeszcze odległą przyszłością, to jednak – jak zauważa prof. Malle
– już teraz powinniśmy wziąć pod uwagę aspekt moralny.

 

Ktoś, a nie coś

Aby przystosować się do nieprzewidywalnych zachowań człowieka, roboty społeczne powinny świetnie odczytywać nasze intencje. – Odgadywać, czego człowiek chce, co zamierza i jakie ma założenia, a potem uwzględnić te informacje i odpowiednio zareagować – mówi prof. Bertram Malle z Brown University, który bada poznanie społeczne oraz rozumowanie moralne. By to robić dobrze, roboty będą uczyć się od człowieka. „Przyprowadzenie” robota do domu może bardziej przypominać sytuację adopcji małego dziecka niż zakup nowego gadżetu elektronicznego. – Robot będzie przystosowywać się, uczyć się, poprawiać błędy, reagować adekwatnie do zachowania konkretnego człowieka – wyjaśnia prof. Malle. – To wymaga zdolności uczenia się na podstawie informacji zwrotnej, nagród i krytyki.

Jednak aby do tego doszło, ludzie muszą najpierw „zaprzyjaźnić się” z robotem. – Interakcja z robotem społecznym powinna być doświadczeniem bardziej przypominającym relację z kimś niż z czymś – mówi dr Breazeal. Innymi słowy, nawiązując kontakt z robotem, powinniśmy mieć poczucie, że ma on kontrolę nad swoimi wyborami i zachowaniem. – Na podstawie doświadczenia w dziedzinie sztuki i animacji wiemy, że istnieją bardzo proste triki wizualne, które sprawiają, że coś wydaje się jak żywe – relacjonuje prof. Scassellati. Należy do nich na przykład umieszczenie oczu na przedmiocie czy działanie, które zmienia się w zależności od naszego zachowania. 

Co ciekawe, prowadzone badania pozwoliły prof. Scassellatiemu wskazać inną, bardziej zaskakującą cechę, która czyni roboty atrakcyjnymi w oczach ludzi: zdolność oszukiwania. W jednym z eksperymentów uczestnicy grali z robotem w grę „Papier nożyce kamień”. Gdy robot zachowywał się w przewidywalny sposób, badani traktowali go jak zwykłą maszynę. Wszystko się jednak zmieniało, gdy oszukiwał, by wygrać. –

Gdy tylko robot zaczyna oszukiwać,...

Ten artykuł dostępny jest tylko dla Prenumeratorów.

Sprawdź, co zyskasz, kupując prenumeratę.

Zobacz więcej

Przypisy