Był sobie robot

Psychologia i życie

Roboty przyszłości będą naszymi współpracownikami, opiekunami, towarzyszami. Aby nasze relacje z nimi były udane, projektanci muszą czerpać z wiedzy psychologicznej.

W piekarni ciasto na chleb ramię w ramię z człowiekiem ugniata robot. Po ukończeniu tego zadania przechodzi do kolejnego – najpierw przygląda się, jak pracownik polewa ciasteczka lukrem, po czym sam sprawnie kontynuuje pracę. Po drugiej stronie ulicy, w ośrodku opieki dziennej, uśmiechnięty robot o przyjaznym głosie pomaga dziecku wytrzeć rozlane mleko, a potem przyłącza się do grupy maluchów i towarzyszy im w układaniu klocków.

Być może takie sceny wcale nie są odległą przyszłością. – Roboty wchodzące w interakcje z ludźmi – w tym kierunku zmierza robotyka – tłumaczy Brian Scassellati, profesor informatyki, nauk poznawczych oraz inżynierii mechanicznej z Yale University. Pierwsze autonomiczne roboty, czyli działające bez wsparcia człowieka-operatora, były projektowane tak, by mogły wykonywać potencjalnie niebezpieczne prace, często z dala od ludzi, wyjaśnia dr Cynthia Breazeal z Massachusetts Institute of Technology, gdzie kieruje Personal Robots Group. Ich zadaniem było eksplorowanie głębin oceanów, wnętrz wulkanów czy powierzchni Marsa. Jednak następne pokolenie robotów będzie musiało zmierzyć się z bardziej skomplikowanym wyzwaniem, niż badanie powierzchni Czerwonej Planety: współpracą z człowiekiem na co dzień – w domu, szkole, szpitalu czy w miejscu pracy. Aby stworzyć takie roboty, projektanci będą musieli korzystać z wiedzy psychologicznej z zakresu komunikacji, percepcji, inteligencji społeczno-emocjonalnej czy teorii umysłu. –

Chcemy mieć roboty, które potrafią się od nas uczyć i które nas uczą, świadome i przewidujące nasze działania – wyjaśnia dr Deborah Forster z University of California w San Diego. 

Jednak zaprojektowanie robotów, które rozumieją ludzi, to dopiero połowa sukcesu. Projektanci muszą też wziąć pod uwagę, jakie cechy powinien posiadać robot, aby człowiek mu zaufał i chciał wchodzić z nim w interakcje. 

Moralny kompas

W przyszłości roboty społeczne staną przed moralnymi dylematami. 

Co ma zrobić robot-opiekun osoby starszej, gdy ta prosi o lek przeciwbólowy, a on nie może skontaktować się z lekarzem? Albo jak robot ma postąpić, gdy widzi, że 10-latek nabroił? Takie sytuacje wymagają znajomości norm społecznych i moralnych, zachowania zgodnego z tą wiedzą oraz umiejętności rozpoznania, kiedy ktoś je łamie. 

Prof. Bertram Malle i prof. Matthias Scheutz wskazują trzy obszary, które należy przemyśleć w związku z projektowaniem robotów z „moralnym kompasem”. Po pierwsze, trzeba zrozumieć, jakie oczekiwania moralne mają ludzie wobec autonomicznych podmiotów.

Po drugie, trzeba zaprojektować mechanizmy, które umożliwią robotom przetwarzanie danych z obszaru moralności oraz działanie w określonych ramach moralnych. Po trzecie, ludzie będą musieli zastanowić się nad statusem moralnym robotów. Na przykład jeśli robot skrzywdzi człowieka, to czy będzie odpowiadać za swój czyn? Czy będzie mieć prawo do obrony i czy sam będzie chroniony przed krzywdą ze strony człowieka? Odpowiedzi na te pytania będą m...

Ten artykuł jest dostępny tylko dla zarejestrowanych użytkowników.

Jeśli posiadasz już konto, zaloguj się.

Przypisy

    POZNAJ PUBLIKACJE Z NASZEJ KSIĘGARNI