Dołącz do czytelników
Brak wyników

Psychologia i życie

3 września 2019

NR 9 (Wrzesień 2019)

Co czuje bot

134

Sztuczna inteligencja już potrafi analizować ludzkie emocje. Prowadzone są badania nad stworzeniem takiego systemu, który będzie w stanie rozpoznawać i przewidywać stany innych umysłów.

PIOTR ŻAK: Na pewno odpowiadała Pani na to pytanie dziesiątki razy, ale czuję jakąś wewnętrzną potrzebę, żeby je zadać...

POLECAMY

ALEKSANDRA PRZEGALIŃSKA-SKIEROWSKA: Czy sztuczna inteligencja nas zabije?

Dokładnie...

Raczej nie. Nie wierzę, że sztuczna inteligencja, czyli artificial intelligence, zbuntuje się. Wszystko natomiast zależy od tego, jak będziemy korzystać ze sztucznej inteligencji. Testowana jest na przykład broń autonomiczna...

Korea Południowa podobno już ustawiła na granicy strefy buforowej z Koreą Północną karabiny maszynowe, które rozpoznają ludzkie sylwetki i pytają o hasło. Strzelają, jeśli człowiek nie potrafi go podać.

Właśnie o coś takiego mi chodzi. Nie ma co się oszukiwać, sztuczną inteligencję wykorzystuje się wprost do zabijania ludzi. W takim kontekście rzetelna odpowiedź jest taka, że sztuczna inteligencja może zabijać ludzi, ale trzeba koniecznie dopowiedzieć: na życzenie innych ludzi.

Przyjdzie taki dzień, w którym „myślenie” sztucznej inteligencji całkowicie wymknie się spod kontroli ludzi?

Wydaje mi się, że jeśli nawet tak się stanie, to ona nie wymyśli nic nowego. Dla mnie zagrożenie tkwi w czymś innym – że ludzie za bardzo będą ufać jej werdyktom, będą je przyjmować bez refleksji. W pewnym momencie przestaną o nią dbać, usprawniać jej pracę. Nietrudno sobie wyobrazić, że sztuczna inteligencja przeprowadzi analizę danych i powie, że Kowalskiego trzeba wyeliminować, albo zamiast żołnierza każe zabić cywila w zielonej czapce z daszkiem. Może wtedy ktoś nie będzie się z nią zgadzał, ale w końcu ustąpi, bo przecież algorytm, według którego inteligencja pracuje, sprawdzał się wiele razy, więc i teraz też pewnie dobrze zadziałał. Istnieje coś takiego jak bias algorytmiczny, czyli przechył algorytmiczny. Oznacza on, że sztuczna inteligencja, „nakarmiona” określonymi danymi, może dyskryminować ludzi czy źle ich diagnozować. Jeśli więc nie będziemy jej doskonalić, to będzie takie błędy popełniać. Niedawno w Amazonie sztuczna inteligencja rekrutowała ludzi do pracy. Po zakończeniu rekrutacji okazało się, że wybrała samych mężczyzn. Dlaczego? Bo działała według algorytmu, który nakazywał jej wybór ludzi podobnych do tych, jacy już pracowali w firmie. Ponad 80 procent załogi stanowili mężczyźni. Sztucznej inteligencji nie obchodziły umiejętności, tylko płeć, bo uznała, że to ona jest reprezentatywna dla zespołu pracującego w Amazonie. Szefostwo jednak szybko zrozumiało, jakie mogą być skutki tej sytuacji dla firmy, i zrezygnowało z usług sztucznej inteligencji jako rekrutera. 

A czym tak naprawdę jest sztuczna inteligencja?

Proszę mi wierzyć, sami mamy problemy ze zdefiniowaniem, czym ona jest. Można chyba powiedzieć tak: są to sztuczne, stworzone przez człowieka systemy, zdolne do adaptacji w zmieniającym się środowisku, a więc wykazujące się pewną inteligencją, rozumianą właśnie jako zdolność do reagowania na nowe okoliczności. I co bardzo ważne, są w stanie do pewnego stopnia naśladować przynajmniej niektóre funkcje mentalne człowieka. Sztandarowym przykładem tego naśladownictwa może być przetwarzanie języka naturalnego przez sztuczną inteligencję. Wystarczy przywołać choćby Siri czy Alexę – to typowe systemy, które potrafią przetwarzać język naturalny. Innym przykładem jest tzw. widzenie maszynowe, a więc zdolność maszyny do percepcji otoczenia, czyli np. wykrywania obiektów wokół siebie. Dzięki kamerom ona nie tylko „widzi”, ale też potrafi rozpoznawać to, co ją otacza. Tak działają choćby systemy rozpoznawania przeszkód na drodze montowane we współczesnych samochodach. Trzecia ważna dyscyplina, która upodabnia sztuczną inteligencję do człowieka, to robotyka, czyli tworzenie takich systemów, które w pewnym stopniu posiadły coś, co możemy nazwać inteligencją cielesną. Wiedzą, gdzie jest oś ich „ciał”, potrafią utrzymać równowagę, chodzić, skakać czy nawet rzucać, potrafią też dostosowywać chód do podłoża. Najbardziej zaawansowane roboty buduje obecnie Boston Dynamics. One świetnie dostosowują się do otoczenia, pokonują przeszkody, dźwigają spore ciężary. Kolejne podobieństwo to uczenie maszynowe. Dajemy systemowi sztucznej inteligencji bardzo dużo danych, a on je analizuje i przetwarza. Z każdą próbą staje się coraz lepszy w tym, co robi. 

Naukowcy sami mają problemy ze zdefiniowaniem, czym jest AI.

 

Kilka razy spotkałem się ze stwierdzeniem, że systemy sztucznej inteligencji powinny być „wysokokontekstowe”. Co to znaczy?

Ja i moi koledzy zajmujemy się botami, czyli systemami przetwarzającymi język naturalny. Dążymy do tego, żeby dobrze rozumiały ludzką mowę i sensownie odpowiadały na to, co słyszą od ludzi. Zatem dla nas system wysokokontekstowy to taki system, który potrafi rozpoznawać sytuację i właściwie na nią reagować. Dzisiejsze boty są na ogół bardzo proste, bo potrafią reagować wyłącznie na zdarzenia czy pytania, które mają zapisane w pamięci.

Niedawno mieliśmy awarię Internetu w domu. Zadzwoniłem do operatora i ku mojemu zdumieniu usłyszałem: „Dzień dobry, tu bot Maks. W czym mogę pomóc?”. Podał mi potrzebny numer, znał stan mojego konta. 

Czyli to był taki prosty system. O wiele lepiej rozwinięta jest Alexa, domowy asystent Amazona. Alexa doskonale rejestruje ludzką mowę. Powiedzmy, że chcę zamówić pizzę. Mówię o tym Alexie, ona pyta, w jakiej sieci chcę złożyć zamówienie, po czym sprawnie spełnia polecenie i jeszcze informuje, ile będę na pizzę czekać. Alexa może też regulować temperaturę w moim domu, jeśli mam zainstalowane inteligentne termostaty, albo puszczać muzykę z moich playlist. Alexa rozmawia ze mną tak, że nie muszę korzystać z list poleceń czy wpisywać kodów, bo od razu dosyć dobrze rozumie, o co mi chodzi. Możemy też wyobrazić sobie taki system, który sam zadawałby mi pytania, np. „Aleksandro, w mieszkaniu robi się ciepło. Czy chcesz, żebym zmniejszył temperaturę?”, i obniżyłby ją zgodnie z moim życzeniem. Albo rano rozpozna, że się obudziłam, i zaproponuje mi zaparzenie kawy. Wracając jeszcze do poprzedniego pytania: o kontekstowości mówimy więc wtedy, kiedy mamy systemy, które pobierają dane na bieżąco i na ich podstawie reagują odpowiednio do sytuacji. W przyszłości – myślę, że niedalekiej – dominować będą systemy kontekstowe, a więc potrafiące się odnaleźć w różnych interakcjach.

Duży wpływ na to, jak rozumiemy czyjąś wypowiedź, ma jej kontekst emocjonalny. Czy maszyny będą na niego reagować? 

Na pewno. Jeśli taki system na przykład usłyszy mój podniesiony głos, to przeanalizuje nie tylko sens wypowiedzi, ale też inne towarzyszące jej elementy, jak ciśnienie krwi czy puls. A potem łagodnie zapyta, czy jestem zdenerwowana i czy może mam ochotę na herbatę. Do Alexy już teraz mogę powiedzieć: „Słuchaj, przez najbliższe dwie godziny nie będę rozmawiać” i ona przez ten czas się do mnie nie odezwie, nawet jeśli będę do niej mówić. Generalnie chodzi o to, żeby te systemy coraz lepiej rozumiały otoczenie i coraz sprawniej pobierały z niego dane, by lepiej reagować na konkretną sytuację.

Czy te systemy, o których Pani mówi, będą potrzebowały tak ogromnej masy danych, jak np. współczesne systemy diagnozujące nowotwory?

Trudno dzisiaj odpowiedzieć na takie pytanie. Kilka miesięcy temu Google zaprezentował system Duplex. Przyjmuje on i wykonuje polecenia dotyczące dwóch spraw: rezerwowania stolików w restauracjach i zamawiania różnych usług, np. wizyty u fryzjera czy kosmetyczki. W Internecie są dostępne nagrania zamówień, jakie składał Duplex. Chyba nikt nie zorientował się, że rozmawia z maszyną, ale ciekawe jest też co innego: ten system w logiczny sposób używa wykrzykników w rodzaju „Aha”, „Ehm” czy „Hmmm”. Co więcej, nawet jeśli jego rozmówca nie wypowie zdania do końca albo powie coś niegramatycznie, to on i tak z kontekstu potrafi przewidzieć dalszy ciąg wypowiedzi i trafnie zareagować.

To fascynujące!

Oczywiście, tylko jest pewne „ale”... Wie pan, jak długo konstruktorzy uczyli system prawidłowego reagowania w tych dwóch obszarach, które przecież stanowią znikomy ułamek naszego życia? Sześć lat! Potrzeba było sześciu lat, żeby Duplex zrozumiał, jak ludzie mówią, kiedy rezerwują stolik w restauracji czy umawiają się na wizytę u kosmetyczki. Ta historia jest dla nas pewnego rodzaju lekcją pokory.

A wracając do pana pytania: jak powiedziałam, trudno dzisiaj przewidzieć, czy maszyny będą potrzebowały mniejszych zasobów danych. Można natomiast ze sporym prawdopodobieństwem założyć, że każdą kolejną umiejętność opanują nieco szybciej niż poprzednią. Na razie jeszcze nie znaleźliśmy na to sposobu, ale wydaje mi się, że to kwestia nieodległej przyszłości. Pewne jaskółki już są, np. słynny system AlphaGo, który opanował grę Go, uważaną za najtrudniejszą na świecie. System dostał mnóstwo informacji o strategii i dotychczas rozegranych partiach, nauczył się zasad i zaczął grać. Bardzo dużo...

Ten artykuł dostępny jest tylko dla Prenumeratorów.

Sprawdź, co zyskasz, kupując prenumeratę.

Zobacz więcej

Przypisy