Dołącz do czytelników
Brak wyników

Psychologia i życie

4 lutego 2020

NR 2 (Luty 2020)

Algorytmy rządzą

49

Sztuczna inteligencja zaczyna decydować o losach ludzi. Ocenia, kto ma szanse znaleźć pracę, a kto ponownie popełni przestępstwo. Czy powinniśmy się cieszyć, czy raczej obawiać?

ANNA VON HOPFFGARTEN: Komputery będą coraz częściej o nas decydować. 

KATHARINA ZWEIG: Już to robią. Przykładem może być wyszukiwanie informacji w Internecie. Wpisujemy słowo do wyszukiwarki, a ona za nas decyduje, co nas może zainteresować. Podobnie duże sklepy internetowe, takie jak Amazon, polecają nam pasujące do nas produkty. 

Jak to działa? 

Podstawą wyszukiwarek są algorytmy, czyli sekwencje instrukcji postępowania dla komputera. Wyszukują informacje pasujące do określonego pytania i sortują je w logicznej kolejności! Niektóre z tych algorytmów są spersonalizowane – to znaczy decydują, jakie informacje są najistotniejsze dla danej osoby. W tym celu komputer korzysta z danych, które zebrał o tej osobie – na przykład z historii wyszukiwania albo dotychczasowych jej zachowań konsumenckich, by w efekcie podsunąć jej listę polecanych rozwiązań. 

Jako użytkownik mogę takie sugestie zignorować. Nie wszystkie jednak decyzje podejmowane przez maszyny będzie można obejść.

To prawda. W Stanach Zjednoczonych algorytmy decydują, czy więzień może wcześniej opuścić zakład karny i jakie jest prawdopodobieństwo, że ponownie złamie prawo. 

Skąd mogą to wiedzieć? 

Komputer dostaje dane o tysiącach przestępców – o ich wieku, dotychczasowych występkach, pochodzeniu czy poglądach. Dodatkowo ma zaznaczone, która z tych osób w ciągu dwóch lat wróciła na drogę przestępstwa. Przeczesuje więc ogromne ilości danych w poszukiwaniu zależności: na przykład sprawdza, jakie cechy występują często u przestępców, którzy ponownie złamali prawo, a jakie u tych, których udało się zresocjalizować. W oparciu o rezultaty tych obliczeń algorytm tworzy własną regułę podejmowania decyzji. 

Czy to oznacza, że potrafi wyciągać wnioski dotyczące nieznanej mu osoby? 

Dokładnie! Program komputerowy decyduje, czy ma ona cechy podobne do tych, jakie występują u recydywistów. Problem polega na tym, że komputer wykorzystuje dane pana Iksińskiego i pana Igrekowskiego, aby prognozować, czy pan Malinowski ponownie popełni przestępstwo. W przypadku sklepu internetowego Amazon komputer poleca produkty, bazując na historii zakupów danej osoby. Uważam, że to uczciwe. Jednak oceniając ryzyko, że ktoś ponownie popełni przestępstwo, komputer opiera się na zachowaniu ludzi, którzy są do tego kogoś jedynie podobni pod jakimś względem. 

Czy człowiek podjąłby inną decyzję niż algorytm? 

W Niemczech to ryzyko oceniają psychologowie albo psychiatrzy, którzy rozmawiają z przestępcami. Różnica polega na tym, że ekspert w każdej chwili może zadać inne pytanie. Komputer jest ograniczony do, powiedzmy, 120 możliwych wpisów. Nie może nagle zdecydować, że w określonym punkcie o coś dopyta dokładniej. 

Psycholog zapewne jest w stanie lepiej ocenić ryzyko? 

Nie można tak uogólniać. Na korzyść algorytmu przemawia fakt, że podejmuje całkowicie obiektywne decyzje, czyli w tych samych warunkach zawsze wyda identyczny osąd. Natomiast na decyzję człowieka można łatwo wpłynąć. I zmieni się ona zależnie od tego, czy coś właśnie zjadł albo czy zdenerwował się sprzeczką z żoną. 

A jak często komputer się myli? 

Wraz z moją grupą na Uniwersytecie Technicznym Kaiserslautern zbadałam, ile osób, które w prognozach sporządzonych w dniu opuszczenia zakładu karnego znalazły się w grupie wysokiego ryzyka, rzeczywiście ponownie popełniło przestępstwo. Rezultaty nie są oszałamiające. W przypadku przestępstw pospolitych przewidywania były trafne w ponad 70 proc., ale w przypadku poważnych przestępstw związanych z przemocą – zaledwie w 25 proc. A zatem trzy na cztery osoby, które algorytm zaszufladkował w grupie wysokiego ryzyka, trafiły tam niesłusznie. To powinno budzić obawy. Potrzebujemy dalszych badań dotyczących trafności takich ocen i przewidywań. I sprawdzenia, czy stają się one lepsze, gdy uczestniczą w nich maszyny. 

Wygląda na to, że póki co maszyny nie powinny decydować o naszej przyszłości. 

Niekoniecznie, mamy też pozytywne przykłady. Na przykład w Austrii tamtejszy urząd pracy testuje projekt polegający na tym, że algorytm przyporządkowuje bezrobotnych do jednej z trzech grup. Pierwsza obejmuje osoby, które bez dodatkowych szkoleń szybko znajdą pracę; druga te, które od dawna nie mają pracy i raczej szybko jej nie znajdą, nawet gdy przejdą szkolenia. Wsparcie i oferty szkoleń kierowane są do pozostałych bezrobotnych w nadziei, że najwięcej z nich skorzystają. 

Silna sztuczna inteligencja, która ewentualnie kiedyś powstanie, będzie w stanie wytyczać sobie własne cele i radzić sobie z różnymi problemami. 

 

Nie ma obaw, że algorytm pobłądzi? 

Nie, bo w tym przypadku na szczęście łatwo można stwierdzi...

Ten artykuł dostępny jest tylko dla Prenumeratorów.

Sprawdź, co zyskasz, kupując prenumeratę.

Zobacz więcej

Przypisy