Rozum w sieci przemieniony

Wstęp

Wzorowane na budowie mózgu sieci neuropodobne już wkrótce otworzą kolejną wielką epokę w nauce. Epokę sztucznej inteligencji, w której maszyny będą przyswajać wiedzę szybciej i używać jej skuteczniej niż ludzie.

Nikt nie lubi być zaskakiwany przez własny komputer. Na pojawiające się na ekranie tajemnicze informacje o błędach reagujemy irytacją i wyrzucamy temu przedmiotowi złośliwość. Naprawdę jednak zachowanie naszego peceta jest w pełni przewidywalne i zrozumiałe – niekoniecznie dla szarego użytkownika, ale dla programisty tak. W klasycznym podejściu AI (z ang. Artificial Inteligence – sztuczna inteligencja) zachowanie i odpowiedzi „krzemowego ucznia” są determinowane algorytmami. Ich autor-„nauczyciel”, czyli programista, jest w stanie krok po kroku prześledzić ścieżkę rozumowania maszyny.

To jednak może się niedługo zmienić. Powstały już systemy uczące się – sieci neuropodobne wzorowane na budowie mózgu – które po skończonym kursie przewyższają umiejętnościami swoich mistrzów. Jak zatem działają? Przez wiele lat komputer był metaforą inteligencji. Klasyczne, symboliczne modele przetwarzania informacji opierały się na znalezieniu odpowiednich algorytmów wykonania każdego zadania – maszyna działająca według nich powinna poradzić sobie z każdym problemem, jeśli tylko ma zaprogramowaną odpowiednią regułę. Inaczej mówiąc, jeśli tylko rozpiszemy problem na odpowiednie warunki logiczne i przypiszemy im odpowiednie działanie, zadanie zostanie rozwiązane. Jeśli dzieje się A – zrób B, jeśli nie A, to sprawdź, czy nie jest to C lub D. Jeśli tak, wykonaj E albo F. Tego typu reguły nazywamy właśnie algorytmami. Przy odpowiedniej ich liczbie i komplikacji możliwe jest zaprogramowanie bardzo skomplikowanych ciągów zachowań. Powstało nawet powiedzenie, że inteligencja to „100 milionów reguł”. Problem w tym, że nawet przy takiej ich liczbie algorytmy nie wystarczą, aby rozpoznać chociażby drzewo.

Wydaje się to niemożliwe, bo przecież każde dziecko to potrafi, a jednak. Jeśli przyjrzymy się problemowi bliżej, okazuje się, że jest on wyjątkowo trudny. Bo czy istnieje definicja drzewa? Patrząc na to, jak radzimy sobie z odróżnianiem drzew od innych przedmiotów, można sądzić, że ona nie jest w ogóle potrzebna. Mechanizm, który pozwala nam nie pomylić się w takich przypadkach, polega raczej na spełnieniu przez obiekt naszej uwagi jak największej liczby warunków. Drzewo nie może się poruszać, ma pień, dużo liści albo igły. Im więcej warunków spełni, tym lepiej. Ten sposób kategoryzacji jest idealny w sytuacji nieostrych pojęć, braku definicji czy posiadania niepełnej informacji. Tymczasem zwykły komputer w takich momentach zupełnie sobie nie radzi. Hierarchia trudnych problemów jest dla niego zupełnie inna niż dla człowieka – to, co dla nas jest łatwe, niekoniecznie jest łatwe dla komputera, i na odwrót. Skąd powstała ta różnica, skoro architektura komputera miała być metaforą ludzkiego umysłu?

Mózg a komputer

Nauka o umyśle od dawna umiejscawia procesy poznawcze w mózgu. Nikt nie wątpi, że to układ nerwowy odpowiada za przetwarzanie informacji, uczenie się i inne zagadki umysłu. Od dawna również wiadomo, jak w mózgu może zachodzić uczenie – już w 1949 roku Donald O. Hebb stwierdził, że komórki nerwowe, które razem wysyłają impulsy elektryczne, wzmacniają swoje połączenia. Dlaczego więc nikt nie wykorzystał tej wiedzy w projektowaniu komputera?
Cała trudność leży w przełożeniu tego, co dzieje się w mózgu, na to, co dzieje się w umyśle. Od dawna wiemy, że mózg składa się z wielu komórek wchodzących ze sobą w interakcję. Jak jednak ma się to do naszych introspekcyjnych doznań, myśli, których ciąg możemy śledzić krok po kroku? Brak odpowiedniości między tymi poziomami analizy doprowadził Jerry’ego Fodora, filozofa i badacza umysłu, do stwierdzenia na początku lat 80. minionego stulecia, że nauki poznawcze powinny zajmować się myśleniem jako ciągiem operacji na symbolach. I dzięki temu nasze komputery działają w oparciu o ciągi reguł – algorytmy.
Ma to swoje zalety – komputer się nie myli. Z samej definicji algorytmu wynika, że zawsze prowadzi on do sukcesu. Gdyby udało się opisać drzewo regułami, komputer nigdy nie sklasyfikowałby niedrzewa jako drzewa.

Działanie sieci neuropodobnych nie opiera się już na sztywnych regułach. Wzorowane na architekturze układu nerwowego, zyskały elastyczność naszego myślenia, ale jednocześnie straciły nieomylność komputera. Tak jak my robią błędy. Ale również tak jak my potrafią poradzić sobie z rzeczywistymi problemami.

Jak to działa

Trudności w przekładaniu procesów myślowych na działalność mózgu wiązały się przede wszystkim z niewyobrażalną wręcz złożonością zachodzących w nim procesów biologicznych. Jeden neuron sam w sobie jest już niezłym komputerem! Jednak Warren McCulloch i Walter Pitts, neurofizjologowie, twórcy najbardziej znanego binarnego modelu neuronu, już w latach 40. dwudziestego wieku pokazali, że działanie komórki nerwowej można zrozumieć, patrząc na jej funkcje, a nie na mechanizmy działania. Jeśli przymkniemy oko na skomplikowane zasady rządzące równowagą na błonie neuronu i na kaskady procesów molekularnych wewnątrz komórki, okaże się, że neuron jest swego rodzaju stacją przekaźnikową. Zbiera sygnały od innych neuronów, potęguje je lub osłabia i wysyła dalej. Dla dalszego uproszczenia McCulloch i Pitts przyjęli, że stan neuronu można właściwie opisać jako stopień jego pobudzenia: jeśli odebrał dużo sygnałów od innych komórek, będzie silnie pobudzony, jeśli mało – słabo. W pierwszym przypadku będzie starał się pobudzić dalsze komórki i wyśle do nich silny sygnał, w drugim postara się je zahamować. Jeśli podsumujemy te zasady, okaże się, że podstawowe elementy sieci nerwowych w mózgu to komórki i ich połączenia. I to wystarczy, aby stworzyć sieć neuropodobną. Jak ją jednak czegoś nauczyć?

Z pomocą przychodzi wspomniana wcześniej zasada uczenia Hebba. Przenosząc ją z rzeczywisty...

Pozostałe 80% artykułu dostępne jest tylko dla Prenumeratorów.



POLECAMY

Przypisy