Dołącz do czytelników
Brak wyników

Wstęp

4 listopada 2015

Rozum w sieci przemieniony

0 508

Wzorowane na budowie mózgu sieci neuropodobne już wkrótce otworzą kolejną wielką epokę w nauce. Epokę sztucznej inteligencji, w której maszyny będą przyswajać wiedzę szybciej i używać jej skuteczniej niż ludzie.

Nikt nie lubi być zaskakiwany przez własny komputer. Na pojawiające się na ekranie tajemnicze informacje o błędach reagujemy irytacją i wyrzucamy temu przedmiotowi złośliwość. Naprawdę jednak zachowanie naszego peceta jest w pełni przewidywalne i zrozumiałe – niekoniecznie dla szarego użytkownika, ale dla programisty tak. W klasycznym podejściu AI (z ang. Artificial Inteligence – sztuczna inteligencja) zachowanie i odpowiedzi „krzemowego ucznia” są determinowane algorytmami. Ich autor-„nauczyciel”, czyli programista, jest w stanie krok po kroku prześledzić ścieżkę rozumowania maszyny.

To jednak może się niedługo zmienić. Powstały już systemy uczące się – sieci neuropodobne wzorowane na budowie mózgu – które po skończonym kursie przewyższają umiejętnościami swoich mistrzów. Jak zatem działają? Przez wiele lat komputer był metaforą inteligencji. Klasyczne, symboliczne modele przetwarzania informacji opierały się na znalezieniu odpowiednich algorytmów wykonania każdego zadania – maszyna działająca według nich powinna poradzić sobie z każdym problemem, jeśli tylko ma zaprogramowaną odpowiednią regułę. Inaczej mówiąc, jeśli tylko rozpiszemy problem na odpowiednie warunki logiczne i przypiszemy im odpowiednie działanie, zadanie zostanie rozwiązane. Jeśli dzieje się A – zrób B, jeśli nie A, to sprawdź, czy nie jest to C lub D. Jeśli tak, wykonaj E albo F. Tego typu reguły nazywamy właśnie algorytmami. Przy odpowiedniej ich liczbie i komplikacji możliwe jest zaprogramowanie bardzo skomplikowanych ciągów zachowań. Powstało nawet powiedzenie, że inteligencja to „100 milionów reguł”. Problem w tym, że nawet przy takiej ich liczbie algorytmy nie wystarczą, aby rozpoznać chociażby drzewo.

Wydaje się to niemożliwe, bo przecież każde dziecko to potrafi, a jednak. Jeśli przyjrzymy się problemowi bliżej, okazuje się, że jest on wyjątkowo trudny. Bo czy istnieje definicja drzewa? Patrząc na to, jak radzimy sobie z odróżnianiem drzew od innych przedmiotów, można sądzić, że ona nie jest w ogóle potrzebna. Mechanizm, który pozwala nam nie pomylić się w takich przypadkach, polega raczej na spełnieniu przez obiekt naszej uwagi jak największej liczby warunków. Drzewo nie może się poruszać, ma pień, dużo liści albo igły. Im więcej warunków spełni, tym lepiej. Ten sposób kategoryzacji jest idealny w sytuacji nieostrych pojęć, braku definicji czy posiadania niepełnej informacji. Tymczasem zwykły komputer w takich momentach zupełnie sobie nie radzi. Hierarchia trudnych problemów jest dla niego zupełnie inna niż dla człowieka – to, co dla nas jest łatwe, niekoniecznie jest łatwe dla komputera, i na odwrót. Skąd powstała ta różnica, skoro architektura komputera miała być metaforą ludzkiego umysłu?

Mózg a komputer

Nauka o umyśle od dawna umiejscawia procesy poznawcze w mózgu. Nikt nie wątpi, że to układ nerwowy odpowiada za przetwarzanie informacji, uczenie się i inne zagadki umysłu. Od dawna również wiadomo, jak w mózgu może zachodzić uczenie – już w 1949 roku Donald O. Hebb stwierdził, że komórki nerwowe, które razem wysyłają impulsy elektryczne, wzmacniają swoje połączenia. Dlaczego więc nikt nie wykorzystał tej wiedzy w projektowaniu komputera?
Cała trudność leży w przełożeniu tego, co dzieje się w mózgu, na to, co dzieje się w umyśle. Od dawna wiemy, że mózg składa się z wielu komórek wchodzących ze sobą w interakcję. Jak jednak ma się to do naszych introspekcyjnych doznań, myśli, których ciąg możemy śledzić krok po kroku? Brak odpowiedniości między tymi poziomami analizy doprowadził Jerry’ego Fodora, filozofa i badacza umysłu, do stwierdzenia na początku lat 80. minionego stulecia, że nauki poznawcze powinny zajmować się myśleniem jako ciągiem operacji na symbolach. I dzięki temu nasze komputery działają w oparciu o ciągi reguł – algorytmy.
Ma to swoje zalety – komputer się nie myli. Z samej definicji algorytmu wynika, że zawsze prowadzi on do sukcesu. Gdyby udało się opisać drzewo regułami, komputer nigdy nie sklasyfikowałby niedrzewa jako drzewa.

Działanie sieci neuropodobnych nie opiera się już na sztywnych regułach. Wzorowane na architekturze układu nerwowego, zyskały elastyczność naszego myślenia, ale jednocześnie straciły nieomylność komputera. Tak jak my robią błędy. Ale również tak jak my potrafią poradzić sobie z rzeczywistymi problemami.

Jak to działa

Trudności w przekładaniu procesów myślowych na działalność mózgu wiązały się przede wszystkim z niewyobrażalną wręcz złożonością zachodzących w nim procesów biologicznych. Jeden neuron sam w sobie jest już niezłym komputerem! Jednak Warren McCulloch i Walter Pitts, neurofizjologowie, twórcy najbardziej znanego binarnego modelu neuronu, już w latach 40. dwudziestego wieku pokazali, że działanie komórki nerwowej można zrozumieć, patrząc na jej funkcje, a nie na mechanizmy działania. Jeśli przymkniemy oko na skomplikowane zasady rządzące równowagą na błonie neuronu i na kaskady procesów molekularnych wewnątrz komórki, okaże się, że neuron jest swego rodzaju stacją przekaźnikową. Zbiera sygnały od innych neuronów, potęguje je lub osłabia i wysyła dalej. Dla dalszego uproszczenia McCulloch i Pitts przyjęli, że stan neuronu można właściwie opisać jako stopień jego pobudzenia: jeśli odebrał dużo sygnałów od innych komórek, będzie silnie pobudzony, jeśli mało – słabo. W pierwszym przypadku będzie starał się pobudzić dalsze komórki i wyśle do nich silny sygnał, w drugim postara się je zahamować. Jeśli podsumujemy te zasady, okaże się, że podstawowe elementy sieci nerwowych w mózgu to komórki i ich połączenia. I to wystarczy, aby stworzyć sieć neuropodobną. Jak ją jednak czegoś nauczyć?

Z pomocą przychodzi wspomniana wcześniej zasada uczenia Hebba. Przenosząc ją z rzeczywistych komórek mózgu na nieco abstrakcyjny poziom sieci neuropodobnych, można powiedzieć, że pomiędzy zjawiskami, które występują razem, tworzą się silne połączenia – skojarzenia. I tak na przykład z drzewem silnie kojarzy nam się pień i brązowa kora, nieco słabiej kora biała, a już zupełnie nie przypominamy sobie, aby drzewa się ruszały. Wykorzystując zasadę tworzenia połączeń między jednostkami odpowiedzialnymi za współwystępujące cechy przedmiotów, możemy stworzyć sieć neuropodobną wykonującą proste zadanie poznawcze – rozpoznawanie.

Wyobraźmy sobie, że naszym zadaniem jest odróżnić od siebie dwa zwierzęta, na przykład lwa od żaby, i dla poradzenia sobie z nim tworzymy sieć neuropodobną. Dla uproszczenia załóżmy, że nasza sieć będzie otrzymywać tylko informacje o trzech cechach zwierzęcia: kolorze (zielony), rozmiarze (duży) i owłosieniu (włochaty). Ponieważ lwy są duże i mają gęstą grzywę, te dwie cechy muszą zostać ze sobą skojarzone – tworzymy między nimi silne, pobudzające połączenie. Natomiast żaden lew nie jest zielony. Między cechami „zielony” i „grzywa” oraz „zielony” i „duży” powstaje połączenie hamujące. Żaby za to ani nie są duże, ani nie mają futra, najczęściej jednak są zielone. Dodatkowo umacniamy więc hamowanie między cechami „zielony” i „grzywa”/„duży”. W tej chwili nasza sieć jest już gotowa zmierzyć się z zadaniem.

Tym samym zakończyliśmy pierwszy etap działania sieci – etap uczenia, który sprowadza się do zmian połączeń (dynamiki synaps). W drugim etapie sieć musi wykorzystać swoje umiejętności do rozpoznania. Połączenia nie będą się już zmieniać, będą się natomiast zmieniać stany komórek (dynamika stanów). W najprostszym przypadku sieć spotka się z dokładnie tym samym zwierzęciem, na którym ją uczyliśmy. Jeśli to będzie lew, jej „czujniki” stwierdzą, że ma grzywę i jest duży. Odpowiadające za to komórki pobudzą się. Ponieważ pomiędzy nimi a komórką „zielony” istnieją połączenia hamujące, komórka ta pozostanie niepobudzona. Analogicznie, jeśli pokażemy sieci żabę, pobudzona zostanie komórka „zielony”, a pozostałe zostaną zahamowane.
Co jednak, jeśli sieć dostanie na wejściu niepełny obraz? Na przykład zobaczy tylko, że zwierzę ma grzywę, natomiast nie będzie w stanie dostrzec, czy jest duże, czy też małe, ani jaki ma kolor? Pobudzona zostanie więc tylko komórka „grzywa”. W tej sytuacji dzięki dodatniemu połączeniu między nią a komórką „duży” pobudzenie rozejdzie się do tej drugiej. Natomiast hamujące połączenie z „zielony” znów wygasi pobudzenie ostatniej komórki. Sieć dojdzie więc do takiego samego stanu, jakby zobaczyła pełny obraz!

W momencie, w którym stany poszczególnych komórek przestają się zmieniać, mówimy, że sieć doszła do stanu stabilnego, zwanego atraktorem. Jest to równoznaczne z rozpoznaniem bodźca – pobudzenie komórek jest identyczne jak w przykładach, na których sieć była uczona. Model sieci neuronowej o tym typie architektury i dynamiki nazywamy siecią atraktorową – jej „pamięci” to atraktory, określone konfiguracje stanów komórek.

Demony w sieci

Drugi najbardziej znany typ sieci neuronowych to sieć warstwowa. Wzorowana jest na mózgowej hierarchii przetwarzania informacji, obowiązującej zwłaszcza we wstępnych etapach obróbki informacji sensorycznej. Sieć atraktorowa to układ jednostek połączonych ze sobą, bardzo często każda z każdą. Pobudzenia rozchodzą się w niej we wszystkich kierunkach. Tymczasem w sieci warstwowej komórki ułożone są w warstwy (minimum trzy: wejściową – odpowiadającą informacji sensorycznej, ukrytą, wyjściową – będącą odpowiedzią sieci), a informacja przepływa tylko w jednym kierunku – od wejścia do wyjścia. Inne są również metody uczenia takiej sieci. Jak w takiej strukturze mogą zachodzić proste procesy poznawcze, na przykład rozpoznawanie?

Dobrym przykładem sieci warstwowej jest stworzony pod koniec lat 50. minionego wieku przez Olivera Selfridge’a, badacza sztucznej inteligencji, model pandemonium. To właściwie hipotetyczny model rozpoznawania liter w mózgu, ale doskonale oddaje istotę przetwarzania informacji w sieci warstwowej. Świetnie pokazuje również, jak w hierarchicznym układzie sensorycznym, jakim są pierwsze piętra przetwarzania wzrokowego, rosnąca specjalizacja umożliwia percepcję i rozpoznanie złożonych kształtów. A wszystko to dzięki kilku „demonom”, jak nazwał komórki swojej sieci Selfridge.

Dane neurofizjologiczne pokazują, że na pewnym etapie analiza wzrokowa liter uwzględnia rozpoznanie prostych kształtów, takich jak linie proste, krzywe czy kąty. Od tego etapu percepcji zaczyna się pandemonium, czyli sieć demonów rozpoznająca litery. Pierwsza warstwa sieci to demony odpowiadające na pokazanie poszczególnych wzorów. Warstwa ta symbolizuje komórki kory wzrokowej reagujące pobudzeniem na pojawienie się w ich polu percepcyjnym linii i kątów o odpowiednim nachyleniu. I tak mamy demona, który uaktywni się, jeśli w pokazanej literze wystąpi kąt ostry skierowany ku górze, tak jak w A. Mamy też takiego, który zareaguje na krzywą podobną do brzuszka w D, oraz demona pobudzanego poziomą kreską.

Demony te „krzyczą” głośno (wysyłają pobudzenie), jeśli ich kształt pojawił się w pokazanej literce. Demony drugiej warstwy, które są demonami liter, mocno „nadstawiają uszy” w kierunku tych demonów pierwszej warstwy, które reagują na kształty występujące w ich własnej literce (czyli odbierają od nich pobudzenie). Potem „krzyczą” tak głośno, jak pozwala im pobudzenie z poprzedniej warstwy. Jeśli pokazaliśmy A, to w pierwszej warstwie uaktywni się demon kąta ostrego i demon poziomej kreski – obydwa mają silne połączenia z demonem A w drugiej warstwie i dzięki temu mocno go zaktywują. Nie będzie natomiast pobudzony demon brzuszka, więc milczeć...

Ten artykuł dostępny jest tylko dla Prenumeratorów.

Sprawdź, co zyskasz, kupując prenumeratę.

Zobacz więcej

Przypisy