Dołącz do czytelników
Brak wyników

Ja i mój rozwój , Praktycznie

8 sierpnia 2018

Lepiej szacować czy dogłębnie analizować?

80

Czy posiadanie obszernych informacji gwarantuje podjęcie lepszej, bardziej trafnej decyzji? Niekoniecznie. W wielu sytuacjach proste strategie są skuteczniejsze niż wyczerpujące analizy.

Większe koszty to lepsze wyniki. W ten sposób myślimy o osiągnięciach sportowych, innowacjach technicznych, a także o rozwiązywaniu codziennych problemów. Już w 1772 roku amerykański odkrywca i przedstawiciel oświecenia Benjamin Franklin przekonywał: Kto stoi przed trudnym wyborem, powinien rozważyć wszystkie za i przeciw, uporządkować je według ważności, następnie porównać ze sobą wszystkie przeciwstawne argumenty i wybrać to rozwiązanie, którego argumenty przeważają.

POLECAMY

Zgodnie z „moralną algebrą” Franklina optymalną drogą do osiągnięcia celu jest zebranie jak największej liczby informacji, zaś proste schematy i decyzje podjęte pod wpływem intuicji prowadzą nieuchronnie do błędów. Takie myślenie wydaje się całkiem logiczne, a pokolenia filozofów i naukowców przez długi czas nie podawały go w wątpliwość. Dopiero z początkiem ery komputerów i epoki oszczędzania czasu postawiono pytanie, czy istnieją szybsze sposoby, które mogą doprowadzić nas do poprawnego rozwiązania danego problemu.

Takie proste i szybkie sposoby podejmowania decyzji stale towarzyszą naszemu życiu. Nikt z nas nie ma tyle czasu, by w każdej sytuacji gruntownie analizować wszelkie za i przeciw.
Często nie dysponujemy nawet wszystkimi potrzebnymi informacjami do przeprowadzenia takich kalkulacji.

Kiedy lepiej wiedzieć mniej?
Jedną z najbardziej znanych i najprostszych strategii, stosowaną przez każdego z nas w rozmaitych sytuacjach, w 2008 roku wziął pod lupę Thorsten Pachur ze współpracownikami z Universität Basel. Uczestnicy badania odpowiadali na pytania typu: „Który szczyt jest wyższy – Matterhorn czy Piz Morteratsch?”. Ponieważ żaden z badanych nie znał ich dokładnej wysokości, większość wybierała Matterhorn, kierując się tym, że nazwa tej góry jest bardziej znana. Być może zupełnie nieświadomie posłużyli się oni w tym kontekście najskuteczniejszą strategią, gdyż o najwyższych szczytach słyszy się częściej niż o tych niższych. A Matterhorn jest rzeczywiście wyższy niż Piz Morteratsch. Ponieważ ta taktyka opiera się na wskazówkach płynących z naszego otoczenia, środowiska, eksperci określają ją jako strategię „ekologicznie racjonalną”.
Mniejszy zasób wiedzy bywa zatem czasem lepszy niż jej nadmiar: im większa liczba szczytów, o których słyszymy, tym trudniej je uszeregować pod względem wielkości i prawdopodobieństwo popełnienia błędu rośnie.

W 2003 roku Sascha Serwe z Universität Gießen i Christian Frings z Universität des Saarlandes przedstawili rezultaty badań, obrazujące potencjał tej taktyki. Na podstawie wyników ankiety stworzyli prognozę wyników rozgrywek tenisowych w Wimbledonie. Okazało się, że aż 70 procent przewidywań uczestników badania, opierających swoje prognozy wyłącznie na tym, na ile dany tenisista był im znany, pokryło się z wyliczeniami ekspertów, którzy posłużyli się skomplikowanymi analizami informacji na temat sportowców.

W rzeczywistości wiele stosowanych przez nas strategii wnioskowania odwołuje się do naszej zdolności spostrzegania i zapamiętywania. Przykładowo, szachiści, wykonując określony ruch, opierają się nie na wyobrażaniu sobie każdego możliwego posunięcia (jak sądzi wielu amatorów), ale wykorzystują swoje dotychczasowe doświadczenie z poprzednich partii i wybierają tę akcję, która kiedyś w podobnej sytuacji okazała się najbardziej efektywna.

Z kolei komputer szachowy wykonuje znacznie bardziej czasochłonną operację i symuluje setki możliwych ruchów na kilka rund z góry. Gdybyśmy mieli nieograniczony czas na wykonanie kolejnego ruchu, taka strategia byłaby teoretycznie najlepsza. Ze względu na coraz większą moc komputerów pokonanie szachowego mistrza świata było więc tylko kwestią czasu – „Deep Blue” pokonał Garriego Kasparowa w 1997 roku.

Komputer uczy szacowania
Przez długi czas heurystyki tego typu uznawane były za techniki oszczędzające czas kosztem precyzyjności decyzji. Dopiero ostatnie dziesięciolecia pokazały, że w niektórych sytuacjach szacowanie jest lepsze niż analizy.

W 1996 roku odbył się swego rodzaju pojedynek między programami komputerowymi, przeprowadzony przez psychologów poznawczych Gerda Gigerenzera i Daniela Goldstei[-]na. Wyzwanie polegało na oszacowaniu wielkości: w którym z prezentowanych niemieckich miast mieszka więcej ludzi. Każdy program dysponował dziewięcioma wskazówkami na temat danego miasta. Podpowiedziami były odpowiedzi TAK lub NIE na takie pytania, jak: „Czy chodzi o miasto będące stolicą?” lub „Czy w tym mieście znajduje się uniwersytet?”. Następnie programy szacowały wielkość określonego miasta. Wśród faworytów pojedynku był program do analizy statystycznej, który najpierw trenował na realnych liczbach mieszkańców, aby podawane w eksperymencie wskazówki wykorzystać z możliwie największą precyzją.

Gigerenzer i Goldstein również dokonywali oceny prezentowanych miast, posługując się heurystyką „take-the-best” („wybierz to, co najlepsze”). W związku z tym porównywali miejscowości w oparciu o najbardziej charakterystyczne wskazówki. Wybierali więc to miasto, które w zakresie najważniejszych wskazówek wypadało pozytywnie. Gdy na podstawie pierwszej najistotniejszej podpowiedzi nie można było podjąć decyzji, wybierali kolejną pod względem ważności wskazówkę.

Przewaga prostoty
Wyniki symulacji zaskoczyły naukowców: pomiędzy odpowiedziami udzielanymi w oparciu o heurystyki a tymi opracowywanymi przez złożone programy nie zaobserwowano niemal żadnej różnicy. Przy tym metoda
„take-the-best” wymagała znacznie mniej czasu i znacznie mniej informacji, ponieważ gdy tylko odpowiedź została znaleziona, kolejne wskazówki nie były wykorzystywane.

Sekret skuteczności tej heurystyki także leży w ignorowaniu zbędnych informacji. Gdy tylko pojawia się najlepsza podpowiedź, np. „to miasto jest stolicą województwa”, kolejne wskazówki prowadzą najczęściej w tym samym kierunku i w żaden sposób nie poprawiają skuteczności oceny.

Takie podejście pokazało zupełnie nowe rozumienie tego, czym jest racjonalne podejmowanie decyzji. Racjonalność przestała już dotyczyć wyłącznie sytuacji, w której niezbędna jest maksymalna ilość informacji. Okazało się bowiem, że prosty wybór, a nawet celowe pomijanie pewnych danych może przynieść pożądany efekt, a przy tym pozwala zaoszczędzić czas.

W określonych okolicznościach stosowanie heurystyk przynosi nawet lepsze efekty niż złożona analiza! Dzieje się tak w przypadku skomplikowanych systemów, które zawierają niezliczone i różnorodne wielkości. Wówczas precyzyjne obliczenia mogą doprowadzić do zjawiska tzw. overfittingu, czyli nadmiernego dopasowania: podążanie za kompleksowymi informacjami, w tym także przypadkowymi odchyleniami, może prowadzić do popełniania błędów. Natomiast heurystyki z reguły chronią nas przed rozpraszającymi, zbędnymi informacjami.

Skomplikowane strategie nie mają racji bytu
Efekt ten jest szczególnie widoczny w świecie finansów, a zwłaszcza na giełdzie papierów wartościowych, zdominowanej przez sprytnych strategów. Wyobraź sobie, że zaoszczędziłeś jakąś sumę pieniędzy i chcesz ulokować je w akcjach. Ale w jakie papiery powinieneś zainwestować i jaką kwotę, żeby zyskać jak najwięcej przy jak najmniejszym ryzyku? Ekonomista Victor DeMiguel wraz z zespołem z London Business School przeprowadził w 2009 roku badanie, podczas którego pytał uczestników eksperymentu, czy podążanie za złożonymi strategiami inwestowania pieniędzy rzeczywiście przynosi większe zyski, niż kierowanie się prostymi zasadami zakupu akcji, w tym wypadku tzw. heurystyką 1/N.

Ta prosta strategia znalazła także swoje zastosowanie w tzw. teorii portfelowej, która w 1990 roku zapewniła amerykańskiemu ekonomiście Har[-]ry’emu Markowitzowi Nagrodę Nobla. Jej formuła, stworzona w 1952 roku, stanowi podstawę współczesnego zarządzania finansami. „Uczy się” ona z poprzednich trendów każdego papieru wartościowego i tworzy kompletny pakiet, w którym różnego rodzaju ryzyka znoszą się nawzajem, tak że w przypadku każdego rozwoju rynku pośrodku powstaje optymalny zysk.

Ekonomiści testowali każdą strategię w oparciu o rzeczywiste dane giełdowe na przestrzeni dziesięciu lat. Ku ich zaskoczeniu okazało się, że gdy liczba potencjalnych akcji była niska, kompleksowe modele były nieco bardziej skuteczne w ocenie zysków. Jednak gdy oszczędności zostały podzielone na kilkadziesiąt pakietów akcji, wówczas system 1/N przynosił większe zyski niż inne techniki!

W takiej sytuacji skomplikowane formuły nie mają szans, ponieważ na tak dużym rynku, na którym dysponujemy wieloma pakietami akcji, trudno jest rozróżnić systematyczne trendy od przypadkowych wzrostów lub spadków wartości. Według obliczeń DeMiguela potrzebne byłyby dane z 250 lat wstecz, by przy pomocy kompleksowych analiz dla 25 pakietów akcyjnych osiągnąć lepsze rezultaty niż heurystyka 1/N.

Wynik ten nie do końca był nieoczekiwany. W rzeczywistości odzwierciedlał on zapewnienia, które od lat wygłaszali niektórzy eksperci giełdowi: inwestorzy wcale nie muszą w...

Ten artykuł dostępny jest tylko dla Prenumeratorów.

Sprawdź, co zyskasz, kupując prenumeratę.

Zobacz więcej

Przypisy