Dołącz do czytelników
Brak wyników

Ja i mój rozwój , Praktycznie

8 sierpnia 2018

Lepiej szacować czy dogłębnie analizować?

28

Czy posiadanie obszernych informacji gwarantuje podjęcie lepszej, bardziej trafnej decyzji? Niekoniecznie. W wielu sytuacjach proste strategie są skuteczniejsze niż wyczerpujące analizy.

Większe koszty to lepsze wyniki. W ten sposób myślimy o osiągnięciach sportowych, innowacjach technicznych, a także o rozwiązywaniu codziennych problemów. Już w 1772 roku amerykański odkrywca i przedstawiciel oświecenia Benjamin Franklin przekonywał: Kto stoi przed trudnym wyborem, powinien rozważyć wszystkie za i przeciw, uporządkować je według ważności, następnie porównać ze sobą wszystkie przeciwstawne argumenty i wybrać to rozwiązanie, którego argumenty przeważają.

Zgodnie z „moralną algebrą” Franklina optymalną drogą do osiągnięcia celu jest zebranie jak największej liczby informacji, zaś proste schematy i decyzje podjęte pod wpływem intuicji prowadzą nieuchronnie do błędów. Takie myślenie wydaje się całkiem logiczne, a pokolenia filozofów i naukowców przez długi czas nie podawały go w wątpliwość. Dopiero z początkiem ery komputerów i epoki oszczędzania czasu postawiono pytanie, czy istnieją szybsze sposoby, które mogą doprowadzić nas do poprawnego rozwiązania danego problemu.

Takie proste i szybkie sposoby podejmowania decyzji stale towarzyszą naszemu życiu. Nikt z nas nie ma tyle czasu, by w każdej sytuacji gruntownie analizować wszelkie za i przeciw.
Często nie dysponujemy nawet wszystkimi potrzebnymi informacjami do przeprowadzenia takich kalkulacji.

Kiedy lepiej wiedzieć mniej?
Jedną z najbardziej znanych i najprostszych strategii, stosowaną przez każdego z nas w rozmaitych sytuacjach, w 2008 roku wziął pod lupę Thorsten Pachur ze współpracownikami z Universität Basel. Uczestnicy badania odpowiadali na pytania typu: „Który szczyt jest wyższy – Matterhorn czy Piz Morteratsch?”. Ponieważ żaden z badanych nie znał ich dokładnej wysokości, większość wybierała Matterhorn, kierując się tym, że nazwa tej góry jest bardziej znana. Być może zupełnie nieświadomie posłużyli się oni w tym kontekście najskuteczniejszą strategią, gdyż o najwyższych szczytach słyszy się częściej niż o tych niższych. A Matterhorn jest rzeczywiście wyższy niż Piz Morteratsch. Ponieważ ta taktyka opiera się na wskazówkach płynących z naszego otoczenia, środowiska, eksperci określają ją jako strategię „ekologicznie racjonalną”.
Mniejszy zasób wiedzy bywa zatem czasem lepszy niż jej nadmiar: im większa liczba szczytów, o których słyszymy, tym trudniej je uszeregować pod względem wielkości i prawdopodobieństwo popełnienia błędu rośnie.

W 2003 roku Sascha Serwe z Universität Gießen i Christian Frings z Universität des Saarlandes przedstawili rezultaty badań, obrazujące potencjał tej taktyki. Na podstawie wyników ankiety stworzyli prognozę wyników rozgrywek tenisowych w Wimbledonie. Okazało się, że aż 70 procent przewidywań uczestników badania, opierających swoje prognozy wyłącznie na tym, na ile dany tenisista był im znany, pokryło się z wyliczeniami ekspertów, którzy posłużyli się skomplikowanymi analizami informacji na temat sportowców.

W rzeczywistości wiele stosowanych przez nas strategii wnioskowania odwołuje się do naszej zdolności spostrzegania i zapamiętywania. Przykładowo, szachiści, wykonując określony ruch, opierają się nie na wyobrażaniu sobie każdego możliwego posunięcia (jak sądzi wielu amatorów), ale wykorzystują swoje dotychczasowe doświadczenie z poprzednich partii i wybierają tę akcję, która kiedyś w podobnej sytuacji okazała się najbardziej efektywna.

Z kolei komputer szachowy wykonuje znacznie bardziej czasochłonną operację i symuluje setki możliwych ruchów na kilka rund z góry. Gdybyśmy mieli nieograniczony czas na wykonanie kolejnego ruchu, taka strategia byłaby teoretycznie najlepsza. Ze względu na coraz większą moc komputerów pokonanie szachowego mistrza świata było więc tylko kwestią czasu – „Deep Blue” pokonał Garriego Kasparowa w 1997 roku.

Komputer uczy szacowania
Przez długi czas heurystyki tego typu uznawane były za techniki oszczędzające czas kosztem precyzyjności decyzji. Dopiero ostatnie dziesięciolecia pokazały, że w niektórych sytuacjach szacowanie jest lepsze niż analizy.

W 1996 roku odbył się swego rodzaju pojedynek między programami komputerowymi, przeprowadzony przez psychologów poznawczych Gerda Gigerenzera i Daniela Goldstei[-]na. Wyzwanie polegało na oszacowaniu wielkości: w którym z prezentowanych niemieckich miast mieszka więcej ludzi. Każdy program dysponował dziewięcioma wskazówkami na temat danego miasta. Podpowiedziami były odpowiedzi TAK lub NIE na takie pytania, jak: „Czy chodzi o miasto będące stolicą?” lub „Czy w tym mieście znajduje się uniwersytet?”. Następnie programy szacowały wielkość określonego miasta. Wśród faworytów pojedynku był program do analizy statystycznej, który najpierw trenował na realnych liczbach mieszkańców, aby podawane w eksperymencie wskazówki wykorzystać z możliwie największą precyzją.

Gigerenzer i Goldstein również dokonywali oceny prezentowanych miast, posługując się heurystyką „take-the-best” („wybierz to, co najlepsze”). W związku z tym porównywali miejscowości w oparciu o najbardziej charakterystyczne wskazówki. Wybierali więc to miasto, które w zakresie najważniejszych wskazówek wypadało pozytywnie. Gdy na podstawie pierwszej najistotniejszej podpowiedzi nie można było podjąć decyzji, wybierali kolejną pod względem ważności wskazówkę.

Przewaga prostoty
Wyniki symulacji zaskoczyły naukowców: pomiędzy odpowiedziami udzielanymi w oparciu o heurystyki a tymi opracowywanymi przez złożone programy nie zaobserwowano niemal żadnej różnicy. Przy tym metoda
„take-the-best” wymagała znacznie mniej czasu i znacznie mniej informacji, ponieważ gdy tylko odpowiedź została znaleziona, kolejne wskazówki nie były wykorzystywane.

Sekret skuteczności tej heurystyki także leży w ignorowaniu zbędnych informacji. Gdy tylko pojawia się najlepsza podpowiedź, np. „to miasto jest stolicą województwa”, kolejne wskazówki prowadzą najczęściej w tym samym kierunku i w żaden sposób nie poprawiają skuteczności oceny.

Takie podejście pokazało zupełnie nowe rozumienie tego, czym jest racjonalne podejmowanie decyzji. Racjonalność przestała już dotyczyć wyłącznie sytuacji, w której niezbędna jest maksymalna ilość informacji. Okazało się bowiem, że prosty wybór, a nawet celowe pomijanie pewnych danych może przynieść pożądany efekt, a przy tym pozwala zaoszczędzić czas.

W określonych okolicznościach stosowanie heurystyk przynosi nawet lepsze efekty niż złożona analiza! Dzieje się tak w przypadku skomplikowanych systemów, które zawierają niezliczone i różnorodne wielkości. Wówczas precyzyjne obliczenia mogą doprowadzić do zjawiska tzw. overfittingu, czyli nadmiernego dopasowania: podążanie za kompleksowymi informacjami, w tym także przypadkowymi odchyleniami, może prowadzić do popełniania błędów. Natomiast heurystyki z reguły chronią nas przed rozpraszającymi, zbędnymi informacjami.

Skomplikowane strategie nie mają racji bytu
Efekt ten jest szczególnie widoczny w świecie finansów, a zwłaszcza na giełdzie papierów wartościowych, zdominowanej przez sprytnych strategów. Wyobraź sobie, że zaoszczędziłeś jakąś sumę pieniędzy i chcesz ulokować je w akcjach. Ale w jakie papiery powinieneś zainwestować i jaką kwotę, żeby zyskać jak najwięcej przy jak najmniejszym ryzyku? Ekonomista Victor DeMiguel wraz z zespołem z London Business School przeprowadził w 2009 roku badanie, podczas którego pytał uczestników eksperymentu, czy podążanie za złożonymi strategiami inwestowania pieniędzy rzeczywiście przynosi większe zyski, niż kierowanie się prostymi zasadami zakupu akcji, w tym wypadku tzw. heurystyką 1/N.

Ta prosta strategia znalazła także swoje zastosowanie w tzw. teorii portfelowej, która w 1990 roku zapewniła amerykańskiemu ekonomiście Har[-]ry’emu Markowitzowi Nagrodę Nobla. Jej formuła, stworzona w 1952 roku, stanowi podstawę...

Ten artykuł dostępny jest tylko dla Prenumeratorów.

Sprawdź, co zyskasz, kupując prenumeratę.

Zobacz więcej

Przypisy