Świńska grypa

Właśnie Marsh opublikował kolejny poradnik z cyklu „jak nie dać się świńskiej grypie”. Alert dostępny jest tutaj.

W sieci jest tego wiele, informacji prasowych jeszcze więcej – a jak wiadomo za dużo informacji jest gorsze niż brak informacji.

Swojego czasu na jednej z konferencji – czy to AIRMIC, czy FERMA – uczestniczyłem w sesji poświęconej pandemiom (wtedy na tapecie była ptasia grypa H5N1). Sesje prowadzili naukowcy i praktycy ściągnięci ze Stanów Zjednoczonych i krajów azjatyckich. Konkluzja ekspertów medycyny i epidemiologii w skrócie sprowadzała się do tego, że problemem nie jest śmiertelność chorób tego typu – bo ta nie musi być wysoka (na dzisiaj świńska grypa zabija 7,5% zarażonych). Problemem może być szybkość przenoszenia się odmiany ludzkiej wirusa (w tym łatwość przeskakiwania pomiędzy kontynentami) i skala zapadalności na chorobę (analizy mówią o scenariuszach, gdzie 25-40% populacji jest chora).

Na razie obserwujemy tylko selektywne blokowanie powietrznego ruchu transgranicznego i zamykanie granic. Proszę sobie jednak wyobrazić zamknięcie wszystkich granic (obejmujące również ruch towarowy) i wstrzymanie wszelkiej produkcji o charakterze just-in-time. Proszę sobie wyobrazić funkcjonowanie społeczeństwa i gospodarki, przy 1/3 populacji leżącej w łóżku. Oczywiście leżącej w swoich domach, leczącej się na własną rękę – „zdalnie”, gdyż miejsc w szpitalach nawet w najbardziej zaawansowanych krajach starczyłoby zaledwie dla garstki potrzebujących.

Zbliża się długi weekend – sporo z nas będzie podróżować i spotykać wiele obcych osób. To będzie żniwo dla H1N1, jeśli już jest w Polsce.

Czarny Łabędź – Przekleństwo Gaussa

"Wolę mieć w przybliżeniu rację niż z dużą dokładnością się mylić", Nassim Taleb

Parę tygodni temu wspominałem o książce Nassima Taleba. Poniżej zamieszczam streszczenie kilku myśli tam zawartych i moje refleksje.

Co to jest Czarny Łabędź ?

To zdarzenie lub zjawisko, które ma trzy cechy:

  • jest nieoczekiwane (subiektywnie bardzo mało prawdopodobne)
  • ma porażające konsekwencje
  • w retrospekywie wydaje się, że było do przewidzenia i jest wytłumaczalne.

Ocena zjawiska jako Czarny Łabędź zależy od wiedzy i doświadczenia jednostki (populacji). Taleb podaje doskonały przykład indyka, który jest przez 1000 dni z rzędu karmiony przez farmera i każdego dnia wzrasta ufność w tezę indyka, że tak bedzie w nieskończoność. Każdy kolejny dzień wyżerki jest "potwierdzeniem" trafności tej tezy. Aż do dnia 1001, kiedy to farmer przychodzi z toporkiem. (Czyż to  nie przypomina genezy obecnego kryzysu ?) Dzień 1001 dla indyka jest Czarnym Łabędziem, dla farmera nie – z góry wiedział, że taki będzie finał, bo tak się działo u niego na farmie przez poprzednie 25 lat, czyli 9000 dni.

Gdzie rosną Czarne Łabędzie: Ekstremistan i Średniostan.

Średniostan, to świat w jakim nam się do niedawna wydawało, że żyjemy. To na przykład świat ludzi którzy mają określony wzrost – powiedzmy 170-180 cm. W próbie tysiąca osób, będzie pareset osób o wzroście 180-190, lub 160-170, kilkadziesiąt osób o wzroście 190-200 cm lub 150-160 cm, pewnie pojedyncze osoby wyższe lub niższe o kolejne dziesięć centymetrów, i być może – choć to mało prawdopodobne – pojawi się osoba o wzroście powyżej powiedzmy 220 cm i poniżej 140 cm. Jednak, nawet ta pojedyncza bardzo wysokia osoba nie będzie miała np 500 metrów wzrostu, lecz maksymalnie powiedzmy 270 cm, czyli w żadnym lub nikłym stopniu nie wpłynie na średnią populacji (będzie stanowić powiedzmy 0,15 prcenta całkowitego wzrostu opulacji).

Ekstremistan jest zupełnie inny: to świat w którym "zwycięzca bierze wszystko", jeden przypadek może całkowicie zniweczyć jakiekolwiek próby uśredniania. Jeśli wzięlibyśmy pod lupę stan posiadania majątkowego tej samej próby 1000 osób, wystarczy że znalazłby się w niej Pan Kulczyk aby stwierdzić, że jeden ekstremalny przypadek stanowi 99% wartości całej populacji. Aby osiągnąć taki skutek w Średniostanie, wysoki osobnik musiałby mierzyć 1,73 kilomera ! Ekstremistan jest krainą, w której powstają Czarne Łabędzie.

W ekstremistanie traci sens próba ubierania zjawisk w ścisłe matematyczne formuły i statystyczne prawidłowości – bo te nie odzwierciedlają nieprzewidywalnej już rzeczywistości. Kiedyś – jeszcze sto lat temu – nasz świat gospodarczy był Średniostanem. Od kilkunastu lat jest już z pewnością Ekstremistanem, chociaż eksperci, analitycy i inne mądrale z uporem maniaka twierdzą, że da się go z dużą dokładnością i pewnością przewidzieć i prognozować. Być może dlatego, że niekiedy Ekstremistan może zostać mylnie zdiagnozowany jako Średniostan, jeśli jednostki lub zdarzenia ekstremalne nie występują przed długi czas (dłuższy niż czas rejestrowania przez "ekspertów" pewnych parametrów i zjawisk – patrz problem indyka).

"Dowód" – błąd rozumowania

Taka łamigłówka logiczna: wszystkie zogleboglami. Właśnie widziałeś bogla – czy był on zoglem ? Niekoniecznie – nie wszystkie boglezoglami. Lub inaczej: czy brak u badanego symptomów raka, jest dowodem na to, że jest on zdrowy ? Nie, nie jest to jeszcze "dowodem". Podobnie "brak dowodu na istnie Czarnych Łabędzi" to nie to samo co "dowód na brak istnienia Czarnych Łabędzi". "Naukowcy", statystycy, analitycy i szarlatani finansów o tym zapominają.

Dwa obwody neuronowe służące do myślenia.

System 1 (empiryczny) jest szybki, intuicyjny, automatyczny i nieświadomy – jest wysoce emocjonalny, impulsywny. Jego rola była pomyślana jako szybki system obronny – eksperymenty pokazują, że system 1 jest o kilka milisekund szybszy niż system 2 (zrywamy się do ucieczki nieco szybciej, niż uświadomimy sobie że uciekamy prze tygrysem).
System 2 (kognitywny ?) polega na rozumowaniu. Jest zatem stosunkowo wolny ale logiczny; jest równoległy, wymaga wysiłku, uświadomiony (potrafimy prześledzić tok rozumowania krok po kroku). Większość błędów jest popełnianych podczas gdy wykorzystujemy system 1, ponieważ nie uświadamiamy sobie sposobu podejmowania decyzji, ponadto nie jesteśmy w stanie wykryć popełnionych błedów. Niestety system 1 jest przez homo sapiens wykorzystywany częściej i chętniej, i tym można tłumaczyć błędnie rozumiany "dowód na nieistnienie" opisany wyżej.

"Cichy dowód"

Z wielu podejmowanych prób w osiągnięciu sukcesu (np na giełdzie) wiemy prawie wyłącznie o sukcesach, nigdy o porażkach. Jest wiele książek zatutułowanych "Jak osiągnąc sukces w …", "Jak zarobić pierwszy milion w ciągu … miesięcy" itp, natomiast trudno znaleźć pozycje pt "Historia moich porażek", "Jak utopić na giełdzie", "Dlaczego nigdy mi się nie udaje". Z całej populacji próbujących osiągnąć sukces do naszej świadomości docierają zwykle odpowiednio wzmocnione informacje pozytywne, pojedyncze spektakularne przypadki, a nie wielokrotnie większe spektrum porażek, z których prawdopodobnie można by się znacznie więcej nauczyć. Wszystkie nieujawniane porażki stanowią cichy dowód, że nie jest tak dobrze i łatwo. Mamy zafałszowany obraz rzeczywistości, Czarne Łabędzie są przed nami ukrywane. Prowadzi to do nieświadomego podejmowania ryzyka znacznie przewyższającego naszą gotowość na jego podejmowanie (ślepe podejmowanie ryzyka).

Fałszywa losowość ze świata gier (ludic fallacy)

Formuły pozwalające wyliczyć prawdopodobieństwo określonych wyników tzw gier losowych (Taleb operuje przykładem kasyna) są bezużyteczne w świecie rzeczywistym. Gry zakładają warunki laboratoryjne – określone, niezmienne reguły gry i powtarzalność. Po wyjściu z tego laboratorium okazuje się, że reguły gry zmieniają się podczas rozgrywek bez ostrzeżenia, podobnie jak sama stawka. Niepewność świata rzeczywistego nie jest wyliczalna (computable) jako prawdopodobieństwo – jest zjawiskiem mgławicowym (fuzzy).

Zamykamy się w modelach i schematach

Homo sapiens ma słabość do opisywania obserwowanych zjawisk w schematy, formuły i modele, w których dopowiadamy sobie resztę z tego, czego nie zaobserwowaliśmy i dopasowujemy na siłę obserwacje do schematów – budujemy model Średniostanu. To co nie mieści się w modelach (i posiada atrybuty Ekstremistanu) jest odrzucane jako nieistniejące lub nieistotne. Mówimy np. o rozkładzie prawdopodobieństwa Gaussa i pochodnych – Value at Risk, Teoria Portfeli itp. Czarne Łabędze nigdy nie wpisją się w modele – zawsze pozostają poza marginesem obserwowanej i analizowanej rzeczywistości. Co gorsza, jeśli już zaistnieje zjawisko klasy Czarnych Łabędzi (np. jak ostatni kryzys kredytowy w USA), to odtąd będziemy próbowali przygotować się na taki sam rodzaj Czarnych Łabędzi (patrz pomysły dot zmian legislacyjnych i narzędzi kontrolowania systemu finan sowego), jednak pozostaniemy ślepi na inne rodzaje Czarnych Łabędzi, które się jeszcze nie zrealizowały (np związane z wyczerpaniem zasobów energetycznych lub pochodnymi zmian klimatu).

Gatunek aroganckich głupców (epistemic arrogance)

Taleb powołuje się na szereg badań powtarzanych wielokrotnie i zapoczątkowanych przez Alberta i Raiffa. Eksperyment jest prosty: należy zgromadzić sporą grupe osób, następnie podać im liste próbnych pytań, np jakie jest średnie IQ polskich polityków, ile litrów wody dziennie wpada polskimi rzekami do morza, ile kochanków miała Caryca Katarzyna II (przykład Taleba) itp. Zadanie polega na określeniu widełek odpowiedzi gwarantujących poziom pewności / poprawności co najmniej 98% (np. średnie IQ pomiędzy 115 i 160, między 6 a 12 kochanków itp). Uczestnicy mogą dowolnie szeroko te widełki ustawić, gdyż nie testujemy ich wiedzy ale trafność krytycznej oceny własnej wiedzy. Wszyskie próby badań powtarzanych przez różne zespoły naukowców w różnych geografiach i społecznościach wskazują, że zamiast poziomu błędu 2% uczestnicy osiągają poziom błędu pomiedzy 30% i 40%. Podobno najgorsze wyniki osiągają absolwenci MBA. Wnioski ? Nie możemy sobie (ani tym bardziej ekspertom) ufać jeśli chodzi o poziom i jakość wiedzy. Nasza arogancja w sprawach wiedzy ma podwójnie szkodliwy efekt: przeszacowujemy stan naszej wiedzy i pewności a niedoszacowujemy obszar naszej niewiedzy i niepewności.

Więcej informacji znaczy mniej informacji

Kolejny eksperyment: dwum grupom obserwatorów pokazywano rozmyty obraz przedmiotu (niech będzie kosiarka do trawy). Pierwszej grupie kolejne odsłony pokazywały coraz bardziej wyostrzony obraz w 10 krokach, drugiej w 5 krokach (a więc mniej rzadziej  następujących odłon w większych "skokach" jakości obrazu). Pierwsza grupa co dwie odsłony a druga po każdej odsłonie miała zgadywać co przedstawia obraz. Druga grupa poprawnie zgadła jako pierwsza, gdyż pierwsza interpretowała "szum informacyjny" jako wiarygodną informację. Okazuje się, raz postawioną tezę czy diagnozę dot rzeczywistości bardzo niechętnie zmieniamy – lepiej wychodzą na tym ci, którzy dłużej wstrzymują się z jej postawieniem. Po postawieniu wstępnej tezy zbudowanej na słabych jakościowo informacjach, stajemy się odporni na później napływające ale bardziej wiarygodne obserwacje.

Arogancja ekspertów

Tadeusz Tyszka i Piotr Zielonka porównali omylność prognoz meteorologicznych z omylnością prognoz analityków finansowych. Ci drudzy okazali się znacznie bardziej omylni a jednocześnie znacznie bardziej ufali swojej nieomylności. Z kolei JP Bouchaud porównał ok 2 tysiące prognoz dot rynków finansowych pod kątem ich trafności. Była ona porównywalna ze zwykłą ekstrapolacją ostatnich danych historycznych na trendy w przyszłości – ćwiczenie jakie wykonałby każdy maturzysta posługujący się arkuszem kalkulacyjnym, mimo że analitycy eksperci mieli dostęp do danych rynkowych jakie nie są ogólnie dostępne. Co gorsza, błąd prognozy był znacznie większy niż różnice pomiędzy poszczególnymi prognozami – co świadczy o "efekcie stadnym". Tetlock poprosił ok 300 ekspertów (w tym 1/3 ekonomistów) o dokonanie w sumie 27 tysięcy prognoz z obszaru ekonomii i polityki. Błąd prognozy był zwykle 3-4 razy większy niż określony przez samych ekspertów, a trafność prognoz nie różniła się znacząco od prognoz dokonanych przez ludzi bez specjalistycznego wykształcenia – np dziennikarzy. Wyraźnie gorszą trafnością prognoz popisali się eksperci o wyższej reputacji. Podobnie, Makridakis, w serii badań przeprowadzonych we współpracy z naukowcami zajmującymi się statystyką w ekonomii ujawnił, że jakość prognoz bazujących na zaawansowanych metodach statystycznych nie daje lepszych wyników niż metody najprostsze.

Granica błędu

Taleb uważą, że decyzje biznesowe i ekonomiczne w równym stopniu powinny uwzględniać wielkość błędu prognozy, co sam jej wynik. Wybierając się na wyjazd do kraju ze średnią temperaturą okołó 30 stopni, przygotowałbyś się inaczej wiedząc, że odchyłka od średniej będzie wynosić 5 stopni, niż gdyby wynosiła 35 stopni. Dlaczego tak badzo nas interesuje "środkowy wynik" ustalany przy pewności 99% (krzywa Gaussa) a ignorujemy skrajne wartości występjące 1 na 100 przypadków ? W 1970 roku rząd Stanó Zjednocznych prognozował, że do 1980 cena ropy spadnie, podczas gdy wzrosłą 10-cio krotnie. Czy przeszedłbyś przez rzekę wiedząc, że ma "średnio 150 cm" głębokości ?

Nieprzewidywalna przyszłość

Prof KR Poper twierdzi, że przyszłość jest "fundamentalnie nieprzewidywalna". Jeśli przewidujesz, że jutro spadniesz ze schodów i złamiesz nogę, nie będziesz czekać do jutra tylko zaczniesz przeciwdziałać działać dziś. Podobnie, jeśli spodziewasz się, że w pewnej przyszłości przewidzisz coś określonego, to zasadniczo przewidziałeś to już teraz. Aby zrozumieć przyszłość w stopniu umożliwiającym jej przewidywanie, należy już w teraźniejszości dysponować pewnymi elementami przyszłej wiedzy. Średniowieczny ekspert – futurysta chcący sporządzić prognozę przyszłości, musiałby mieć pojęcie na temat maszyny parowej, elektryczności, złóź ropy naftowej czy internetu. Niestety nie wiemy dzisiaj tego co będziemy wiedzieć za 10 czy 100 lat.

… i mniej wiecej w tym momencie pociąg wjechał do Poznania a ja w pośpiechu zaczynałem pakować laptopa, ubierać się, sprawdzać czy zabrałem dokumenty, wszystkie elementy bagażu i obie komórki. Niestety, w tym pośpiechu książka Black Swan pozostała zapomniana, na półce nad głową, w ostatnim przedziale, ostatniej jedynki, relacji Warszawa – Wrocław.

Miało jeszcze być …

… o precyzji przewidywania wg Paintcare, o tym, że zdrowy rozsądek nie wystarcza do prognozowania (a zwykle na nim opieramy się podczas tzw risk assesment). O tym, że potrzeba prognozowania jaką czujemy wynika z rozwoju ewolucyjnego (przed zadaniem ciosu w zęby innego małpoluda, musieliśmy przeprowadzić prognozę możliwych scenariuszy rozwoju wypadków i ostatecznie zdecydować, czy cios zostanie zadany …), ale niestety sprawdza się ono jedynie w bardzo krótkich okresach prognozowania. Miało być o rozkładzie prawdopodobieństwa Gaussa i Mandelbrota i o nowej formule zasady Pareto.

O dwóch takich, co byli laureatami nagrody Nobla w dziedzinie finansów i ekonomii, założyli własną firmę inwestycyjną posługującą się opracowanymi przez nich super zaawansowanymi i naukowymi metodami prognozowania przyszłego zachowania rynków, a następnie haniebnie poszli z torbami pociągając za sobą część rynku.

Miały być też rady Taleba: nie próbuj przewidywać z dużą dokładnością, przewiduj skutek a nie prawdopodobieństwo Czarnych Łabędzi (a to właśnie robią risk managerowie z ryzykami w lewym górnym rogu mapy ryzyka), unikaj ekspertów i ich opinii, wystawiaj się na działanie pozytywnych Czarnych Łabędzi.

I miało być o kuli bilardowej: nietrudno przewidzieć jej drugie odbicie. Trzecie odbicie jest już wyzwaniem, ale jest przewidywalne. Żeby jednak przewidzieć jej 20 odbicie należałoby wziąć pod uwagę masę i położenie osób stojących wokół stołu bilardowego (siła grawitacji pomiędzy graczami i kulą bilardową). Żeby przewidzieć 56-te odbicie kuli należałoby wziąć po uwagę oddziaływanie grawitacyjne każdej cząstki materii na naszym globie (!!!). A jak weźmiemy pod uwagę, że zarówno gracze (to przy 20-tym odbiciu) jak i wszystkie cząstki na Ziemi (to przy 56 odbiciu) są w nieustannym ruchu – przewidywanie okazuje się być zadaniem bez rozwiązania.

Miało o tym być, ale nie będzie. Zostawienie książki w pociągu to taki mały Black Swan dla tego wpisu na blogu.

Po co komuś podział ryzyk na kategorie, klasy lub grupy ?

Kilka lat temu, podczas jednego z pierwszych roboczych spotkań członków Polrisk, jeden z członków (z którym nie zawsze się zgadzam w sprawach ERM ale którego zawsze szanuję), wtedy przedstawiciel renomowanej firmy konsultingowej, dość długo dowodził jak ważne jest ustalenie, jakimi kategoriami ryzyk będziemy jako Polrisk się zajmować, i żeby wogóle te ryzyka skategoryzować.

Podobnie, w większości opracowań na temat ERM nieuchronnie pojawia się obowiązkowy punkt: kategorie ryzyk i pojawia się na przykład schemat jak ten poniżej, przedstawiony przez firmę AEA Technology:

Odpowiadam zatem na tytułowe pytanie: kategoryzacja ryzyk nie jest potrzebna nikomu, nie przydaje się do niczego, jest prawie bezwartościowa. Dlaczego ?

Otóż nie ma znaczenia do jakiej kategorii zostanie ryzyko sklasyfikowane, ponieważ nie stanie się przez to mniejsze, mniej prawdopodobne, nie stanie się lepiej kontrolowane ani kategoryzacja nie pomoże nam w znalezieniu najlepszego rozwiązania. Dajmy na to ryzyko wypadku pracownika przy linii produkcyjnej. Czy to ryzyko z rodzaju HR ? Tak. Czy to ryzyko reputacyjne ? Tak. Czy to ryzyko prawne (roszczenie odszkodowawcze) ? Tak. Czy to ryzyko produkcyjne (zatrzymanie linii produkcyjnej) ? Tak. No to do której kategorii należy je zaliczyć ? I czy coś z takiego przydziału wyniknie dla sposobu zarządzania tym ryzykiem ? Oczywiście nie.

W takim ujęciu, podział ryzyk ma charakter wyłącznie akademicki, pomocniczy, trzecio planowy. Pomaga nam uporządkować zbiór informacji, tak jak to robi np MOL:


W takim sensie podział ryzyk jest neutralny, na całe szczęście nieszkodliwy. Może jednak okazać się niezwykle szkodliwy, jeśli zaczyna służyć jako "check lista" – lista ryzyk, pod kątem których należy firmę sprawdzić, czy czasem gdzieś nie siedzą pod dywanem. Słynna "Orange Book" – biblia ERM dla brytyjskich organów administracji publicznej – mimo iż to ogólnie szanowana szanowana pozycja, w tym obszarze może służyć za antywzór:

Posługiwanie się taką zamkniętą listą kategorii nieuchronnie prowadzi to do traktowania jej jako wyczerpującego katalogu wszystkich możliwych ryzyk, uśmierca twórcze i odkrywcze myślenie o nowych ryzykach zanim ono się jeszcze pojawi w firmie.

Można się zastanawiać, czy na przykład banki, które próbowały zamknąć całe spektrum swoich ryzyk w mocno poszufladkowane i skwantyfikowane środowisko narzędzi ich oceny (np. VAR) i mitygacji (np. hedging), nie ułatwiają sobie życia za pomocą kategoryzowania ryzyk, na przykład tak jak to robi południowoafrykański Nedbank, jedna z najbardziej zaawansowanych instytucji w tajnikach ERM:

Wiedząc do jakiej kategorii ryzyko należy, łatwiej dobrać im zestaw narzędzi do "obsługi" takiego ryzyka. Jednak ostatnie wypadki (opisane tutaj) i niechlubna rola banków w ich wywołaniu stawia pod znakiem zapytania wartość "zarządzania ryzykiem" w bankach wogóle. Nawiasem ciekaw jestem, czy Nedbank mocno umoczył w kryzysie finansowym …

Zabierając się już do kategoryzacji ryzyk natychmiast trafiamy na problem merytoryczny: według jakich kryteriów je kategoryzować ? Poniższy rysunek, wyjęty z materiałów szkoleniowych duńskiego EIRM, pokazuje na czym polega problem:


Możemy ryzyka kategoryzować według ich źródeł (environment), według obszarów/wartości firmy w które mogą uderzyć (assets), możemy do tego dodać czas ich oddziaływania, stopień kontroli jaką mamy nad mechanizmami kierującymi ryzykiem i wiele innych kryteriów. Idealny podział na kategorie musiałby być 4-5 wymiarowy, czyli nieosiągalny dla ludzi nie zajmujących się ryzykiem naukowo.

Na właściwy trop naprowadza nas kolejna ilustracja, zaczerpnięta z prezentacji Reginalda Hamana, prezesa IRMSA (południowoafrykańskiego stowarzyszenia risk managementu):

Sprowadza ona rozważania do podstaw, korzeni i dogmatów ERM: ryzyka powinny być rozważane w kontekście celów biznesowych, jakim zagrażają. Chcemy wiedzieć, który z celów biznesowych jest najbardziej zagrożony i jakimi ryzykami. Aby się tego dowiedzieć, należy skategoryzować (pogrupować) ryzyka wokół celów biznesowych. Właściwszy będzie tutaj termin "agregować" – czyli nie tylko wpisywać grupę ryzyk na wspólnę listę, żeby je widzieć obok siebie, ale krok dalej: dodawać ich oddziaływanie na firmę i skutki tych ryzyk. To zaczyna stanowić wartość dodaną dla firmy, która agregując potrafi wartościować (mierzyć) wpływ ryzyk na kluczowe jej obszary i ocenić, czy i jak zintensyfikować działania zaradcze przeciw konkretnym ryzykom.

Konkluzja ? Kategoryzować – nie, agregować – tak.