Literatura i praktyka proponują nam 4 rodzaje analiz decyzyjnych, których granice zacierają się na tyle, że mogą powodować pewien rodzaj niedopowiedzeń i nieświadomych działań oraz ocen.

Ich zakres rozpościera się od matematycznych czy statystycznych modeli z jednej strony po dyskrecjonalne (intuicyjne) oceny na przeciwległym biegunie. Krótki przegląd powinien pomóc rozpoznać ich wady i zalety, a przez to pozwolić odnaleźć nasze własne miejsce na tej mapie. A może przede wszystkim określić źródła części porażek.

Uprzedzę jedynie, że używane przez mnie niektóre nazwy mają charakter jedynie umowny.

1. Analizy ilościowe

W 100% oparte na obiektywnie definiowanych modelach, do budowy których używa się najczęściej matematyki, logiki, statystyki, geometrii, rachunku prawdopodobieństwa, czasem inżynierii lub fizyki, ostatnio nawet sztucznej inteligencji. Zapisane w komputerowe kody, algorytmy, tabelki, wzory. W ten sposób można przełożyć na język bitów sporą część Analizy technicznej, statystycznej, niektóre elementy Analizy fundamentalnej, techniki arbitrażu, modele prognostyczne, czy inne strategie oparte o przetwarzanie cen (np. rebalancing, Analizę portfelową), i mam przy tym na myśli rodzaj działań stosowanych przez inwestorów indywidualnych.

Ich zaletą jest oczywiście jednoznaczność i obiektywność, szybkość działania, eliminacja błędów poznawczych, odciążenie emocjonalne, możliwość testów danych historycznych, automatyzm generowania czy nawet składania zleceń na szerokiej bazie rynków jednocześnie, łatwa kontrola, by wymienić najważniejsze. Znaczną pomocą jest to, że w każdej chwili można sprawdzić jak i dlaczego strategia (nie) działa i wprowadzić zmiany, korekty. A przy tym jest łatwa w replikacji, taki prosty model można powierzyć nawet komuś niespecjalnie biegłemu w meandrach giełdowych spekulacji by mógł jedynie powielać wskazania generowane przez kod.

Wada najczęściej postrzegana to brak elastyczności takiej na jaką pozwala najlepszy istniejący pod tym względem do tej pory komputer czyli ludzki mózg.

Jeśli sięgnąć po przykłady do A.T. to przywołajmy chociażby takie strategie jak przecięcie średnich czy wskaźników albo systemy podążania za trendami.

2. Analiza quasi-ilościowa

Tego rodzaju kategorię wprowadzam zasadniczo pod kątem Analizy technicznej aby zwrócić uwagę na pewne dość swoiste dla niej podejście, być może jednak właściwsza choć nieco węższa nazwa brzmieć powinna: analiza wizualna czy graficzna. A w zasadzie to dwa specyficzne podejścia i ich konsekwencje. Rezygnujemy w ich przypadku z możliwości czysto matematycznego, rygorystycznego ujęcia jak w przypadku analizy ilościowej opisanej w pkt 1. na rzecz doraźnego, elastycznego wyboru przy użyciu wykresu. Są to:

(I) Subiektywnie stosowane narzędzia.

Nie wymaga wprawdzie szerszych tłumaczeń ponieważ jest to temat dobrze znany, szczególnie na naszych blogach, ale dla celów precyzyjnej systematyzacji warto ogarnąć to zjawisko pewnymi charakterystycznymi znacznikami.

W skrócie rzecz ujmując – pozornie precyzyjnie zdefiniowane, w literaturze czy innym przekazie, narzędzia służące rysowaniu po wykresie (ang. charting) nie poddają się jednoznaczności i reżimowi systematyczności na skutek dowolności stosowania ich przez użytkownika. W takim razie to samo narzędzie w rękach różnych inwestorów generuje nie tylko niejednorodną precyzję, ale i różne wnioski czy przeciwstawne czasem decyzje.  I to nawet wówczas gdy posługujemy się w tym celu komputerem, co w pewnym sensie nawiązuje do metod ilościowych (stąd nazwa: quasi ilościowe).

Można wymienić tutaj całą gamę popularnie używanych instrumentów, jak choćby klasyczne formacje techniczne, linie wsparć, oporów i trendów czy fale Elliota.

Na przykład każdy technik wie jak wykreślić i użyć ‘formacji trójkąta’ ponieważ wszystkie jego elementy teoria definiuje w miarę dokładnie. Jednak na tym samym wykresie opisanym przez różnych inwestorów inaczej wyglądają jego kąty, punkty oparcia, ilość, wysokość, umiejscowienie itd. Na swój sposób każdy z nich może być różny i jednocześnie poprawny.

Do tej kategorii zaliczyć można również narzędzia tworzone w sposób czysto komputerowy (ilościowy), które wymagają jednak zdefiniowania parametru zmiennego, opartego na bazie obserwacji, wyczucia, indywidualnych preferencji, doraźnych tendencji rynkowych. Jak choćby w przypadku wskaźników i oscylatorów czy średnich wszelkiego rodzaju. Najczęściej zmienną stanowi okres wyliczania, co wpływa na kształty (zmienność) samego narzędzia jak i przede wszystkim jego wrażliwość. Musimy więc zadecydować czy użyć na wykresie np. średniej kroczącej z 14 czy może 50 okresów, co również wpływa na subiektywność ocen i decyzji.

(II) Subiektywnie stosowane metody zarządzania ryzykiem

Ponownie i tu wykres decyduje o tym jak ustawimy stopy broniące zysków, realizujące zyski czy ograniczające straty. Ponownie również używamy narzędzi precyzyjnie zdefiniowanych przez teorię lecz z zastrzeżeniem ich elastycznego wyboru i użycia, co przekłada się na znaczny stopień dowolności zastosowania. Mamy więc do wyboru wszelkie linie ruchomych wsparć/oporów/trendów jako poziomów stopowania pozycji, średnich i wskaźników, ruchów mierzonych, wysokości formacji, zasięgów formacji itd. itp. Decyzje o zamknięciu pozycji wypływają w takim razie z tego co aktualnie dzieje się na wykresie, lecz sami nadajemy waloru ważności i skuteczności stosowanym w tym celu narzędziom – za pomocą szacunków, doświadczeń, umiejętności, ale również impulsów czy dzięki przypadkowi.

W ten sposób rezygnujemy w obu wymienionych przypadkach z niektórych zalet czystej analizy ilościowej – możliwości nieobciążonej błędami weryfikacji na danych historycznych, łatwiejszej kontroli, automatyzmu decyzji. Oddajemy za to część „władzy” błędom poznawczym i emocjonalnym oraz czasem przypadkowi. Co ważne – w takiej formie zarówno ustalenie poprawnych czyli prowadzących do zyskowności działań za pomocą narzędzi jak i przekazanie tej wiedzy komuś innemu jest obciążone prawdopodobieństwem nieskuteczności. Nie sposób bowiem w kompleksowym środowisku niepewności i ryzyka nauczyć kogoś podejmowania poprawnych, ale subiektywnych decyzji. To nieco tak jakby próbować przekazać komuś wiedzę o tym jak nauczyć się jeździć na rowerze (co jest zresztą dużo prostsze). Albo może nawet precyzyjniej: jak wygrywać w tenisie, bo przecież transakcje to kolejne potyczki z rynkiem. Można przekazać w drobiazgach całą wiedzę techniczną o wszystkich uderzeniach, ale nie sposób nauczyć „ducha” samej gry.

W takim razie wskazana jest daleko sięgająca ostrożność w ocenie skuteczności stosowania narzędzi proponowanych przez podręczniki. To, że znalazły się w literaturze w żaden sposób nie jest gwarancją czy obietnicą zyskowności działania, choć takie wrażenie często sprawia lektura. Oczywiście, w pewnych sprzyjających warunkach mogą one stać się skuteczne. W dużej mierze jednak zależy to od samego użytkownika a nie od budowy czy działania narzędzia. I podobnie jak w przypadku tenisa, to nie wiedza lecz bardziej praktyka, mrówcza praca, doświadczenie i nieco umiejętności wszelkiego innego rodzaju mogą pomóc w finalnym triumfie.

Poruszam ten temat nie bez powodu. Wielokrotnie byłem przy różnych okazjach pytany jakiego wskaźnika, formacji czy innego narzędzia z zakresu A.T. używać najlepiej. Kiedy dowiadywałem się, że pytający działa na wykresie w sposób typowo subiektywny, jedyne co mógłbym odpowiedzieć to: bez znaczenia. Oczywiście taka odpowiedź uznana zostanie za impertynencję czy może nawet pogardę. Kiedy jednak prześledzić cały proces opisany powyżej,  jaśniejsze staje się, że to nie konkretne narzędzie lecz niczym nie ograniczony sposób jego użycia przez samego inwestora jest źródłem zysków lub strat.

CDN

–kat—

[Głosów:12    Średnia:3.7/5]

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Proszę podać wartość CAPTCHA: *