W poszukiwaniu drogi do sukcesu, część 4

W poprzednim wpisie wspomniałem zaledwie ten rodzaj metod uzyskiwania przewagi inwestycyjnej, który w całości oparty jest na komputerowych programach.

Spójrzmy więc bliżej na najważniejsze za i przeciw, a także praktyczne zastosowania.

SYSTEMY TRANSAKCYJNE

Tego rodzaju trading, w całości automatyczny, albo pół-automatyczny (sygnał z programu, realizacja transakcji manualna) dają największe pole do popisu w liczeniu i kształtowaniu precyzyjnej przewagi nad rynkiem, nie ma tu bowiem miejsca na doraźne, niedookreślone zarządzanie ryzykiem i transfer decyzji ze strategii na użytkownika jak było to w przypadku Analizy technicznej (AT). Systemy wprawdzie w wielu miejscach zastępują AT, ale nie na wszystkich polach jest to możliwe, bowiem nie każdą decyzję daje się precyzyjnie zamknąć w kody, nadal mózg ludzki pozostaje tu najlepszym komputerem w zakresie elastyczności, wyobraźni i kreatywności. Z drugiej strony trading systemowy wykracza daleko poza samą AT.

W tym przeglądzie zajmujemy się jedynie metodami leżącymi w zasięgu indywidualnych inwestorów. Nie wlicza się w to więc, póki co, cała branża algorytmowa, w tym trading o wysokiej częstotliwości (HFT), gdzie przewaga pochodzi w dużej mierze z szybkości przetwarzania informacji i reakcji, niedostępnej umiejętnościom człowiekowi, a kody układają specjaliści od wysoko zaawansowanej fizyki, matematyki, inżynierii, kryptografii itp. (tzw. quants).

Napęd dla mechanicznych systemów transakcyjnych dają dwie grupy czynników, które zamienione na kody pozwalają precyzyjnie generować sygnały otwierania i zamykania pozycji, a w wielu wypadkach wspomaga je również moduł automatycznej realizacji zleceń (taki istnieje również w bossa i jest dla wszystkich chętnych dostępny):

1.  Oparte na teoriach (ang. theory driven)

Na zera i jedynki przekłada się tutaj wszelkie zjawiska, których powtarzalność i następstwa daje się wyjaśnić na gruncie istniejących teorii finansowych (klasycznych czy behawioralnych). Przypadek i szczęśliwy traf nie mają tutaj więc wstępu na poziomie decyzji. Istnieje cała lista podgrup. I tak chyba najbardziej znane są systemy oparte o podążanie za trendami (trend following), które biorą swoje źródła ze zjawiska MOMENTUM (po naszemu – impet). Inna grupa opiera się na czymś wręcz przeciwnym – zjawisku powrotu do średniej, i tutaj mamy całą rodzinę strategii arbitrażowych. Są też strategie oparte na czynnikach fundamentalnych – np. zmianie wskaźnika C/Z dla akcji w czasie.

2.  Oparte na kopaniu w danych (ang. data driven)

To wszelkie komputerowe strategie, które wywodzą się z intensywnego przeszukiwania wszelkich zależności ukrytych w danych historycznych instrumentów, ale nie posiadających swego uzasadnienia w teoriach. Co za tym idzie, ogromna ich liczba ma charakter dość przypadkowy (dopasowanie parametru kodu do danych), ale jeśli uda się znaleźć sensowne związki w wykrytej prawidłowości, przechodzi ona do grupy pierwszej.

Uzasadnione wydaje się być na wstępie pytanie: jak to możliwe, że istnieją tutaj jeszcze jakieś przewagi, które można wykryć i wykorzystać za pomocą komputera, ale jeszcze nie zostały wyeksploatowane przez ogromną i bajecznie bogatą branżę algorytmową (przede wszystkim fundusze hedgingowe)? Odpowiedzi jest wiele, wymienię najważniejsze, co powinno w dużej mierze tłumaczyć sens poszukiwania (lub nie) przewagi przez indywidualnych inwestorów właśnie w ten sposób.

Analiza techniczna, od której zaczyna się zwykle zabawa z programowaniem strategii, znacznie straciła swoją wartość generowania zyskownych i stabilnych rozwiązań do budowy systemów. Pierwsi systemowcy dekady temu mogli zarabiać na przecięciu 2 średnich, co dziś wygląda raczej kuriozalnie. Albo wspomnijmy kanały cenowe eksploatowane 30 lat temu przez „Żółwie”, które przestały generować zyski jeszcze w latach 80-tych. Właściwie głównie systemy podążania za trendami mają jeszcze jakąś wartość i są do dziś używane dość szeroko.

Natomiast większość narzędzi technicznych plasuje się w drugiej z grup wymienionych wyżej, co powoduje, że kopanie w danych jest narażone na tzw. błąd II rodzaju, czyli znalezienie przypadkowej (losowej) strategii, która nie ma w zasadzie wartości i wysypuje się w dłuższym okresie na danych realnych. To nic innego jak przeoptymalizowanie systemów, na co nie pomagają zbytnio zabiegi typu symulacja Monte Carlo czy testy „walk forward”. Oczywiście przeszukiwanie danych nie przekreśla jeszcze szans, ale znacznie je redukuje jak uczy praktyka.

Wpływ na użyteczność wykrytych nieefektywności ma również płynność rynków. Wiele z nich, na przykład nasza GPW (poza kontraktami i niektórymi akcjami), nie pozwala na hurtowe działanie, nawet przy użyciu algorytmów stojących tuż obok serwerów giełdowych. To przestaje być atrakcyjne dla wielomiliardowych funduszy, ale może być przydatne dla dysponujących niewielkimi kapitałami.

Inna sprawa, że wiele nieefektywności zostało już przez algorytmowe fundusze albo zaorane, albo na tyle wyeksploatowane, że koszty gry przekraczają zyski. Bądź też pociągają za sobą zbyt duże ryzyko, które z kolei często nie odstrasza małych inwestorów. Ciekawe przy tym jest to, że ci ostatni odrzucają te systemy, które w testach generują zyski niższe niż kupno samego indeksu (całkiem logicznie), a za które fundusze hedgingowe dałyby się zabić, gdyby tylko były one odporne ma zmiany rynków i stabilne.

Znacząca różnica tkwi w tym, co i jak używają ‘quants’ w algorytmach – to wiedza i rozwiązania niedostępne zwykłym śmiertelnikom (typu teorie strun, ‘machine learning’, sztuczna inteligencja), AT nie jest dla nich natomiast żadnym łakomym kąskiem.

Tak się składa przy tym również, że to właśnie systemy komputerowe mocno oparte na AT są dużo bardziej nieodporne na losowość i niestacjonarność rynków niż choćby ‘jakościowa’ Analiza techniczna, czyli ta, używana hybrydowo (sygnały techniczne wsparte decyzjami człowieka). To znacząco redukuje lub rozprasza ich przewagę w czasie, co powoduje sporo rozczarowań, a na pewno wymaga stałego monitorowania i usprawniania. Usprawnianie to zwykle idzie najpierw drogą coraz mocniejszego komplikowania kodu i dodawania parametrów, co jeszcze bardziej dopasowuje je do danych, by potem wrócić w pokorze do coraz mocniejszego upraszczania. Zyskowność przegrywa z lepszą kontrolą ryzyka i zmienności wyniku.

Jak wpisują się te problemy w proces edukacyjny?

Nowe pokolenia nie mają już problemów z programami i językami kodowania, a przy tym ogrom gotowych rozwiązań jest dostępnych na wyciągnięcie ręki w internecie. To ułatwia naukę, ale wcale nie poprawia kwestii stabilności przewagi. Literatura za dużo poświęca miejsca na huraoptymistyczne przykłady, za mało na realne problemy stabilności. Zaczyna więc pachnąć już lekko mchem i kurzem, ale mimo wszystko wiedzę o pewnych procesach należałoby podpatrzeć u Pardo, Stridsmana, Pruitta i Hilla, czy Tharpa.

W przypadku systemów niestety sporo czasu wymaga ich testowanie w czasie rzeczywistym, zanim w miarę stabilną przewagę uda się odkryć i będzie można myśleć o realnym tradingu. Oczywiście wszystko już było, wszystkie pomysły zostały już wielokrotnie przetestowane (i w większości porzucone). Adept programowania nie startuje jednak z taką świadomością, ale to nie szkodzi, kreatywność i wielokrotne testy tylko pomogą w odkrywaniu własnego poczucia interakcji rynków i systemów. Przy tym nieco inaczej trzeba tu postawić akcent niż w testowaniu samej AT – zarządzanie ryzykiem jest oczywiście nadal ważne, ale najwięcej czasu trzeba poświęcić kwestiom niestacjonarności i stabilności systemów. Tego niestety w literaturze niemal nie da się znaleźć. Po części podpowiedzią jest sam podział systemów, te wykopane z danych zwykle są dużo mniej odporne. Sporo jednak trzeba  wywnioskować samemu z wnikliwej obserwacji, lub szukać forów wymiany rzetelnej informacji, i z pewnością nie rzucać się na trading z pierwszym odkrytym systemem.

Traderzy systemowi dzisiejszych czasów mają przy tym pewną przewagę innego rodzaju nad tymi wczorajszymi. Dysponują większą ilością danych, lepszym sprzętem i programami, mają pogląd do doświadczeń wcześniejszych pokoleń, a przy tym mają dostęp do większej ilości instrumentów i po niższych kosztach. Posiadają więc wszystko, by nie popełnić błędów poprzedników, ale najpierw trzeba o nich wszystkiego się dowiedzieć, co w zasadzie możliwe jest jedynie… podczas testów historycznych.

Istnieje wreszcie jeszcze jednego rodzaju przewaga, którą można uzyskać dzięki zabawom z automatami. Nawet jeśli nie uda się znaleźć w nich pozytywnej wartości oczekiwanej, to dają one świetne poczucie rytmu, dynamiki i mechaniki rynku oraz działania technicznych narzędzi. Wprawki typu testowanie różnych rodzajów stopów, różnych powiązań narzędzi i rynków, stają się nieocenionym treningiem umysłu. Wielu systemowych traderów przechodzi po czasie do tradingu hybrydowego, i z moich obserwacji wynika, że dysponują oni najlepszym wyczuciem mechanizmów rynkowych i inwestycyjnych. I nie pchają się do prognozowania, wiedząc, ze to bezcelowe.

CDN

—kat—

[Głosów:8    Średnia:3.9/5]

1 Komentarz

  1. JL

    Według mnie z data miningiem mamy kontakt również przy tradycyjnym kodowaniu strategii – próbujemy przecież wiele różnych rzeczy, sprawdzając, które z nich działają. Na przykład algorytmy genetyczne podpadające pod drugi punkt notki (a które są zarazem jedną z form „machine learning” o którym też wspomniano) w gruncie rzeczy automatyzują ten żmudny proces.

    Dodatkowymi zaletami tego podejścia jest na przykład to, że:

    – Komputer nie ma żadnych przekonań odnośnie rynków w odróżnieniu od ludzi budujących „ręcznie” systemy (to co nam ludziom może wydawać się nielogiczne, może wykazać statystyczną wartość na rynku)

    – Znacznie łatwiej określić jakiego systemu poszukujemy, niż próbować ręcznie wielu kombinacji różnych pomysłów

    Oczywiście bez względu na sposób budowy strategii poprawna walidacja systemu zawsze będzie kluczowym elementem.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Proszę podać wartość CAPTCHA: *