Analitykom technicznym pod rozwagę, część 11

Kolejna odsłona w temacie skuteczności Analizy technicznej pokaże ją w najczystszej a jednocześnie często nadmiernie iluzorycznej formie.

I jak zapowiadałem w poprzedniej części, tym razem nawiążę do komputerowej wersji AT, czyli:

3. Modelowanie – systemy transakcyjne, algorytmy, uczenie maszynowe

W tym przypadku można do woli poszaleć z wszelkimi metodami naukowymi dla weryfikacji skuteczności. W 100% obiektywna, zresztą nazywana ‘analizą ilościową”, choć nadal korzysta z podwalin stworzonych dla celów klasycznej, a więc nieco intuicyjnej Analizy technicznej. A przy tym jak najbardziej można ją zaprząc do tworzenia modeli prognostycznych, choć przecież nie używanych przez inwestorów indywidualnych w tej formie. AT to tutaj zasadnicza część całego, rozbudowanego wehikułu inwestycyjnego, gdzie sam sygnał wejścia na rynek to dopiero wstęp do wielu innych operacji na ryzyku i kapitale.

Specyfika ilościowego podejścia do AT:

– każde narzędzie i jego działanie jest tutaj precyzyjnie zdeklarowane, całość tworzy kompleksowy system, w którym zapisuje się powtarzalne reguły wejścia na rynek, wyjścia, wielkości pozycji, sposoby zarządzania ryzykiem i kapitałem, a także można dodać moduł składający automatycznie zlecenia,

– nie ma miejsca na subiektywne oceny i decyzje,

– istotą jest wykrycie we wszelkich danych z przeszłości powtarzalnych schematów, które w ściśle zdefiniowanych warunkach hipotetycznie mogły zapewnić zyskowność i w podobny sposób mogłyby zostać użyte w przyszłości,

– ponieważ warunkiem zastosowania kompletnych strategii (systemów) jest uprzednie wykrycie ukrytych w danych nieefektywności, testy skuteczności z użyciem metod naukowych (statystyka, logika, rachunek prawdopodobieństwa) mają zasadnicze znaczenie, ale nie są jeszcze gwarancją zyskowności w przyszłości,

– ilość jednocześnie wykorzystanych narzędzi technicznych nie podlega ograniczeniom, choć nadmierna ich liczba może mieć wpływ na mniejszą stabilność działania w przyszłości,

– znaczenie ma łączny zysk (przewaga w sensie pozytywnej wartości oczekiwanej), trafność schodzi na plan dalszy,

zarządzanie ryzykiem i wielkością pozycji mają zasadnicze znaczenie dla sukcesu,

– użycie w pełni obiektywnych metod umożliwia dokładną replikację użytych strategii, nauczenie ich, analizę i doskonalenie oraz krytykę ze strony innych inwestorów w przypadku udostępnienia reguł strategii,

– dostęp do danych i ich przetwarzanie pozwala na objaśnianie zjawisk rynkowych (np. skąd się biorą trendy- zjawisko impetu).

Zalety użycia ilościowej wersji AT:

– brak konieczności dokonywania każdorazowej analizy wykresów, poszukiwania okazji i nieustannego podejmowania decyzji,

wyłączenie czynnika emocji z procesu decyzyjnego,

– redukcja błędów behawioralnych, poznawczych (np. roli ego, które przeszkadzało w prognozowaniu),

– brak konieczności interpretacji ruchów rynku, ich stanu technicznego,

– ogromna precyzja w rysowaniu, ustalaniu sygnałów, przydzielaniu kapitału, kontroli,

– systematyczność wyłączająca losowość działań i wyników,

– najłatwiejszy sposób weryfikacji działania narzędzi technicznych,

– możliwość użycia jako wsparcie dowolnych metod naukowych, również z innych dziedzin (np. fizyka, psychologia),

– łatwa możliwość jednoczesnego zastosowania na wiele rynków lub użycia wielu strategii jednocześnie,

– automatyczne zastosowanie zapobiegające pokusom łamania dyscypliny,

– łatwy sposób zweryfikowania części publicznie lub komercyjnie dostępnych strategii o nieudokumentowanej skuteczności (o ile znane są ich reguły decyzyjne),

– weryfikacja negatywna – możliwość wiarygodnego poznania „tego, co nie działa”, a więc wychwycenie tych narzędzi i strategii, które nie prowadzą do zysków,

– otwartość na ulepszenia, modyfikacje, rozwój,

– odnajdowanie luk i nieefektywności tam, gdzie ludzki mózg nie wystarcza.

I dla równowagi przegląd wad:

– nie wszystkie jeszcze techniczne narzędzia i techniki poddają się wystarczająco dobrej cyfryzacji, choć postęp jest coraz większy (np. zakodowanie formacji typu RGR albo użycie fal Elliota jest już możliwe),

– pomimo skokowego rozwoju sztucznej inteligencji nadal ilościowa AT nie dorównuje elastyczności ludzkiego mózgu oraz umiejętności w ocenie i podejmowaniu decyzji,

podatność na dopasowanie reguł strategii do danych historycznych, powodująca często brak skuteczności zastosowania w czasie rzeczywistym oraz wywoływanie iluzji skuteczności w rękach niedoświadczonego inwestora,

– brak wystarczającej odporności na niestacjonarność rynków (zmiany w ich dynamice, cykliczności), co wymaga ciągłych ulepszeń, optymalizacji,

– przejście na ręczne składanie zleceń wprowadza pokusę doraźnych modyfikacji intuicyjnych i nierespektowania wszystkich założeń i sygnałów (tzw. second guessing), co prowadzi do sporych odchyleń w wynikach, z utratą zyskowności włącznie,

– systemy działające bez uwzględnienia kosztów prowizji i poślizgów często pokazują zyskowność, która znika po ich uwzględnieniu.

Ze wszystkich rodzajów zastosowań AT ta właśnie zasługuje najpełniej na etykietę „AT (nie) działa” w sensie osiągania zysku jako celu. Za jej pomocą można wykryć bowiem te narzędzia i metody, które pozwalają zyskiwać bez konieczności dodatkowych ingerencji człowieka w proces decyzyjny. Można je więc uruchomić automatem do tradingu i monitorować skuteczność z boku.

Co więcej można precyzyjnie określić sposób działania i wszystkie reguły, a te z kolei można torturować wszelkimi dostępnymi metodami naukowymi. A wreszcie jeśli ktoś deklaruje, że metoda X działa w takich a nie innych warunkach i twierdzi tak ponieważ poddał ją testom komputerowym, to takie twierdzenie bije wiarygodnością wszelkie inne niesystematyczne rodzaje AT, o których pisałem wcześniej.

Niestety trzeba zmącić ów bajkowy krajobraz. A to z powodu sporego braku precyzji w użyciu słowa „działa” w odpowiednim czasie, o czym traktował jeden z moich wcześniejszych wpisów.

Otóż sprawdzając narzędzia techniczne i całe strategie z nich zbudowane na danych historycznych, zwykle udaje się znaleźć sporą ilość takich ustawień parametrów, które wskazują zyskowność w przeszłości. Hipotetycznie mogły więc skutecznie kiedyś działać. Problem w tym, że z setek czy tysięcy tych działających hipotetycznie w przeszłości tylko kilka rzeczywiście pokaże swoją siłę generowania zysków w przyszłości. Tak przejawia się okrutna zmienność dynamiki rynków, którą niełatwo ujarzmić za pomocą komputerowego modelu generującego komendy do robienia transakcji. Nadzieją jest sztuczna inteligencja.

To prowadzi do mniej więcej takich oto wniosków:

1. „AT działa” w postaci komputerowo zapisanej, kompletnej strategii tylko wówczas, gdy generuje zyski w czasie teraźniejszym, a nie tylko wtedy, gdy sprawdza się dobrze na danych historycznych.

2. Testy weryfikacyjne na danych historycznych pokazują, że spora część technicznych narzędzi i metod rzeczywiście nie jest skuteczna.

3. Testy na danych historycznych oraz w czasie rzeczywistym pokazują, że dane narzędzie czy metoda działa, ale JEDYNIE w określonych warunkach (np. tylko z jednym parametrem czy tylko stopem określonego rodzaju); to jeszcze bardziej utwierdza w precyzyjnym dobieraniu ocen – jakiś wskaźnik może nie działać w 9999 ustawieniach, ale dodanie np. ‘take profit stop’ zmienia wynik na zyskowny; tak naprawdę więc to wcale nie podstawowe narzędzie techniczne oceniane przez nas „działa”, to działa SPOSÓB ZARZĄDZANIA RYZYKIEM.

CDN

—kat—

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *


Twoje dane osobowe będą przetwarzane przez Dom Maklerski Banku Ochrony Środowiska S.A. w celu: zapewnienia najwyższej jakości naszych usług oraz dla zabezpieczenia roszczeń. Masz prawo dostępu do treści swoich danych osobowych oraz ich sprostowania, a jeżeli prawo na to pozwala także żądania ich usunięcia lub ograniczenia przetwarzania oraz wniesienia sprzeciwu wobec ich przetwarzania. Masz także prawo wniesienia skargi do organu nadzorczego.

Więcej informacji w sekcji "Blogi: osoby komentujące i zostawiające opinie we wpisach" w zakładce
"Dane osobowe".

Proszę podać wartość CAPTCHA: *