Nie widzę żadnych komentarzy ani krwawych polemik do poprzedniego wpisu, traktującego o wnioskowaniu z linii kapitału (equity) prawdopodobieństwa przeżycia strategii w przyszłości. Domniemywam więc, że zgadzamy się jednomyślnie co do postawionych tam tez i sugestii lub też, i wolę ten wariant, nikt z ekstremalnymi obsunięciami kapitału nie musi walczyć. Mimo to rozwińmy temat w kierunku wartości progowej bólu, który może się pojawić w przypadku ciągu nadprogramowych strat.
Nie podlega kwestii, że aby nie wyzerować rachunku przeznaczonego do tradingu jedną strategią, należy przed rozpoczęciem realnych transakcji:
A/ ustalić bezpieczną wielkość pozycji
B/ wyznaczyć dopuszczalny ?poziom bólu” czyli barierę ewentualnego, nowego maxDD
Oba działania są ze sobą ściśle powiązane. Jeśli próg bólu ustalimy sobie na 2-krotność maksymalnego obsunięcia w testach na danych historycznych (2 x maxDD testowe) to z oczywistych względów owo ?maxDD testowe’ nie może wynieść więcej niż 50% (bo 2x 50%=100%). Bezpieczniej założyć maksymalnie 35%, wówczas nasz próg w realnej grze wyniósłby 2×35%=70%. To i tak sporo biorąc po uwagę aspekt psychologiczny i wymogi kapitałowe pod depozyty. Dopuśćmy jednak owe 35% i w tym momencie nie pozostaje nic innego jak przyjąć w testach taką wielkość pozycji, która ciąg stratnych transakcji na danych historycznych zakończy właśnie na takim poziomie. Większość systemów, które w życiu testowałem i stosowałem, przekroczyła w realu maksymalne obsunięcie z back-testów (testów wstecz czyli na danych z przeszłości) stąd wiem jak istotne jest nie forsowanie equity i maxDD podczas procesu tzw. optisizingu czyli optymalizowania (optymalnego uzyskania) wielkości pozycji w testach.
Co robić jednak, jeśli pomimo wszystkich opisanych w poprzednim wpisie zabiegów, nasze maxDD dosięga w trakcie spekulowania żywą gotówką założony próg bólu czyli w naszej wersji 2x maxDD testowe? Najprostsza z porad – odcinamy strategię od gotówki. Nie na zawsze, dajemy jej szansę czyli czekamy aż krzywa kapitału ponownie wynurzy się ponad próg 2x maxDD. Nie ma oczywiście żadnej gwarancji, że po powrocie ponad niego znów nie wpadnie poniżej, ale o ile system nadal się nie zużył, takie wynurzenie powinno nastąpić (może nawet dwu-, trzykrotnie) i wznieść equity, najlepiej na nowe rekordy.
Istnieją również dużo bardziej wyrafinowane techniki radzenia sobie z krzywą kapitału i to nie tylko na etapie największego zanurzenia ale każdego innego drawdownu. Najtrafniej opisał to jak do tej pory (wg mojej wiedzy) Mike Bryant, twórca komercyjnych systemów MinMax i MinMax II (oba do tradingu na danych intraday), twórca software do celu analizy strategii mechanicznych i popularyzator wiedzy w tych tematach. W swoim serwisie internetowym wydaje co jakiś czas, niestety coraz rzadziej, newslettery z praktycznymi poradami jak uzyskać stabilność systemu i trikami usprawniającymi zyskowność, niespotykanymi w literaturze tematu. Anglojęzycznym czytelnikom polecam uważną lekturę newslettera „Equity Curve Trading Techniques„. Pozostałym przybliżę i skomentuję zaprezentowaną tam metodologię.
Na pierwszym z zamieszczonych tam wykresów pokazana jest equity systemu na kontrakty na indeks mini Russell 2000 (czerwona linia). Pokazuje ona zmiany kapitału powstałe przy zastosowaniu mechanicznego systemu, którego autorem jest Joe Krutsinger, a opartego na nieco tuningowanym wybiciu z kanału cenowego z X okresów, który wielokrotnie prezentowałem we wcześniejszych wpisach. Wielkość pozycji to za każdym razem 1 kontrakt. Linia granatowa jest zwykłą 30-sto dniową średnią uzyskaną z linii equity. Coraz więcej programów do A.T. umożliwia wstawienie tego rodzaju średniej nie na sam wykres instrumentu ale jego pochodne – w tym wypadku właśnie na equity.
Sedno pomysłu polega na odfiltrowaniu tych stratnych transakcji, które chadzają w seriach, powodując okresowe zjazdy wielkości kapitału. O ile więc dochodzi do sytuacji gdy equity przecina od góry swoją średnią – odpuszczamy kolejne transakcje do czasu, aż czerwona linia equity przetnie ponownie średnią ale tym razem od dołu. Pomysł bardzo logiczny i w opisywanym wypadku poprawił o ok. 20% zyskowność, zmniejszył maxDD z 30% do 17% a także zredukował liczbę transakcji o 29%. Wykres nr. 2 na wspomnianej stronie internetowej pokazuje rezultat tego filtrowania. Jedna uwaga – proszę zauważyć i wziąć pod uwagę w testach, że średnia na rysunku nr. 2 jest liczona od equity powstałej po opuszczonych transakcjach. Tymczasem zasadniejszym wydaje się być wzięcie pod uwagę raczej średniej oryginalnej czyli owej z rysunku nr. 1 a więc takiej jak gdyby wszystkie transakcje hipotetycznie się odbyły. To dlatego, że equity bez transakcji robi się płaska a jej średnia jeszcze bardziej i w rezultacie mogą przecinać się dużo częściej.
Podoba mi się natomiast dużo bardziej pewna modyfikacja owej techniki. Mianowicie zamiast odpuszczać transakcje – zmniejszamy ich wielkość. To jest mocno uzasadnione jednym szczególnie ważnym powodem, którego Bryant nie wymienia. Otóż o ile strata jednorazowa w każdej transakcji jest limitowana (np. do 2% posiadanego kapitału) o tyle zysk limitów już nie posiada i może jednorazowo sięgnąć dwucyfrowych wielkości. Ponieważ taka supertransakcja może pojawić się w każdym momencie to znając złośliwość losu często możemy być świadkami, że przydarza się ona właśnie na samym dnie obsunięcia, gdy nasze zniechęcenie sięga zenitu. Aby temu zaradzić Mike proponuje przy zejściu equity poniżej swojej średniej zmniejszyć standardową wielkość pozycji np. o 20%, i o taki sam rząd wielkości zwiększyć ją przy wybiciu powrotnym ponad średnią. Wykres nr. 3 pokazuje kapitał przed tym zabiegiem – proszę zwrócić uwagę że teraz do gry autor użył zmiennej wielkości pozycji – ryzyko wynosi 2% aktualnej wielkości dostępnych środków. Wykres nr. 4 to już wynik opisywanej metody filtrowania wielkości pozycji w zależności od tego po której stronie średniej jest equity. Zyskowność wzrosła o 50% bez zmiany maxDD.
Bryant nie opisuje słabych stron tej metody. Podpowiem więc krótko – każdy kto próbował strategii opartych na średniej wie, że sygnały bywają opóźnione albo jest ich spora ilość gdy na wykresie zasadniczym, z którego uzyskujemy średnią, ruch jest niewielki a przecięć fałszywych stosunkowo więcej. Nie przesądza to jednak, jak widać po wynikach, o braku efektywności choć trzeba sobie uświadomić, że w tych obliczeniach Mike również dokonywał optymalizacji i że dużo rzetelniejsze byłyby wyniki testów na danych nie pokazanych już na tych wykresach. Ale zachęcam każdego do samodzielnego sprawdzenia takiej techniki lub jej ulepszenia. W zasadzie na krzywej kapitału możemy dokonać wszelkich operacji z arsenału klasycznej A.T. choć proste jak zwykle bywa najpiękniejsze 🙂
–* Kathay *–
14 Komentarzy
Dodaj komentarz
Niezależnie, DM BOŚ S.A. zwraca uwagę, że inwestowanie w instrumenty finansowe wiąże się z ryzykiem utraty części lub całości zainwestowanych środków. Podjęcie decyzji inwestycyjnej powinno nastąpić po pełnym zrozumieniu potencjalnych ryzyk i korzyści związanych z danym instrumentem finansowym oraz rodzajem transakcji. Indywidualna stopa zwrotu klienta nie jest tożsama z wynikiem inwestycyjnym danego instrumentu finansowego i jest uzależniona od dnia nabycia i sprzedaży konkretnego instrumentu finansowego oraz od poziomu pobranych opłat i poniesionych kosztów. Opodatkowanie dochodów z inwestycji zależy od indywidualnej sytuacji każdego klienta i może ulec zmianie w przyszłości. W przypadku gdy materiał zawiera wyniki osiągnięte w przeszłości, to nie należy ich traktować jako pewnego wskaźnika na przyszłość. W przypadku gdy materiał zawiera wzmiankę lub odniesienie do symulacji wyników osiągniętych w przeszłości, to nie należy ich traktować jako pewnego wskaźnika przyszłych wyników. Więcej informacji o instrumentach finansowych i ryzyku z nimi związanym znajduje się w serwisie bossa.pl w części MIFID: Materiały informacyjne MiFID -> Ogólny opis istoty instrumentów finansowych oraz ryzyka związanego z inwestowaniem w instrumenty finansowe.
Dla mnie wprowadzanie średniej i tym podobnych manewrów na Equity to jednak "flinta w flincie".
Narażamy sie dodatkowo na wady tych przekształceń i do tego jeszcze na otwartym sercu Equity -;)
Jakbym uprawiał filozofię a nie grę giełdową…
Jak testuje system na danych historycznych to widze jego wady w określonych momentach w których jest rynek.
Problemem jest tylko czas występowania tej wady {tzn długość}. Teoretyzując dalej jak np. gram z trendem to manewruje wielkością pozycji to potrafi znakomicie wygładzić jednak okres wystepowania wady w sposób naturalny bez potrzeby średniej na Equity {średnia sobie może być ale jej decyzyjności dla mnie}; pozostaje tylko kwestia "nieoczekiwanej zmiany"
Albo ja nie rozumiem zasad pracy tego człowieka albo dorabiamy "filozofię do rzeczywistości"
Sam sobie odpowiedziałeś – „czas występowania tej wady” 🙂 jest jeszcze „wielkość obsunięcia podczas tej wady” …
Jakie manewrowanie wielkością pozycji wygładza ci equity w sposób naturalny? Bo podejrzewam że nie różni się ono co do zasady w stosunku do tego co przedstawia Bryant
No właśnie…to po co mi średnia decyzyjna na Equity ?
Napisałem w tym sensie…
Ja nie neguję tylko próbuję złapać logikę…
Jedyne co w tym się domyślam to przedstawienie graficzne systemu żeby była kolejna dana do wyciągania jakiś wniosków. Tylko traktowane jaka dana wpływająca a nie decyzyjna {nie wiem czy się zrozumiale wyrażam}. A on z niej zrobił decyzyjną.
Mnie chodzi tylko o to kathay żebyś mi powiedział że dokładając jakieś zarządzanie wielkością pozycją czy dodatkowym warunkiem {w tym przypadku np. HHV z H, 50 czyli kupuję na wybiciu z HHV 20 ale w przypadku gdy jest to HHV z 50 to biorę dwa razy tyle czy jakikolwiek inny} tego efektu nie uzyskam bez analizy średniej z Equity…
A co do wielkości obsunięcia to mając np. 10 kolejnych nietrafionych to jestem na początkowej pozycji gdzie np. ryzyko z 2% portfela przestawiłem na 1% czyli zarządzając ryzykiem na Equity też będę jeszcze potrzebował decyzyjnej sredniej na Equity ?
Jestem otwarty tylko chciałbym usłyszeć czy Ty całym swoim doświadczeniem widzisz tego sens…
Pomysł wydaje mi się bardzo fajny, szczególnie że niektóre systemy ewidentnie działają "seryjnie", czyli rok męki bez rezultatów a potem 100% w dwa kwartały. Mam wrażenie, że ma to coś wspólnego z tendencją zmienności do grupowania się. Jednak jako pewną wadę przytoczonej koncepcji wskazałbym to o czym zdaje się niedawno przypominałeś – nadmierną ilość parametrów. Działanie na equity curve powoduje że siłą rzeczy dodajemy kolejne parametry (choćby długość średniej), co wiąże się z oczywistymi niebezpieczeństwami.
A co powiecie na taki system: zamiast korzystać ze średniej equity curve, ustalamy maksymalny akceptowalny DD (np. 2 x historyczny DD) i poziomy osiągane przez spadającą linię kapitału, przy których ograniczamy wielkość pozycji. Np. rzeczywisty DD przekracza historyczny DD, wiec zamiast ryzykować 2% kapitału przy każdej transakcji zmniejszamy ten poziom do 1%; rzeczywisty DD spada dalej np. do 1,5 x historyczny DD, więc wystawiamy na ryzyko już 0,5% kapitału itd. Przy odrabianiu strat oczywiście stopniowo zwiększamy zaangażowanie. Co o tym sądzicie?
zajrzyj tutaj {strona która podał kathay tylko inny link}
http://www.breakoutfutures.com/Newsletters/Newsletter1207.htm
@ DAPI
Ciekawy artykuł, ale nie dotyczy tego o co pytałem 😉 Chodzi mi o to, czy nie lepiej byłoby zmieniać wielkość pozycji na podstawie obecnego DD zamiast średniej z EC, gdyż ta – jak pisał Kathay – może być opóźniona, a i ty masz rację, że jest to kolejny parametr do optymalizacji.
Ale z atrykułem też się zgadzam – jedna rzecz to osiąganie określonych poziomów ryzyka i zysku związanych bezpośrednio ze strategią, druga – wyniki systemu optymalizowane dzięki określonemu zarządzaniu pozycją.
troszczke zrobiłem skrót myślowy ale miałem na mysli to iż działania na Eguity winny przynosić te same efekty co na cenie…
czyli stosując albo MM albo inne rodzaje stopów {tylko na krzywej Equity} winny ułożyć się w podobne uszeregowanie
ale to jest moje przekonanie jak na razie bez jakiś testów.
Średnia na equity jest to kolejny stopień optymalizacji i tylko czekać na horyzontalną equity przy której taka średnia wyłoży sie krótko mówiąc.
Bardziej skłaniam się w kierunku propozycji tomfida,pogorszy się jednak trochę zysk do ryzyka – ale ubezpieczenie kosztuje 😀
Tosja jestem ciekaw strategi Investors wlasnie zrobili max DD
@kathay: z innej beczki: tak sie zastanawiam czy zrodlem, ktore doprowadzilo do Twojej operacji nie byl nadmiar nerwow towarzyszacy traderowi:P ?
Niemniej jednak – szybkiego powrotu do zdrowia!
Postaram się jednym postem odpowiedzieć wszystkim:
CEL ZASADNICZY
Wszystko wyszło od zapytania jak stwierdzić na podstawie equity czy system jeszcze pożyje. Odpowiedź najprostsza – nie da się tego przewidzieć ale da się zapobiec katastrofie. Rozwiązaniem w tym wypadku jest stop na equity. Jak go realizować pokazałem na najprostszych przykładach. Można zrobić tzw. hard stop czyli maxDD x mnożnik. Można zrobić soft stop- czy to będzie w formie średniej czy MACD albo procentowo od equity high/low bądź też jeszcze inaczej to kwestia własnego wyboru. testów, psychologii. Wszystko sprowadza sie do jednego – przyjmujemy że ustawiamy próg bólu by nie zresetować rachunku ale też dajemy sobie szansę powrotu na rynek z danym systemem jeśli się wynurzy. Średnia to już wyższa szkoła jazdy ale można sobie z nią poradzić jak wykazał Bryant. Jesli jednak zdecydujemy się na rodzaj hard stopa – testy optymalizacyjne nie są potrzebne. Co najważniejsze – ja NIKOGO NIE namawiam przecież na nic! pokazuje jedynie możliwości jak zywkle zreszta…. Sam stosowałem hard stopa dziś raczej dywersyfikuję systemy.
miał być 1 post będą 2 🙂
CEL WTÓRNY
O ile stop z opuszczeniem transakcji jest ingerencją w rozkład transakcji – ich zysków i strat o tyle zmiana zaangażowania w wielkości pozycji nie dotyczy już samej strategii ‚per se’ ale zarządzania pozycją i kapitałem (Money Management – MM). Zarzut, że to jakaś dodatkowa optymalizacja jest nie na miejscu z prostego powodu – optisizing czyli wybór sposobu zarządzania wielkoscią pozycji MUSI być i tak wykonany !!! I znów – nie musi to być średnia na equity, każdy inny sposób prowadzący do zwiększenia efektywności będzie dobry o ile nie zmąci stabilności całej strategii. Może to być po prostu progowa zmiana jednostkowego ryzyka (jak ktoś proponował- mniejszy % kapitału zaangazowany w miarę strat – większy przy wynurzaniu). I znów nikogo do NICZEGO nie namawiam. Sam stosuję dość skomplikowaną strategię przydziału kapitału zależną i od zmiennosci i od wielkości obsunięcia. Punktem wyjścia jest pewna niedogodność zwiazana z maxDD – jesli stosujemy betsizing w formie % kapitału (np. 2%) to przy sporych maxDD możemy z owego maxDD już nigdy nie wyjść o ile nie dostaniemy od rynku naprawdę porządnego ciągu zyskownych wejść. Bo kapitał spada nam bardzo szybko -ryzyko 2% od 100 tys daje zwykle większą ilość jednostek niż 2% od 40 tys po zrobieniu 60% maxDD- w związku z czym odrobienie tego mniejszymi pozycjami jest dużo trudniejsze. To bardzo skrótowe ale mam nadzieje wrócić kiedyś do tematu szerzej
ps. maki – bynajmniej nerwy to ostatnia rzecz 🙂 Po tylu latach spędzonych w tym biznesie sam się o tym przekonasz. Chyba, że zaczniesz inwestować powierzony kapitał.
Na marginesie – polecam wszystkim nowy film „21” z Kevinem Spacey’em! Znakomite studium rozkładu prawdopopobieństw i opanowania emocji w grze w black jacka. Jest sporo paralel do tradingu a gracze w black jacka nie na darmo są doskonałymi traderami. Bo tak naprawdę trading to gra w numerki 🙂
no tak…system mieszany ale
także dywersyfikacja rynków np. w najprostszej postaci nisko skorelowane waluty na fx