Modele, którym poświęciłem 2 poprzednie wpisy, a objęte nazwą „Stały rozmiar” (Fixed size), są wg moich obserwacji bardzo popularne wśród inwestorów indywidualnych, mimo to Tharp nie poświęca im wiele uwagi w swoich książkach.
No może poza szczątkowym opisem oraz krótkimi uwagami poświęconymi przy okazji instrumentom lewarowanym, które rządzą się nieco innymi prawami.
Ów szczątkowy opis ma nazwę „Equal Units Model” czyli „Model równych jednostek”. Jest on w zasadzie wielce podobny do tego dopiero co opisywanego przeze mnie jako „Fixed amount” czyli „Stała kwota”. Zamiast przeznaczania w nim dowolnych kwot na dany rynek/instrument, w który inwestujemy (np. 30 000 PLN w kontrakty, 10 000 PLN w akcje), dzieli on całość zasobów na równe jednostki (units) i potem je przydziela. Czyli np. 1 jednostka = 10 000 PLN i z tego 3 jednostki przeznaczamy na kontrakty i 1 jednostkę na akcje jak wyżej. Różnica kosmetyczna i nie warta nawet uwagi.
Natomiast uwagi wart jest być może powód, dla którego Tharp nie poświęca w ogóle czasu na pozostałe modele o stałym rozmiarze wielkości pozycji (szczególnie na procentowy), pomimo ich popularności.
Odpowiedź wg mnie jest trywialna: popularność nie ma związku z ich użytecznością. Po części może mieć więc Tharp rację. Modele owe nie są powiązane w bezpośredni sposób ze sposobem wyznaczania i kontrolowania ryzyka czyli ze stopami i obsunięciami kapitału, a także ze zmiennością rynku, co zresztą zaznaczałem we wstępie do ich opisu. Skoro nie można za ich pomocą dopasowywać wielkości kapitału do ryzyka to działanie owo wydaje się nieoptymalne, pod pewnym względem nieracjonalne, wystawia na nieproporcjonalnie rozłożone siły rynku, szczególnie właśnie w zakresie strat.
W zasadzie przeznaczone są więc dla początkujących lub tych, którzy zmienności i ryzyka nie kalkulują z góry lub wcale (głównie traderzy intuicyjni). Są jednak wygodne ze względu na prostotę wyliczeń, a przez doświadczenie dają pewien pogląd i obeznanie się z rynkiem, z czasem natomiast zapewne zaczyna się liczyć pewnego rodzaju przywiązanie do ich użycia. Czy są jednak skuteczne i lepsze od modeli bardziej zaawansowanych?
Testy komputerowe z ich użyciem nie wypadają wcale najgorzej, ale trzeba mieć świadomość, że jeśli strategia/system niesie ze sobą jakąś przewagę nad rynkiem to niemal każda metoda określania wielkości pozycji prowadzi do skuteczności choćby najniższego rzędu. Testy komputerowe mają tę zaletę, że pozwalają zmieniać i weryfikować wiele parametrów jednocześnie zatem użyteczność „stałych” metod doboru pozycji łatwiej w takiej właśnie formie zbadać na danych historycznych i wyciągnąć wnioski odnośnie skuteczności i oddziaływania w zakresie każdego detalu. Szczególnie pomocne jest wnioskowanie o możliwych największych obsunięciach kapitału, w odniesieniu do których najłatwiej wówczas określić wielkość owej „stałości” czyli np. procent zaangażowania w modelu „stały procent” (fixed precent).
Modele zaawansowane, o których więcej w kolejnych wpisach, niosą z kolei korzyść opartą właśnie na możliwości modelowania MM z uwzględnieniem ryzyka i zmienności rynku. Wyższe ryzyko można wówczas amortyzować niższą wielkością pozycji lub odwrotnie. Wprowadza to pewien element stabilności, ale ponownie dodam: strategia musi posiadać pozytywną wartość oczekiwaną żeby mówienie o wyborze lepszego czy gorszego MM miało sens. Bywa bowiem i tak, że komputerowe modelowanie kończy się dopasowaniem do danych, tym lepszym im bardziej kompleksowy model MM, a przewaga staje wówczas się jedynie ułudą.
Jak praktycznie w modelach „Stałej wielkości” obliczyć optymalną wielkości „stałego” parametru (ile sztuk, jaki procent itd.)? Niezmiennie jestem zwolennikiem tego by zrobić to najprościej – zbudować algorytm choćby w arkuszu kalkulacyjnym i przetestować strategię na danych historycznych aby sprawdzić jak rozkładają się szanse oraz zasięgi strat i największych obsunięć przy zmianach wielkości „stałej”. Jednakże większość użytkowników tego typu metod MM nie używa komputerowego modelowania. Co więc pozostaje?
Bez dokonania jakiegokolwiek skalowania pojedynczego i całościowego ryzyka oraz świadomości własnej przewagi nad rynkiem można jedynie poddać się metodzie prób i błędów. Taniej wychodzi test na papierze czy rachunku demo. Zacząć od niskich pułapów zaangażowania i podnosić je stopniowo, mając w świadomości słabe i dobre strony, które opisywałem, badać przebiegi i rozkłady obsunięć, ważyć emocjonalne ich oddziaływanie na własny układ odpornościowy i psychologiczny. Ale nie podejmę się próby oceny tego czy pozycje w akcjach wielkości 50% kapitału to zbyt dużo czy zbyt mało. Pamiętajmy, że mówimy o tradingu, czyli o określonej częstotliwości transakcjach gdzie straty potrafią się kumulować, a nie inwestowaniu, gdzie stopów często nie używa się wcale.
Jeśli natomiast na podstawie hipotetycznych transakcji z przeszłości uda się papierowo wyskalować ryzyko i oszacować procentowe zasięgi pojedynczych strat jak i największego możliwego obsunięcia kapitału (maximum drawdown = maxDD) oraz wielkość przewagi, to dysponujemy już materiałem do bardziej dokładnych obliczeń poziomu „stałego” zaangażowania MM. O ile maxDD sięga 50% i więcej to jest mało prawdopodobne by taki poziom spokojnie emocjonalnie wytrzymać w realnych warunkach, tym bardziej, że zwykle obsunięcia w rzeczywistej grze przewyższają te z papierowych obliczeń. Poziom zaangażowania trzeba więc zmniejszyć. Albo zaaplikować nieco bardziej złożone metody MM.
—kat—-
16 Komentarzy
Dodaj komentarz
Niezależnie, DM BOŚ S.A. zwraca uwagę, że inwestowanie w instrumenty finansowe wiąże się z ryzykiem utraty części lub całości zainwestowanych środków. Podjęcie decyzji inwestycyjnej powinno nastąpić po pełnym zrozumieniu potencjalnych ryzyk i korzyści związanych z danym instrumentem finansowym oraz rodzajem transakcji. Indywidualna stopa zwrotu klienta nie jest tożsama z wynikiem inwestycyjnym danego instrumentu finansowego i jest uzależniona od dnia nabycia i sprzedaży konkretnego instrumentu finansowego oraz od poziomu pobranych opłat i poniesionych kosztów. Opodatkowanie dochodów z inwestycji zależy od indywidualnej sytuacji każdego klienta i może ulec zmianie w przyszłości. W przypadku gdy materiał zawiera wyniki osiągnięte w przeszłości, to nie należy ich traktować jako pewnego wskaźnika na przyszłość. W przypadku gdy materiał zawiera wzmiankę lub odniesienie do symulacji wyników osiągniętych w przeszłości, to nie należy ich traktować jako pewnego wskaźnika przyszłych wyników. Więcej informacji o instrumentach finansowych i ryzyku z nimi związanym znajduje się w serwisie bossa.pl w części MIFID: Materiały informacyjne MiFID -> Ogólny opis istoty instrumentów finansowych oraz ryzyka związanego z inwestowaniem w instrumenty finansowe.
@KAthay
fixed amount =! fixed percent w kontekście equity.
W kontekście zmienności być możę , ale zmienność to nie ryzyko ryzykiem jest DD, a ten przeważnie powstaje w okresie małej zmienności tudzież czasami rzadko ekstremalnie dużej 🙂
Te modele nie są wcale stałe jedna to martyngał a druga antymartyngał, więc skrajnie odmienne działanie.
Stałość wynika jedynie z zapatrzenia w tę samą liczbę procentów tudzież baksów.
„Tharp nie poświęca w ogóle czasu na pozostałe modele o stałym rozmiarze wielkości pozycji (szczególnie na procentowy), pomimo ich popularności.”…………………….
Odpowiedź wg mnie jest trywialna: popularność nie ma związku z ich użytecznością.”
Tharp nie poświęca czasu na pozostałe modele ponieważ tak naprawdę jego podejście do zarządzania pozycja to margines twórczości.
Koncentruje się na wydobyciu , a raczej pomiar edga dzięki expectancy, ale nie ma zielonego pojęcia jaką stawka zagrać by wydobyc optimum expectancy ponieważ jego model /o ile w ogóle ma jakikolwiek traktowany całościowo/ zupełnie nie bierze pod uwage MaxDD jest na to ślepy i ułomny pod tym wzgledem.
Natomiast od razu aplikuje zarządzanie pozycją w zależności od zmienności /nie jego pomysłu/ rynku /innymi słowy uzależnia bet w każdym trejdzie mając nadzieję ,że zmienność załatwi optimum, a ona to optimum ogranicza IMO/ tylko, że zupełnie nie wie jaki z tego może powstać DD.Ma jedynie nadzieję , że uzależniając się odwrotnie proporcjonalnie od wariancji zmienności na rynku ochroni kapitał .
Ochronić może ochroni , ale jednocześnie przytnie optymalny RR czyli koniec końców ograniczając expectancy, czyli nie chroni już tak bardzo 🙂
Pamiętajmy ,że MaxDD nie jest odwrotnością stopy zwrotu i nie zmniejsza się automatycznie jak uzależnimy ryzyko od wariancji zmienności rynku. Pomniejszając expectancy czyli pośrednio stopę zwrotu wpływamy na MaxDD i Return pogarszając ich wzajemny stosunek.
Pytanie do autora:
Pomijając popularność.
Czy uważsz ,że fixed percent of equity /not capital/ jako antymartyngał jest nieużyteczny w kontekście Risk Management i MM na rynku.
A może martyngał czyli powiększanie przy stracie jest użyteczniejszy w kontekście RM ?
@pit65
„Koncentruje się na wydobyciu , a raczej pomiar edga dzięki expectancy, ale nie ma zielonego pojęcia jaką stawka zagrać by wydobyc optimum expectancy ponieważ jego model /o ile w ogóle ma jakikolwiek traktowany całościowo/ zupełnie nie bierze pod uwage MaxDD jest na to ślepy i ułomny pod tym wzgledem.”
Mniej zaawansowanym blogowiczom warto od razu nadmienic, ze „wydobycie optimum expectancy” bedzie rozne, dla roznych celow jakie sobie stawiamy. Mowiac inaczej, mozna dla konkretnego systemu okreslic sobie cel, a pozniej policzyc szanse na jego osiagniecie. Celem nie musi byc stopa zwrotu jaka chcemy osiagnac, ale tez np. okreslony z gory poziom maxDD.
Tharp w Definitive Guide podaje 6 przykladowych definicji tego, co moze byc optymalne. Podkresle raz jeszcze: to co jest dla Ciebie optymalne, nie musi byc optymalne dla mnie z prostego powodu: mamy inne cele jakie sobie zakladamy.
Przykladowo Tharp podaje optymalna wartosc stawki dla sytuacji, gdzie naszym celem jest osiagniecie danym systemem 300% stopy zwrotu w 100 transakcjach. Mianem ruiny/bankructwa jest tutaj zalozona wartosc 25% (maxDD). Czyli jesli system w trakcie tradeowania zaliczy zjazd kapitalu o 25%, to traktujemy to jako game over. I tak: optymalna wartosc stawki jest inna, jesli chce byc na prawde mega ostrozny i miec mniej niz 1% prawdopodobienstwa na okreslony maxDD (osiagniecie celu 300% stopy zwrotu bedzie sila rzeczy trudniejsze).
Inna zas bedzie optymalna stawka, jesli na sprawe popatrze tak: chce osiagnac 300% ale tez nie chce osiagnac jednak tego maxDD (czyli nie chce tych 300% za wszelka cene/ryzyko osiagac). Patrze wiec na stawke, gdzie roznica pomiedzy prawdopodobienstwem osiagniecia 300% i prawdopodobienstwa maxDD jest najwieksza. Czego moge sie dowiedziec symulujac taki scenariusz? Na przyklad tego, ze dla tego konkretnego systemu optymalna stawka jest 1.8% per transakcja. Ze mam 76% szans na osiagniecie owych 300%, przy 4% szansy na zaliczenie bankructwa (maxDD).
Zalozmy tez, ze przystepujac do symulacji dla powyzszego systemu, z gory zakladam, ze nigdy nie chce w jednej transakcji ryzykowac wiecej niz 30% (sic!). Jesli jako cel symulacji okresle sobie, ze dla proby 10 000 przypadkow chce poznac optymalna wielkosc stawki, gdzie sredni zysk jest najwiekszy, to wynikiem bedzie stawka wlasnie 30%. Tak, dla takiej stawki, tak bardzo wysokiej, sredni zysk jest najwiekszy. Warto jednak dodac, ze nasze prawdopodobienstwo osiagniecia 300% bez zaliczenia 25% drown-down’a wynosi zaledwie 0.2%, gdy w kazdej transakcji ryzykujemy 30% naszego kapitalu. Wynika to z tego, ze przy na prawde duzej liczbie symulacji, trafimy w koncu na takie ciagi transakcji zyskownych, gdzie finalnie przy tak duzej stawce wygenerujemy ogromne zyski. Tyle, ze prawdopodobienstwo tego jest nieslychanie niskie.
Dlatego pisanie o wyciaganiu optimum z expectancy z danego systemu powinno byc zawsze uzupelnione o cel, do ktorego zmierzamy.
Dodam, ze powyzsze liczby sluza tylko przyblizeniu pewnego sposobu spogladania na sprawy zwiazane z MM. Przy okazji widzimy, ze ten kiepskawy Tharp o tym maxDD to jednak cos tam pisal 😉
Zyje tez nadzieja, ze Kathay da wpis o slynnym optimal f. A to wszystko bedzie ozdobione pieknymi symulacjami.
@IL
Ale mi tu działo wytoczyłeś 🙂
MOże zaczne tak.
Nie wiem ile celów mozna sobie wyznaczać pewnie nieskończenie wiele, ale zwracam uwage na stosunek stopy zwrotu do MAxdd liczonego na danych historycznych.
Sama stopa zwrotu bez MaxDD jest niczym jak i MAxDD bez stopy też.
Te dwie zmienne nieustannie na siebie oddziaływuja .
Reszta celów sie w zasadzie nie liczy bez spełnienia tegoż, prócz byc może bankructwa , które o to nie dba.
Dlatego też np. optimal f liczone od największej straty historycznie jest dla mnie o wiele bardziej wymowne niż przykład, który raczyłeś podać.
Nie mam nic do warsztatu wszystko jest poprawne tylko system nie zależy od statystyki , a od synchronizacji z niestacjonarnym rynkiem.
Dlatego też prawdopodobieństwa liczone na podstawie wariancji stóp zwrotu „masowane” rozkładem normalnym dają zawsze nierealistyczne wyniki. Nie postawił bym na to złamanego centa.
Doszliśmy tutaj do zasadniczej różnicy w koncepcji ryzyka a także postrzegania tego samego MaxDD.
Dla mnie ryzykiem jest samo DD /rozkład historyczny/ oddziałujące na portfel namacalnie natomiast dla Tharpa DD jest celem liczonym z określonym prawdopodobieństwem ryzyka .
To są różne koncepcje podejścia do zarządzania ryzykiem .
Tak, że „kiepskawy” Tharp inaczej do Tego MaxDD dochodził.
i nie chodzi o jego kiepskawość po prostu ten jeden rozdział to jest tylko krótki przegląd i wprowadzenie do tematu, na stan jego wiedzy. Nic kompleksowego kilka pewnych luźnych propozycji co i tak jest bardzo dużo biorąc pod uwage ,że większość guru książkowych „mściło sie” przeważnie na samych średnich, oscylatorach itd o zarządzaniu nie wspominając nic.
@ mzpriv
A tu masz bardzo dobry, świeżutki tekst na powyższy temat pióra Paul’a Kasriel’a teraz emeryta, gdzieś tam sobie dorabiającego, a do niedawna gł. ekonomisty Northern Trust.
Ponieważ jestem tylko ekonomem, a nie ekonomistą, nigdy bym nie potrafił tego tak ładnie jak On napisać.
Zwróc uwagę na to, co dzieje się teraz z kredytem w bankach komercyjnych…
Tapering w październiku, jak chce Bullard? Bajki, takie same jak tapering 18.09…
http://www.the-econtrarian.blogspot.com/
Pomyłkowo wrzuciłem powyższego posta nie pod właściwy temat. Jeśli to możliwe, proszę o wykasowanie spod tej dyskusji
@pit65
Wszyscy stapamy po dosc niepewnym gruncie. Na przyklad fizycy marza od lat, by teorie mechaniki klasycznej moc polaczyc z mechanika relatywistyczna i kwantowa. Po prostu nawet tak wielcy jak Newton nie byli w stanie przewidziec wszystkiego. Mimo to, wciaz jego teorie dzialaja w wielu przypadkach.
Zajmujac sie np. MM, dochodzisz do momentu, gdzie to co masz pod reka (wszelkie narzedzia typu AmiBroker) po prostu jest za slabe i nadaje sie do kosza. Ale wtedy, wyciagajac armaty czujesz sie jeszcze bardziej jak Edward Lorenz i doswiadczas swoj efekt motyla. Pracujesz jak wol i masz wrazenie, ze sie cofasz coraz bardziej, zamiast isc do przodu.
Nie mam sil i czasu na przerzucanie sie argumentami. Wrzuce jeden kamyczek tylko do ideii optimal f — historyczne maxDD. Tyle, ze petla znow sie zamyka, rozumiesz mnie? To wszystko jest bez sensu?
Pozdrawiam.
@JL
Rozumiem pewien bezsens tej pętelki.Ale bez jej zrozumienia bezsens tego co sie robi na rynku w sensie panowania nad stratą byłby jeszcze większy 🙂
Jeżeli o mnie chodzi jedyny elementem nad czym warto sie pochylic w całym tym interesie to skupic sie właśnie na MaxDD , wynikającym z historycznego prawdziwego rozkładu i dac sobie spokój i idealnym rozkładem normalnym przszacowującym w każdym wypadku wyniki.
Matematyka nic tu dodać nie zdoła.
Co prawda w obu przypadkach działamy w warunkach nieskończonej wariancji, ale przybliżenie wychodzi lepiej dla rzeczywistego choć historycznego IMO.
Dlatego też preferuje optimal „f” który nie jest celem samym w sobie tylko droga do uzyskania takiego fraction dla którego poprzez technike antymartyngałową w każdym momencie zmiennej equity mam takie samo prawdopodobieństwo osiągnięcia zakładanego MaxDD zależnośc liniowa dla akceptowanego zwrotu z kapitału liczonego średnią geometryczną.
zależność między MaxDD i CAGR jest wtedy liniowa. Dopasowaując stawkę akceptowalne MaxDD dopasowuję liniowo CAGR.
Oczywiście ,żadne czary mary z historią,statystyką i prawdopodobieństwem nie pomoga jak synchronizacja logiki z rynkiem się rozleci w sytuacji gdy rynek wchodzi w nieznaną historycznie wariancję.
Ale nawet w tym przypadku mamy sygnał wdość wczesnego ostrzegania ,że coś się dzieje żle, co w połaczeniu z optymalnie dobraną stawką daje szansę wyjścia na względnie małych stratach.
I o to chodzi, a jeżeli wcześniej przez jakiś np. czas podwoiliśmy kapitał to jest już gites 🙂
@pit
Martyngał przy DD -> tak, uważam za użyteczny we wszystkich modelach.
Ale to nie będzie ocena obiektywna ponieważ znam swoje EV a przede wszystkim stawiam na strategie z dużą trafnością więc wiem z jakimi kartami gram.
Co do maxDD – z wszystkich miar u mnie ta jest pierwsza w kolejce zaraz po edge.Co do Tharpa – na 90% jestem przekonany, że nie robi tradingu systemami więc jego optyka będzie nieco inna niż nasza.
@JL
Doprawdy nie wiem czy na pewno zawracanie ludziom głowy opt.f jest konieczne 🙂 Osobiście nie znam nikogo kto tym jedzie na rynku.
Williams kiedyś się przyznał, że wykorzystał Kelly’ego w wygranych Robbins Championships i dopiero gdy zrozumiał co tam naprawdę siedzi to uznał, że było to czyste szaleństwo i never again! Zdaje się nawet jakieś niesnaski miał potem z Vincem. To mi tkwi w mózgu jak zadzior w kontekscie opt.f i Kellyego:)
A kwestia celów to miał być temat na najbliższą przyszłość, po części mnie wyręczyłeś:)Zastanawiam się tylko jak to sensownie i zrozumiale ugryźć …
Odnosnie optimal f to myslalem o tym w kontekscie co w MM wymyslono, ale jest to z gatunku „don’t try this at home”. Poniewaz pit z tego podobno korzysta, to sam wpis moglby byc ciekawszy 🙂
@Kat @Jl
Zawracanie ludziom głowę optimal F nie jest wcale konieczne zupełnie wystarczy 1 lub 2 % F arbitralnie 🙂
Wydaje mi się ,że wiem dlaczego Wiliams sie przejechał na opt. F , po prostu sposób jaki to opisał i wyliczył Vince nie działa.
Jego TWR daje parabole sugerując ,że istnieje jakies optymalne F co inaczej można przetłumaczyc ,że manipulując stawką można wpływac na optimal expectancy systemu .
Teoretycznie zgadując sekwencję dobrych i żłych wejśc możemy , ale w tabelach nie o to Vincowi chodziło co widac i czuć w przedstawionych liczbach.
Dawno temu robiłem sobie testy i mam jeszcze gdzieś wyniki zalezności typu CAGR , MAXDD ,NetPRofit przy zmianie stawki F w zakresie 0.12-0.7 , które niczego takiego nie potwierdzają .
Wyszedłem wtedy z założenia sugestii Vinca , że F z Kellys expectancy pokrywa się w zasadzie z jego TWR.Okazało się, że wyniki temu przeczą.
Podejrzewam ,że sposób /algorytm/ liczenia TWR /iteracyjnie/ na to wpływa .Nie miałem czasu i chęci by się w to zagłębiać, ale może być to problem odnośnika do początkowego stałego kapitału w każdej iteracji wyliczenia TWR co skutkowałoby takim a nie innym przebiegiem wykresu.
NAtomiast co jest ważne.
Ważna jest sama idea liczenia F.
Czy to poprzez TWR czy expectancy w formule Kelly łączymy go z ryzykiem w postaci DD , czy największej straty.
Kończąc na expectancy w ogóle nie dotykamy ani serii strat , ani DD.
Możemy co najwyżej wnioskowac o tym na podstawie wariancji stóp zwrotu i wyliczeniu ryzyka na podstawie rozkładu normalnego.
Łącząc expectancy z DD łączymy go z historycznym , ale prawdziwym rozkładem , a konkretnie z największym historycznym fat tail i od tego uzależniamy stawkę po prostu dzieląc największą stratę na kilka jednostek zaleznych od expectancy. To jest ta logika.
Dlatego tez uważam ba jestem pewien ,że F tak policzone jest przeszacowane bardziej / w kontekście ryzyka rynkowego/ niż ryzyko wyliczone sposobem Analizy Rynku efektywnego, który w ogóle nie zakłada występowania fat tail , a więc automatycznie niedoszacowuje tego typu ryzyka 🙂
Zresztą empirycznie policzyłem to dla więcej niż 10 systemów.
NIe wydaje mi się bym potwierdził obiegowe opinie o zbyt agresywnym charakterze stawki.
Generalnie f trzeba dotuningowac czasami in minus czasami in plus.
In plus dla systemów trendowych ze względu na małą celność i duże win/loss ratio , a dla revert to the mean odwrotnie.
@Kat
„Martyngał przy DD -> tak, uważam za użyteczny we wszystkich modelach.”
O tak tylko przychodzi taki moment , qa przychodzi na 100% , kwestia czasu ,że martyngał odbiera wszystko to co Ci naddał wcześniej 🙂
bankfotek.pl/view/1580549
@Kat @Jl cd
KOnkludując i uściślająć moje wcześniejsze słowa odnośnie optimal F Vinca.
1. Przykłądy w książce Vinca dotyczące optimal F w sensie takiego przebiegu wykresu
bankfotek.pl/view/1578670
dotyczą biorąc przykład z naszego podwórka wyznaczenia optymalnej stawki do gry 1 kontraktem przez cały czas.
Innymi słowy jaka jest optymalna ilość pieniędzy na 1 kontrakt by w jednym zakładzie nie doświadczyć więcej niż max historyczny zjazd w kontekście stałej expectancy.
2. Wszyscy którzy narzekają na F ,że jest zbyt optymistyczne w stosunku do podejmowanego ryzyka zupełnie tego nie rozumieją.
I tak na przykłąd jeżeli licząc na 1 kontrakcie wyliczam optimal F = = 0.12 to nie oznacza ,że w jednym trejdzie mam postawić 12% kapitału.
Nic bardziej mylnego .
To oznacza, że dzielę max stratę przez współczynnik F by w konsekwencji obliczyć taką ilość zakupionych jednostek by za cały zakup doświadczyć w jednym trejdzie straty nie większej niż max strata historyczna.To zupełnie zmienia optykę.
Widzimy więc jasno ,że przy np 10 stratch pod rząd co jest wartością sensowną posługiwanie się optimal F uzależnionym od Max straty zakłada się apriori ,że dostąpimy 10 max strat historycznych pod rząd w przyszłości co jest wyjątkowym przeszacowaniem ryzyka.
Bardziej realistyczne jest podzielenie średnie straty przez F IMO.
więc zdanie:
„Osobiście nie znam nikogo kto tym jedzie na rynku.”
świadczy o zupełnej ignorancji i braku wiedzy tych którzy tego nie próbowali wykorzystać.
A pewnie wykorzystywali tak jak rozumieli czyli prostą heurystyką chłopka roztropka , którzy czytając Vinca myśli: eee tam 12% ryzyka w trejdzie – szaleństwo 😉
3. To co może zmylić i myli w przykładach Vinca to właśnie to że sposób liczenia optimal F nie jest tożsamy z zarządzaniem pozycją w kontekście utrzymywania stałego ryzyka do zmian equity.
To trzeba sobie samemu obliczyc i wtedy wyjdzie jasno liniowa zależnośc między podejmowanym ryzykem w sensie MaxDD a stopą zwrotu CAGR. W tym sensie nie ma czegoś takiego jak pojedynczy optimalny punkt F na wykresie . Każdy jest optymalny w kontekście MAXDD/CAGR.
MOje znalezione wyliczenia empiryczne sprzed lat obrazujące to o czym Piszę. Zakres zmian F od 0.12 do 0.48./było do 0.8 ale testy mi się zgubiły /
W całym zakresie ryzyka do zysku liczonego średnią geometryczną istnieje liniowa zalezność między otrzymanym TWR w sensie Vinca a podejmowanym ryzykiem aż do F=0.8 dalej nie liczyłem ale pewnikiem zakończy się całkowitym bankructwem gdzieś około F~1.
bankfotek.pl/view/1580557
@pit
Niech ktoś mnie uszczypnie, ale pit, czy ty właśnie tłumaczysz sens optimal f i bezsens martyngału? Nie rób tego.
@blackie
nie łączę tych rzeczy.Odpowiedziałem jedynie na pewną tezę Kathaya.
Stosowanie martyngału nie jest bezsensem , ale zawsze kończy sie żle jeśli polecimy w te strone bez opamietania.
Co do optimal F to widze sens w logice jego zastosowania , a wszyscy Ci którzy powtarzają obiegową opinie myląc i utożsamiając fraction podejmowanego ryzyka z F wyliczonym, albo nie zrozumieli , albo nie czytali , albo powtarzają te plotke za Tharpem tak często ,że urosła do rangi prawdy objawionej.
To nie jest to samo.
Chcę Ci powiedzieć , że powyższe moje wyliczenia przy F 0.12 stosuje już od 5 lat doświadczając MAxDD 11% .
I jeszcze jedno kluczem do dobrego zastosowania Fixed fraction wyliczonego dzięki podzieleniu Maxstrata/Optimal F jest antymartyngał w wersji light.
A więc moge śmiało stwierdzić ,że dobrze dotuningowany F Vinca raczej dobrze koreluje z oczekiwanym MAxDD, aniżeli z jednostkową stratą w pojedynczym trejdzie jak zdaje się sugerują wszyscy odradzając Vinca.
A to takie proste, choć Vince troche zamętllił sprawę w przykładach.
Sam przez pewien czas byłem, że tak powiem bardzo confused.