Kilka spraw z komentarzy przenoszę do wpisu zasadniczego gdyż uważam, że są na tyle istotne do rozważenia, że szkoda by przepadły wśród dziesiątków głosów.
Przede wszystkim dotyczy to kwestii 1 jednostki dowolnego instrumentu, choć najczęściej kręcimy się wokół 1 kontraktu terminowego: czy jest czy nie jest formą zarządzania kapitałem? Otóż niezmiennie twierdzę, że jak najbardziej jest i kilka słów właśnie o tym.
Użycie w testach i tradingu 1 jednostki, czy szczególnie 1 kontraktu, to jak najbardziej nasza forma WYBORU, równorzędna z wszystkimi pozostałymi metodami, szczególnie jeśli powiązać ją z nieodłącznymi modelami zarządzania ryzykiem. Dylemat taki pojawia się przecież już na etapie: ile przydzielić kontraktów na X PLN posiadanego kapitału? Jak widzę rozpiętość głosów Czytelników w tej sprawie sięga nawet kilkudziesięciu tysięcy złotych. I nie rozstrzygniemy jej głosowaniem ani krzykiem, nawet próbując odnaleźć jak najbardziej obiektywne i racjonalne argumenty – ponieważ jest ich zbyt wiele i zbyt kompleksowo złożone. Szczególnie włączając w to personalne preferencje odnośnie ryzyka, odporności na ból czy emocjonalnych kompetencji. Pozostańmy więc przy stanowisku, że jest to indywidualna sprawa za każdym razem, zależna od szeregu zmiennych.
„Klondike” podrzucił w swoim komentarzu przykład prostego systemu, w którym jak uważa przewaga w stosowaniu go wyraża się „w samym jądrze” czyli bez użycia MM i bez związku z wielkościami pozycji. Jak domyślam się chodzi właśnie o przypadek stosowania 1 kontraktu. Pomijam sprawę wspomnianą na wstępie czyli kwestii 1 jednostki jako wyboru, którego należy dokonać, ale skupmy się raczej na matematyce i realiach.
System ów opiera się na prostej formule 2R – zysk jako dwukrotność ryzyka. Czyli wystawiamy każdorazowo i jednocześnie: zlecenie z limitem ‘take profit’ w odległości dwukrotnie większej (2R, np. 40 pkt) niż stop broniący czyli ‘stop loss’ (R, adekwatnie 20 pkt). Tym sposobem przy 50% trafności, czyli na poziomie niemal losowym, wartość oczekiwana wynosi:
W.O. = (40 pkt x 0,5) – (20 pkt x (1-0,5))=10 pkt
Średnio na transakcję zarabiamy w teorii 10 pkt.
W realnym tradingu, inaczej niż przy losowym rzucie monetą, takiej trafności i średniej zyskowności w transakcji wcale nie musimy uzyskać.
Gdyby udawało się osiągnąć taką lub podobną trafność zajmując pozycję w sposób losowy to w zasadzie można by zająć się tylko tradingiem na masową skalę. W rzeczywistości rynek działa niestacjonarnie na tyle, że w długim okresie nasza trafność mogłaby sięgnąć od 0 do 100% przy czym graniczny poziom opłacalności wynosi 33% (bez uwzględnienia prowizji i poślizgów).
Jeśli jednak nie zdecydujemy się na trading oparty o rzut monetą, chcąc w zamian samemu poszukać przewagi w strategii rynkowej, to należałoby odnaleźć jakąś powtarzającą się zależność, np. taką która wydobędzie efekt momentum (impetu) z danych. Ów efekt powodować powinien to, że rynek dzięki temu iż ma częstsze tendencje do kontynuacji ruchu a nie jego odwrócenia, w naszej strategii sprawi, iż ruchy zgodne z kierunkiem naszej pozycji przewyższać będą w sumie straty spowodowane nietrafieniami.
I teraz: skąd bierze się w tym momencie nasza przewaga (the edge)?
Po pierwsze: z efektu impetu, który wykryliśmy torturując dane.
Po drugie: z takiego a nie innego układu stopów (zarządzania ryzykiem), które ów efekt eksploruje.
Po trzecie: właśnie z zarządzania pozycją (MM). Dlaczego? Ano dlatego, że przy użyciu różnych metod określania wielkości pozycji otrzymujemy różne rezultaty w naszym przykładzie 2R wyżej. Od ujemnych po dodatnie. Jeśli wśród tych ostatnich jest model 1 kontraktu na X PLN kapitału to znaczy, że on ma jak najbardziej wpływ na osiągnięcie przewagi. Gdyby wielkość pozycji nie miała wpływu na przewagę to we wszystkich modelach MM uzyskalibyśmy identyczne wielkości zysku i obsunięć. To m.in. dlatego MM w KAŻDEJ FORMIE (nawet 1 kontraktu) jest integralną częścią każdego systemu i strategii, mającą wpływ na wartość oczekiwaną.
A teraz spójrzmy REALNIE na ciąg dalszy wyboru 1 kontraktu w naszym przykładzie 2R.
Otóż sprawa zaczyna się komplikować gdy nasza equity rośnie. Przy 20 000 PLN kapitału można jeszcze robić zabawę 1 kontraktem, ale czy ma ona sens przy 500 000 PLN albo 2 000 000 PLN? To oczywiste, że potrzebujemy bardziej optymalnego podejścia do wykorzystania kapitału. Zaczynamy więc grę kilkoma kontraktami i niestety nasza przewaga zaczyna się zmieniać, łącznie z tym, że może nawet w jakimś momencie zniknąć, choć nadal wykorzystujemy dokładnie ten sam system. Ponieważ rozkłady zysków i strat są losowe, dlatego może się zdarzyć, że wpadamy w obsunięcie grając 10 kontraktami, po czym mamy zbyt niski kapitał by kontynuować grę taką wielkość pozycji i obniżamy siłą rzeczy ilość do np. 7 kontraktów na wejście. Pojawia się więc asymetria, która istotnie może zmienić pierwotną przewagę uzyskaną przy prostym modelu 1-kontraktowym.
Tak więc konieczność zarządzania rosnącym kapitałem wymusza na nas zmiany w MM, a przewaga wówczas zaczyna się zmieniać i wymaga dopasowań wielkości pozycji bez zmiany zasad samego systemu. Trudno więc zgodzić się na tezę, że przewaga tkwi jedynie w samej metodzie wchodzenia na rynek i opuszczania go. Gdyby tak było to powinna ona być niewrażliwa na zmiany w wielkości pozycji.
CDN
—kat—
72 Komentarzy
Dodaj komentarz
Niezależnie, DM BOŚ S.A. zwraca uwagę, że inwestowanie w instrumenty finansowe wiąże się z ryzykiem utraty części lub całości zainwestowanych środków. Podjęcie decyzji inwestycyjnej powinno nastąpić po pełnym zrozumieniu potencjalnych ryzyk i korzyści związanych z danym instrumentem finansowym oraz rodzajem transakcji. Indywidualna stopa zwrotu klienta nie jest tożsama z wynikiem inwestycyjnym danego instrumentu finansowego i jest uzależniona od dnia nabycia i sprzedaży konkretnego instrumentu finansowego oraz od poziomu pobranych opłat i poniesionych kosztów. Opodatkowanie dochodów z inwestycji zależy od indywidualnej sytuacji każdego klienta i może ulec zmianie w przyszłości. W przypadku gdy materiał zawiera wyniki osiągnięte w przeszłości, to nie należy ich traktować jako pewnego wskaźnika na przyszłość. W przypadku gdy materiał zawiera wzmiankę lub odniesienie do symulacji wyników osiągniętych w przeszłości, to nie należy ich traktować jako pewnego wskaźnika przyszłych wyników. Więcej informacji o instrumentach finansowych i ryzyku z nimi związanym znajduje się w serwisie bossa.pl w części MIFID: Materiały informacyjne MiFID -> Ogólny opis istoty instrumentów finansowych oraz ryzyka związanego z inwestowaniem w instrumenty finansowe.
@JL
„Pewnie juz wiekszosc i tak tu nie sledzi naszych wpisow”.
Piszcie piszcie chłopcy…gwarantuję Wam, takiej ilości wiedzy, która przewinęła się w tym temacie nie dostarczy żadna książka – a przynajniej nie w tak skoncentrowanej, ale dostępnej laikowi postaci 🙂
Jeszcze jedno.
Zaciekawiło mnie kilka twierdzeń, które padło wyżej.
M.in: @ IL
„Expectancy działa dobrze przy grze 50/50 dlatego też wykorzystują go z sukcesami traderzy manualni bo wystarczy fifty fifty plus R/R 2/1 i nie potrzeba żadnych backtestów , amibrokerów, programowania by grać z sukcesem.”
Jaka w takim razie jest definicja trejdowania manualnego i mechanicznego? Dotychczas za manualne uważałem handlowanie czysto intuicyjne za pomocą zestawu zasad (bo nie systemu), których nie da się zapisać kodem. Za mechaniczne zaś, uważałem uruchamianie zleceń na podstawie sygnałów wygenerowanych przez jakiś soft.
Jeżeli używam prostego systemu opartego na:
1. Ustaleniu trendu na podstawie tygodniowego DMI jako warunku do dalszych poszukiwań.
2. Sygnałach kupna (w interwale dziennym) po przecięciu ceny z EMA.
3. Stopie( początkowym i później kroczącym) liczonym na podstawie zmienności.
To jest trading manualny, czy mechaniczny?
I teraz to, co zwróciło moją największą uwagę. Faktycznie trafność mam na poziomie +/- 50%, ale najwięcej czasu poświęcam ( zamiast na handlowanie) to na pogoń za króliczkiem w AmiBrokerowych backtestach, z czego finalnie i tak nic nie wychodzi.
Na czym w takim razie powinienem się skupić? Bo wychodzi na to, że powinienem olać backtesty a skupić się na nauce dobierania odpowiedniej wielkości stopów tak, aby R było jak największe.
Cyzo, masz tak prosty, w pozytywnym tego słowa znaczeniu, system, ze powinieneś go zakodować, w sensie zrobić automat, zoptymalizować i puścić do gry, w przeciwnym wypadku, do usra..j śmierci będziesz testował, testował, testował, testował i na tym się skończy.
Jeżeli potrafisz zapisać te 3 zasady w postaci gotowych sygnałów systemu w sofcie, którego używasz do gry to będzie się nazywało, że jest to trading mechaniczny (bo da się zapisać). Jeżeli programu używasz tylko do obserwacji DMI, EMA i stopów, to manualny. Przynajmniej ja to tak rozumiem.
@pit65
„Dnia 2013.09.02 15:27, pit65 napisał:
To tez podałem Ci przykład stystycznie istotny 120 tradów z realu Fw20, w którym średnie ekspectancy jest ujemne 0.87 przy trafności 70%.”
Odniose sie raz jeszcze, zeby ktos nie wyciagal wnioskow, ze mozna miec negatywne expectancy i regularnie zarabiac. Otoz podany przez Ciebie przyklad TO NIE JEST UJEMNA wartosc oczekiwana.
0.87 != -0.87
Pozniej pokazywane przyklady odnosily sie caly czas do strategii z POZYTYWNA wartoscia oczekiwana.
Gdyby byla ujemna, jasne, ze moglibysmy pokazac przyklad z symulacji MC, gdzie nawet po 120 transakcjach bylibysmy do przodu. Ale tez zobaczylibysmy rozklad prawdopodobienstw, m.in. prawdopodobienstwo wypracowania zysku po 120 transakcjach strategia z UJEMNA wartoscia oczekiwana. Nie byloby to zapewne zachecajace do postawienia swoich pieniedzy na taka strategie.
Spotkalem sie juz kilka razy z tym, ze niektorzy pisza o negatywnej wartosci oczekiwanej, gdy jej wartosc jest mniejsza od jednosci (ale wciaz wieksza od zera). To jest bledem.
A co do optimal f, to licze na wpis Kathaya o tym w tym cyklu. Nie chce wchodzic w buty Kathaya, wiec napisze tylko tyle, ze Tharp podaje dosc sensowne argumenty, zeby optimal f wlasnie unikac. I piszac, ze on cos komplikuje, nie do konca jest uwazam trafne, bo chociazby w tej ksiazce jest wiele modeli MM, ktore sa o niebo prostsze od optimal f, a przy tym smiem twierdzic nie gorsze (zeby juz nie napisac lepsze). Takim komplikowaniem jest wlasnie optimal f wedlug mnie. Kiedys bylem bardzo tym zachwycony, ale obecnie widze, ze mozna prosciej, a przy tym nie gorzej robic MM.
Vince to wlasnie taka profesura z MM, gdzie jesli nie jest sie quantem, to mozna go wrecz pominac i probowac duzo prostsze metody z dobrym efektem.
Jeszcze dla kompletnosci, bo ucialem cytat w poprzednim wpisie:
„10% rocznie przy Maźx DD 20%.” [pit65]
Taki wynik miala generowac strategia z UJEMNYM expectancy, a pozniej piekne rysunki z symulacji MC, ktory mialy tego dowiesc. I wszystko sie zgadza, poza tym tyko, ze to nie jest UJEMNE expectancy.
@IL
Myśmy sie rozmineli z terminami i słowami opisując wartość oczekiwaną.
Osobiście cały czas odnosiłem się do Twojej tezy:
„Srednia z takich R to nic innego jak WARTOSC OCZEKIWANA”
nie do expectancy jako takiej i zupełnie bezmyślnie później przypisywałem w słowach wartość ujemną , a miałem na myśli jedynie to ,że RR czyli stosunek średnich jest poniżej jedności.
Jeżeli wyrzucisz wszystkie słowa sugerujące ujemna expectancy to pozostała treść trzyma sie kupy i sie pod nią nadal podpisuję obiema rękoma.
Mam nadzieję ,że teraz wszystko jasne.
Co do Optimal F to nie jest to takie skomplikowane z softem. Jedno kliknięcie w AB i Już.
I znów dla mnie samo w sobie nie jest celem , a ma ten cel przybliżyć.Osobiście znalazłęm w nim zastosowanie bo dla 10 systemów na których ostatnio wyliczyłem F i na tej podstawie ustalałem stawkę nie przekroczyło na tychże stawkach wielkości 30%DD co dobrze świadczy o F jak i o koncepcji Vinca.
Jedyne odchyłki to tam gdzie trafność oddala sie zanadto w obydwie strony od magicznej liczby 50% .
Przy trafności powyżej stawka moim zdaniem jest lekko przeszacowywana , a dla systemów trendowych lekko niedoczacowywana.
Ale wiedząc o tym można sobie z tym radzić bo i tak jak napisałem F nie jest celem.
Celem jest ustalenie takiego F by ryzyko DD w czasie przy zmiennym Equity utrzymać na stałym poziomie i do tego niezbędna jest druga koncepcja VInca „Portfolio Management Formulas” (John Wiley & Sons, New York, 1990) czyli Fixed Fractional Position Sizing.
O ile Tharp w RR skupia się na utrzymaniu Edzia w warunkach uncertainty , a jego próby zarządzania są takie troche niedorobione /dla mnie/ o tyle Vince daje pełny obraz zarządania ryzykiem by tego Edzia zoptymalizować w kontekście ujarzmionego ryzyka na stałym poziomie w czasie.
To jest clue MM IMO.
Poza tym w sprawach zastosowań matematyki wolę słuchać matematyka niż psychologa nic Tharpowi nie ujmując tak jak nie ujmuję szewcowi idąc uszyć spodnie do krawca 🙂
@IL
„I wszystko sie zgadza, poza tym tyko, ze to nie jest UJEMNE expectancy.”
KOlego nie ciągnij druta 😉 , bo zdaje siE sie obaj mieliśmy co innego na myśli podkładając to pod wspólny mianownik expectancy stąd rozbieżność dzieki czemuś co się nazywa błąd komunikacji , a na co Lesser kładzie nacisk domagając sie precyzji określeń.
Precyzyjnie:
Ani moje RR czyli stosunek śreniej wygranej do przegranej nie jest expectancy , ani Twoja średnia z R też nie.Formułę podał Kathay.
Nie przekreśla to clue o którym dyskutowaliśmy .
Right.
Jeśli nie to ja robię pass bo dyskusja zejdzie na udowadnianiu sobie racji o co nie dbam wcale miast uzgadnianiu najlepszego do zastosowania konsensusu dla ew. czytelników..
@pit65
Otoz bardzo slusznie odnosiles sie do mojego stwierdzenia, ze srednia z R to expectancy. Tak wlasnie jest, dlatego prosilem Cie o przytoczenie tych 120 transakcji wyrazonych w R. Jednym ze sposobow liczenia expectancy moze byc wlasnie usrednienie R (srednia arytmetyczna), czego przyklad pokazalem kilkanascie wpisow wczesniej.
Jesli to nie jest do konca jasne, to mimo wszystko proponuje ten Definitive Guide przeczytac. Wcale nie trzeba sie zgadzac z tym co tam jest zawarte, ale wtedy bardziej wypada to cos krytykowac. Nie chce by to bylo odczytane jako zlosliwosc.
Nie chodzi mi tez zeby robic tu z Tharpa ikone. Powiem wiecej, coraz to nowsze ksiazki maja dla mnie bardziej marketingowy charakter, sa gorsze jakosciowo. Ale nie znam tez drugiej pozycji o MM (rok 2008), ktora w tak kompleksowy sposob przewozi sie po calym spektrum modeli i to jezykiem nie dla quantow.
Z tym kilkaniem jednym guzikiem w AB tez trzeba uwazac. Niestety przy nieco wiekszym kodzie w AB osobiscie odczuwam ogromny dyskomfort wynikajacy z mizernego srodowiska programistycznego (vide IntelliJ IDEA, Visual Studio). Irytuje mnie brak rzetelnego debugger’a a niestety przez lata nic sie tu na tym polu nie zmienia. I wtedy niestety siega sie czasami po armaty, ale mozna miec przynajmniej nad nimi kontrole. Zdaje sobie sprawe, ze wiekszosc uzytkownikow AB moze byc bardzo zadowolona. Znam tez jednak ludzi co pisza skomplikowane kody C++ w edytorze vi i dobrze im z tym.
Co do optimal f, pozyjemy, zobaczymy, moze pogadamy, jak Kathay pozwoli 🙂
@pit65
Dziekuje za dyskusje, bo byc moze ona komus tez w czyms jednak pomoze 🙂
@IL
Na 100 kaduków. Precyzja.Proszę.
Bo mnie jej zabrakło i Tobie też stąd głupia sprawa i przekomarzanie sie o pietruszkę.
W.O. = (40 pkt x 0,5) – (20 pkt x (1-0,5))=10 pkt
Nie średnia tylko różnica z iloczynów (R X %trafności) .
Średnia wymaga ilorazu w formule 🙂
@pit65
Zeby przez nas (przeze mnie) nie usneli wszyscy, to moze jednak wpis o tym expetancy by sie przydal tez 🙂
Na szybko: dla mnie expectancy to przecietny zysk na ryzykowanego dolara. To co napisales jest bardziej przecietnym zyskiem. Taki niuans. Ale fakycznie juz zakonczmy to 🙂 Na 100 kadukow 🙂
@JL
Irytuje mnie brak rzetelnego debugger’a a niestety przez lata nic sie tu na tym polu nie zmienia.
a EasyLanguage Omegi ?
@Cyzo
bankfotek.pl/view/1567727
Taki mój ulubiony setup manualny z wykorzystaniem RR 2:1.
Działa na każdym rynku.
Jedyny problem trenować technike do osiągnięcia minimum doskonałości czyli 50%.
Na wskażniki nie patrz określają tylko kontekst poprawiający celność, właściwie mogło by ich nie być .Liczy sie tylko Price Action.
Cena na skrzyżowaniu wideł Andrewsa góra-dół robi LH z engulfing pattern.
Szybki ruch . Plan wykonany.
Choć sądzę ,że to koniec , ale gramy co widzimy , a nie co myślimy ,że widzimy.
To jest oczywiście obraz typu hindsight bias .
Zero maszyn, które w poszukiwaniu najbardziej optymalnej najlepszej średniej z takich setupów określonych ograniczonymi z natury możliwościami zapisu często zaprzepaściły by całość osiągając o wiele gorsze RR.
Dlatego też niektórzy bez dowodów /sic!!! co to za dowod/ w postaci backtestów twierdzą autorytatywnie ,że to nie działa 🙂
Jak sie nie wytrenuje to działać nie będzie, a soft niewiele tu ma do gadania.
Z drugiej strony jężeli da sie softem wyciągnąć jakąś sensowną średnią dodatnią to maszynowo możemy to skompensować o wiele dokładniejszym zarządzaniem wielkością pozycją.
No i warunek bierzemy każdy trade bo opieramy sie na najbardziej optymalnej średniej z setupów odwrotnie niż w manualnym gdzie możemy zarządzać każdym RR z osobna .
Dlatego też nie ma przymusu brania wszystkiego co jest plusem IMO.
Taka jest róznica między mechaniką manualną , a mechaniką softową.
Niby to samo można zastować , ale niuanse a właściwie sposób wyciągnięcia z tego najlepszego sytuacji RR detrminuje różnicę i sposób gry, że właściwie trudno to porównywać na jednej płaszczyźnie .
O manualnym tradingu intuicyjnym w ogóle nie wspominam.
Wybór nie jest taki prosty wbrew pozorom.
@Jack
Nie korzystalem z Omegi. Ale generalnie mysle, ze po prostu jesli ktos chce (potrzebuje) wiecej kontroli i komfortu (jako programista), to korzysta z „general-purpose” jezyka (C#, C++, Java etc.). Tam rowniez sa dostepne biblioteki, ktore robia magie AmiBroker’a. W skrajnej sytuacji robi sie wszystko samemu od zera.
Ale to nie znaczy, ze kazdy tak ma robic i ze tylko TAK jest dobrze. AmiBroker czy Excel to swietne narzedzia, do wzglednie prostych (nie wielkich objetosciowo w sensie kodu) spraw lub do tworzenia prototypow. Jak zachodzi potrzeba, mozna to przenosic na cos bardziej zaawansowanego.
No i z pewnoscia latwiej zaczac nie-programiscie od AmiBroker’a niz od rzucania sie w wir chocby C++.
A, że tak od razu podpytam – ma ktoś namiary na ciekawe materiały o kodowaniu w AB ? Niestety dostępne tutoriale są przeznaczone raczej dla programistów, niż osób zupełnie nie obeznanych z programowaniem.
O ile poradzę sobie ze skonstruowaniem prostych sygnałów kupna/sprzedaży lub innych warunków, o tyle dalsze wymagane (podstawowe) elementy systemu takie jak wielkość pozycji, ustawianie cen kupna/sprzedaży, czy ustawienie stopa to już dla mnie wyższa półka. Bez tego na dobrą sprawę nie jestem przetestować nawet najprostszego systemu – choćby i crossa dwóch średnich.
@cyzo
Polecam ksiazki Howarda Bandy: http://www.blueowlpress.com/
Wszystkie przyklady sa w AmiBroker. Dodatkowo ksiazka „Modeling Trading System Performance” pisze sporo o MM. Mankamentem dla niektorych moze byc trudniejszy jezyk (Bandy jest bylym akademikiem).
Jak widzę temat żre ( jak spuszczel więźbę dachową) i trwa intensywna wymiana piłek, a mnie nie ma w tej grze, bo mam remont, ale jak widzę te backhandy , returny, woleje , bobsleje, fixy i kiksy to nie mogie nie wziąć udziału w tej rozgrywce.
No więc na początek parę krótkich piłek dla rozgrzewki a potem a parę asów serwisowych.
@ pit65
Piciu, kolega lessio chciałby rzucić mały komentarz i zwrócić uwagę na pewne nieporozumienie, a więc po klei.
„Jakość systemu nie zależy od multiple R tylko jak R/R w każdym z trejdów starannie wypracujesz. Od twoich skills zależy jakość systemu , a nie od Multiple R.”
Oczywiście jakość systemu nie zależy od multiple R natomiast multipole R służy ocenie jakości systemu (poprzez zmyślne SQN) , i nie ma w tym sprzeczności.
„1.W manualnym to jest ważne i by dobrze stosować wymaga treningu w sprawach o których piszesz.
2.W mechanice to mozna w ogóle dac sobie z tym spokój bo jest pochodną jeszcze jednym ch…nym wskaźnikiem do interpretacji, który nie służy ci do tradingu jak w manualu , a jedynie do pewnej oceny post factum, na podstawie czego masz wyciągac wnioski o przydatności do…..Bezuzyteczne IMO.
…..
Natomiast w tradingu mechanicznym jest to tylko wypadkowa trejdów których logika przeważnie nie opiera się na tej zasadzie. W zasadzie bezużyteczne narzędzie tutaj.”
Widzę to inaczej, R jako narzędzie, przydatne może być zarówno w tradingu intuicyjnym jak i mechanicznym, a więc także w jakiejś ich formie mieszanej.
Przykładowo jak handlujesz ręcznie i widzisz formację „łeb na karku”, to linia szyji wyznacza ci potencjalny zakres ruchu ceny w dół, odpowiednio do tego ustawiasz stopa, ale jako wypadkową wielkości twojego kapitału, twoje odporności na ryzyko np. 2% no i przewidywanej wielkości spadku z wykresu formacji.
Jako mechanik, parametryzując system, powiedzmy 2ATR, również możesz kalibrować go w oparciu o wskaźnik 1R, na podobnej zasadzie jak wyżej.
No ale powyższe to kwestia poglądów natomiast poniższe to już kwestia metodologii.
Piszesz:
”SQN to nie t-score choć konstrukcja podobna. Tharp na tyle zmienił licznik i mianownik zamiast średniej i odchylenia standardowego dał był expectancy i odchylenie standardowe z R , że już nie da się stosować tablic dla rozkładu T-studenta, a tym samym szacować prawdopodobieństw.
Możemy więc olać Tharpa i stosować czyste t-score dla jakiejkolwiek metryki także i expectancy co wydaje mi sie pomysłem sensowniejszym.
Definitive Guide. traktuje QNS jakby to był T-score , ale nim nie jest.
Przykłady śą hipotetyczne.
Wyniki w przykładach od minusów do 7 w skali SQN nie korelują z rozkładem T studenta i w różnych przedziałach różnice są inne.
Nie deprecjonuje wskaźnika w kontekście porównywania systemów natomiast z tablic dla rozkładu T-studenta raczej korzystac się nie da bo wyprodukuja nierealistyczne wyniki.
Natomiast Tharp cały czas pije do T-score co wydaje sie nieuprawnione.”
Jest uprawnione, jeśli Tharp wie co pisze, jak zakładam.
Niestety problem z twoim powyższym rozumowaniem wynika z błędnej interpretacji pojęcia t-score, i utożsamianie go z rozkładem t-Studenta (t-test), co jest bardzo często spotykanym nieporozumieniem (zmyła podobieństwem t-score i t-test)..
T-score jest związany z rozkładem normalnym i jest statystyką wynikającą z liniowej transformacji statystyki z-score (znormalizowanego układu normalnego) polegającej na jej przekształceniu do postaci o średniej 50 i odchyleniu 10 ( przypomnijmy że z-score ma średnią 0 i odchylenia standardowe 1).
Chodzi tu o sposób prezentacji wyników np. naucznia, jeśli uczeń otrzymał rezultat z testu na poziomie dokładnie średniego wyniku to lepiej wygląda wynik na poziomie 50% ( w t-score) niż umownego 0 (w z-score), bo inaczej rodzice mogą zmienić szkołę.
Podobnie liczony jest wskaźnik IQ, z poziomem średniej 100 i odchyleniem 15.
Formuła wiążaca klasyczny z-score z t-score jest poniższa.
Ts = 50 + z x 10 , tak więc dla standaryzowanej wartości z = 1,5 z rozkładu normalnego, wartość wyrażona w/przeliczona na ts wynosi 65 – ( 50 + 1,5 x 10), czyli 1,5 odchylenia powyżej średniej.
Jak widać, czy hossa czy bessa, nie da się bez lessa. 🙂
„Kto chce niech stosuje .Ja dziękuje. Pozostanę przy pure T-score.”
Pit, zrobisz jak zechcesz, ale chyba się zastanowisz, przynajmniej, zanim ….
„no i koniec już tych dyskusji bo zabieramy Kathayowi tematy do rozwinięcia i pewnikiem przydzieli nam bana.”
Eee tam zabieramy, w moim odczuciu jest wręcz przeciwnie, my go ukierunkowujemy na właściwy kurs, jak pilot statek by nie wpadł na mieliznę lub skały. Tak wiec zasłgujemy nie na Bana ale na banana. A banana, nie tylko małpka lubi.
PS
@ koledzy pit & JL
Re: expectancy a wartość oczekiwana
Zwróćcie uwagę, na fakt że Tharp używa określenia expectancy a nie expected value (wartośc oczekiwana, wartość przeciętna) czy też expectation ( to samo – nadzieja matematyczna, esperancja).
Tak więc jego specyficzna miara, czyli expectancy, to nazwa umowne odnosząca się do jego R, i to wygląda mi na neologizm ukuty na potrzeby tradingu, nie mający odpowiednika w stosowanej nauce statystyki.
Aha, i jeszcze jedna rzecz, na którą chcę zwrócić uwagę, a która mi umyła w pierwszym czytaniu.
Kathay liczy wartość oczekiwana, jak następuje, opierając się na tradycyjnej formie formuły.
„W.O. = (40 pkt x 0,5) – (20 pkt x (1-0,5))=10 pkt”
W.O = ( średnia zysk x prawdopodobieństwo zysku) – (średnia strata x prawdopodobieństwo straty)
Pit komentuje: „Nie średnia tylko różnica z iloczynów (R X %trafności) . Średnia wymaga ilorazu w formule.”
Chcesz iloraza w formule, Piciu, to będzie i iloraz, ile razy chcesz, o czem niżej.
Powyższa forma zapisu W.O. jest wprawdzie dosyć powszechnie stosowaną formuła, ale sam Tharp odszedł od niej ( w drugim wydaniu Tradye your way to financial freedom), co zaznacza wyraźnie w „Definite guide..”, modyfikując wzór do jego poprawnej wersji jak niżej (tak go ocenia):
Expectancy = { ( średni zysk x prawdopodobieństo zysku) – (średnia strata x prawdopodobieństwo straty) } : średnią wielkość ryzyka (average risk amount)
Tharp tak uzasadnia wprowadzenie we wzorze parametru R – stara formuła była niepoprawna gdyż podawała średnią wielkość zysku natomiast, jego zdaniem, powinna podawać średnią wielkość zysku przypadającą na jednostkę postawionego dolara.
Miejmy to na uwadze, koledzy, zanim powiecie won niektórym pomysłom przedstawionym przez van Tharpa!
Ja się na Omedze wychowałem 😉 choć od dawna nie jest to program rozwijany (ProSuite2000i). Teraz jest udostępniony taki pochodny program ze stajni TradeStation o nazwie Multicharts.NET.SE, free wersion z ograniczeniem do 2 walorów. Właśnie wczoraj go ściągnąłem i uruchomiłem w RT (DDE), ale nie jestem programistą a język ma inny – „only C# and VB languages are used in MultiCharts.NET SE” tak więc szukam jakiegoś konwertera.
Napisałem eksplorację do mojego systemu w celu wyszukiwania sygnałów. Będzie ktos tak miły i ją zweryfikuje? Nie jestem pewien, czy dobrze zapisałem zmiany w interwałach czasowych.
Założenia:
1. +DI w tygodniowym interwale musi być > -DI
2. ADX w tygodniowym interwale jest rosnące
3. Warunek kupna w interwale dziennym: przecięcie ceny z EMA
Mój kod:
/* przełącza interwał na tygodniowy */
TimeFrameSet( inWeekly );
war1=PDI(14)>MDI(14); //linia +DI jest > niz – DI
war2=ADX(14)>Ref(ADX(14),-1);// linia ADX jest rosnąca
TimeFrameRestore();
/* rozciągnięcie obliczonego war1 i war2 do interwału dziennego, aby można było go użyć z sygnałami z danych dziennych */
war1 = TimeFrameExpand( war1, inWeekly );
war2 = TimeFrameExpand( war2, inWeekly );
syg=EMA(C,14);
warK=Cross(C,syg);
Buy=warK AND war1 AND war2;
Z góry dziękuję.
@Less
Dzięki za wychwycenie mojego błędu z T-score.
Ale to zupełnie nie zmienia clue tego co raczyłem napisać.
R. normalny niczego nie deprecjonuje.
Tharp zmieniając formułę zmienił korelację z wynikami pure t-score i interpretuje to jakoby żadna zmiana nie zaszła.
Ja interpretuje to tak: jeżeli t-score jest powyżej 2 sigma to wyniki mojego systemu /jeśli badamy expectancy podobnie/ nie są kwestia przypadku /pow 95% ufności/ i można się nad nim pochylić.
Gdyby miały 0.5 i były bliskośredniej rozkładu no to można sądzić o przypadkowości .Ujemne w ogóle nie wchodzą w rachubę.
No i jeżeli mości Tharp zmienia formułę gdzie wyniki dochodzą do 7 sigma , a mówi nawet o 10 czy 14 no to ja przepraszam.
A on to tak uzasadnia .
O ile w przedziale 1-3 wyniki róznią się o ok 3 proc. to od 3 do 10 to jest już od 10 do 40% róznicy z pure t-score.
Skoro jego wskażnik /wyniki/ nie koreluje liniowo z rozkładem normalnym liczonym jako t-score to powinien przedstawić też tablice konwersji , a nie idąc na łatwizne tak to uzasadniać .Nawet jeśli uzasadniałby to ,że wyniki SQN dają dokładniejszy pomiar niż T-score no to bez testów na żywym organiżmie wolę zaufac statystyce z historią niż poprawce tej statystyki przez jednego pana psychologa i zamiast używać jego SQN użyć t-score of expectancy.
Co do konstrukcji samego wskażnika to ja nie mam żadnych zastrzeżen.
Co do wzoru expectancy to tak , czekałem ,aż ktoś mi to wytknie i nie zawiodłem sie Lass na Tobie bo wzory można przekształcać do woli.
Ale w konwersacji z Il to właśnie termin „średnia” w określeniu ekspektancy zbił mnie zupełnie myśląć ,że konwersujemy nad RR .
Nieważne. Moje gapiostwo.
@cyzo
Na oko OK 🙂