Wskaźnik w postaci automatycznej strategii, część 2
Przyznam, że pokazując w poprzednim wpisie wskaźnik w postaci niemal gotowego systemu inwestycyjnego, chciałem zainicjować dyskusję o wskaźnikach w ogóle.
Przyznam, że pokazując w poprzednim wpisie wskaźnik w postaci niemal gotowego systemu inwestycyjnego, chciałem zainicjować dyskusję o wskaźnikach w ogóle.
Wiele lat temu – nie żyjący już – Tadeusz Mosz (znany z programu Plus Minus), był moim szefem w gazecie Parkiet. Co jakiś czas przypominają mi się jego słowa, które padły w trakcie jakiejś dyskusji rynkowej „Grzegorzowi, w gruncie rzeczy nie chodzi o zarabianie pieniędzy, tylko zrozumienie tego co się dzieje”. Jest w tym zdaniu wiele prawdy, ale po tych dwóch dekadach, które minęły od tamtej rozmowy, powiedziałbym, że przede wszystkim chodzi mi o to, co dzieje się z nami – inwestorami i jak możemy podejść do zmiennej i nieobliczalnej natury rynku.
Pytanie, na które poszukam przy pomocy historycznych danych odpowiedzi w tym wpisie brzmi:
Jak często w historii zdarzały się podczas bessy takie wzrosty o 20% od dołka, które nie kończyły się nową hossą?
Przy okazji jednego z wpisów na naszym koncie Twitterowym pojawiła się kwestia dotycząca analizy wykresów w skali liniowej lub semi-logarytmicznej. Temat sam w sobie interesujący i równie nierozstrzygalny jak wyższość analizy technicznej nad fundamentalną (lub odwrotnie), czy też wyższość świąt Bożego Narodzenia nad Wielkanocą (lub odwrotnie).
Czytam właśnie nową książkę Daniela Kahnemana napisaną wspólnie z Olivierem Siboinem oraz Cassem Sunstainem i trafiam na rozdziały zgrupowane w części „Szum w osądach prognostycznych”. Mam wrażenie, że cały ten rozdział dotyczy przede wszystkim zachowań inwestorów i traderów, choć przecież cała książka – Szum, próbuje zająć się kwestią rozbieżności w ocenach eksperckich, czyli właśnie tytułowego szumu. Dlaczego ludzie mając podobne kryteria oceny konsekwentnie podejmują bardzo zróżnicowane decyzje, zwłaszcza w sytuacjach i miejscach, gdy to zróżnicowanie jest niepożądane (np. w wydawaniu wyroków sądowych). Ponieważ książkę firmuje Daniel Kahneman, to wiadomo, że odpowiedź będzie prosta – jest to konsekwencja naszych błędów poznawczych.
Więcej o samej książce napiszę na blogu speculatio.pl, bo mam pewne wątpliwości co do niektórych wniosków, teraz jednak zajmijmy się wspomnianą częścią dotyczącą naszych prognoz, przewidywań, czyli tych aspektów, które bardzo mocno wiążą się z inwestowaniem.
To będzie tekst o szansach, przewagach, losowości i analizie danych, które łączą w wielu miejscach inwestowanie i tzw. sport betting. A przede wszystkim o solidnej lekcji, którą z tego wyciągnąłem.
Sonda na naszym blogowym twiterze z ostatniego weekendu, z pytaniem o koniunkturę, pokazała jednocześnie kilka zjawisk w jednym. Polecam je uwadze w poniższym wpisie.
Dostęp do ogromnych zbiorów danych spowodował rozwój przeróżnych technik analitycznych mających na celu poszukiwanie różnego rodzaju wzorców, współzależności czy powiązań i na ich podstawie próby oceny lub prognozowania trendów czy też zachowań. Oczywiście dzięki wykorzystaniu przeróżnych narzędzi statystycznych możemy próbować ocenić, czy istnieją związki przyczynowo-skutkowe w danych zbiorach danych, czy są to wyłącznie przypadkowe (choć atrakcyjnie się prezentujące) korelacje. Od doświadczenia, kompetencji, wnikliwości ale również kreatywności analityka zależy to, czy w danych dostrzeże wartościowe wzory, czy też uzna je za nieprzydatny do niczego szum.
Średnia 200-dniowa na wykresach giełdowych w USA to fetysz, świętość, języczek uwagi, punkt odniesienia, granica hossy/bessy, a przy okazji „matka” wszystkich średnich.
Po zakończeniu lipca serwisy i blogi giełdowe donosiły z radością, że mieliśmy do czynienia z miesięcznymi wzrostami indeksów amerykańskich, których nie widziano od dawna.