Przynajmniej jedenaście z nich jest dobrze znana i opisana w literaturze, możliwa w praktycznym wykorzystaniu i mimo upływu czasu arbitrażyści nie znaleźli na nie sposobu.

Aby je zrozumieć, nie sposób nie odnieść się po raz kolejny do Hipotezy Efektywnego Rynku (HER), która zakłada niemożliwość regularnego pokonania średnich rynkowych (indeksów) w oparciu o informacje dostępne publicznie (w tym Analizę Techniczną i Fundamentalną) lub uzyskiwane z obiegu tajnego (insiding). HER zakłada zresztą, że wszystkie te informacje są już wliczone w bieżącą cenę papierów wartościowych, a w rezultacie pokonanie rynku jest możliwe jedynie dzięki szczęściu. Bądź też po przez wystawienie się na ryzyko, (mierzone obsunięciami kapitału lub też zmiennością) wyższe niż wynikające z ryzyka średniej rynkowej. Anomalią jest w tym kontekście takie odchylnie, które pozwala za pomocą odpowiedniej strategii, opartej na znanych już informacjach, pobić benchmark równy zmianom indeksu danego rynku. Zasady takiej strategii opierają się na mechanicznych procesach decyzyjnych i wyłącznie w oparciu o zebrane, ostatnie ceny notowań akcji, wsparte kilkoma wskaźnikami, prostymi do wyliczenia na podstawie danych finansowych spółek. Nie ma więc prognozowania i przewidywania, wszystko działa niemal jak w komputerowych systemach transakcyjnych.

Prezentowałem już takie zjawiska wcześniej na blogu jednak dopiero teraz udało mi się dotrzeć do studium, które weryfikuje je pozytywnie w sposób bardzo kompleksowy i z uwzględnieniem niepożądanego efektu dopasowania metody do informacji historycznych (fachowo nazywa się to “data snooping”, systemowcy znają ją jako “curve fitting”). Przyznam, że na mnie największe wrażenie zrobiła anomalia, wykorzystująca jedynie same obroty (wolumen) jako podstawę decyzyjną, którą odkryto najpóźniej z nich wszystkich bo ok. 9 lat temu. Zostawiam ją na deser, okazuje się, że jest z nich wszystkich najbardziej efektywna.

Praca, do której nawiązuję w oryginale nosi tytuł “Real-time profitability of published anomalies: an out-of-sample test” czyli w moim, wolnym tłumaczeniu “Zyskowność opublikowanych anomalii w czasie rzeczywistym: test na próbie nie widzianej podczas symulacji na danych historycznych”. Autor: Zhijian (James) Huang z University of Wisconsin. Data publikacji: 15 luty 2009. Jeszcze ciepła i jakże pouczająca lektura.

Żeby zrozumieć jej wyniki trzeba poznać założenia, na których oparto wszystkie testy:

1. Autor weryfikuje te anomalie, które w latach 1972-2005 zostały opublikowane w głównych amerykańskich biuletynach naukowych takich jak Journal of Finance czy Journal of Financial Economics
2. Wszystkie testy są wykonywane na danych obejmujących dziennie zmiany kursów spółek amerykańskich z giełd NYSE, AMEX I NASDAQ od 1926 do 2006 roku
3. Wyniki są porównywane do benchmarku – średniej rynkowej, którą stanowi ważony kapitalizacją syntetyczny indeks łączący główne indeksy wymienionych giełd
4. Koszty transakcji są ujęte w wynikach
5. Każdorazowo zakłada się, że kupowany kosz spółek jest wymieniany raz na rok według przyjętych z góry, stałych kryteriów
6. Dane zostały podzielone na 2 części:
– testową, na której dokonano sprawdzenia zyskowności każdej anomalii przed datą jej publikacji
– weryfikacyjną, która posłużyła do określenia działania anomalii w ?czasie rzeczywistym” czyli zakładając, że inwestor po przeczytaniu o niej w prasie natychmiast aplikuje ją na swoim rachunku.

Pierwszy zbiór anomalii umownie nazwano “kalendarzowymi” ze względu na charakter powstania związany z zaburzeniami cen akcji w ściśle określonym okresie roku.

1/          Efekt stycznia
Chyba najbardziej popularny i doskonale znany również polskim inwestorom. Wykryty i opisany przez Dona Keima w 1983 roku. Kojarzy się go zwykle z przebudową portfeli, szczególnie przez instytucje, co napędza popyt i w teorii zapewnia zyski wyższe niż w pozostałe miesiące w roku.
Jestem ciekaw ile osób zna rzeczywistą zależność wykrytą przez Keima? Otóż podpowiem, że tak naprawdę ów efekt dotyczy TYLKO cen małych spółek, które rosną przez pierwszy miesiąc roku dynamiczniej niż duże i średnie, albo podczas bessy spadają z mniejszą dynamiką. Takie zachowanie wiąże się w wielu krajach z podatkową optymalizacją w grudniu, a sprzedane w jej celu akcje odkupuje się w styczniu. Łatwo to zweryfikować np. na rynku australijskim gdzie mamy do czynienia z efektem lipca ponieważ rok podatkowy zamyka się w czerwcu. Jednak ta przewaga małych spółek powoli zanika ponieważ istnieją już dużo bardziej wyrafinowane schrony podatkowe niż rotacja portfela. Ten efekt jest już więc w głównej mierze tylko samonapędzającą się przepowiednią, ale tylko rozpatrywany w skali całego rynku. Ponieważ na poziomie spółek najmniejszych wygląda to tak:

Test w cytowanej pracy wykonano w następujący sposób – 1 stycznia co roku kupowano na cały miesiąc portfel spółek o najmniejszej kapitalizacji, z zakresu 10-tego decyla, na pozostałe miesiące gotówka była inwestowana po prostu w zakup indeksów. Porównanie wyników wygląda następująco:
– do czasu publikacji anomalii roczna stopa zwrotu z takiego portfela przewyższała benchmark o 13,02%
– po terminie publikacji wynik inwestycji w ten portfel przekraczał corocznie benchmark o 9,82%
– 1 dolar zainwestowany w portfel od daty publikacji powiększyłby się do 87,8 $, zainwestowany tylko w same indeksy: 16,23 $

Różnica jest więc dość znaczna i na tym poziomie efekt istotny statystycznie.

CDN

—* Kat *—

[Głosów:0    Średnia:0/5]

5 Komentarzy

  1. Wojtek S.

    Tomku, o anomaliach sezonowych pisał już kiedyś Trystero na swoim blogu. Tu jest link: http://www.trystero.pl/archives/4219

    Dodałem tam komentarz o statystycznym teście hipotezy, że we wrześniu pojawiają się sezonowe spadki:

    “wystarczy zrobić test Chi-kwadrat dla wrześniowych spadków i już będziesz wiedział, czy można tym statystykom wierzyć, czy nie. Dla WIG20 nie można wyliczyć Chi-kwadrat, bo szereg danych jest za krótki. Ale dla Dow Jones (113 danych) okazuje się, że w 60% okres między 6-23 września był spadkowy (średnia spadku -1,5%). Chi-kwadrat osiąga tu bardzo wysokie wskazania = 8,33, czyli mamy tylko 0,4% prawdopodobieństwa na to, że ten wynik jest losowy.”

  2. cycjan

    @ Wojtek
    Proponuję wziąć pierwszy lepszy podręcznik do statystyki i raz jeszcze przerobić rozdział o testowaniu hipotez. Nie wiem, co dokładnie testowałeś, ale użyłeś niewłaściwego narzędzia w niewłaściwy sposób.

  3. gzalewski

    Ciekaw jestem jak wygladałyby wyniki identycznej symulacji dla kolejnych miesięcy

  4. gość codzienny

    Panowie! Statystyką ale dla celów praktycznych (nie akademickich) zajmuję się od kilkunastu lat, powiedzmy hobbystycznie. Odpuściłem sobie dopasowywanie modeli matematycznych do danych historycznych w przypadku giełd papierów wartościowych, bo za dużo jest tam czynników wpływających na zmiany, większości z nich nie znamy, nie poznamy albo co najwyżej możemy o nich spekulować. Dla amatorów spiskowych teorii dziejów stworzono odpowiedni software, który dla każdego ciągu liczb czy zdarzeń odnajdzie korelacyjny model do kalendarza, ruchu gwiazd czy intensywności opadów. Sam nie posunąłęm się nigdy do ich nawet sprawdzenia, oprogramowanie piszę sam, wciąż z Turbo Pascalu, bo w zupełności mi wystarcza, a za stary już jestem na naukę i przesiadkę choćby na C.

  5. Pingback: Blogi bossa.pl » Anomalie na rynku akcji, część 2

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Proszę podać wartość CAPTCHA: *