giovedì 3 luglio 2014

Come riconoscere una frode "finanziaria"? Tips&Tricks alla portata di tutti (1)

Musica da attesa


Il Bias Ratio nasce con la regina delle truffe finanziarie, la distribuzione piramidale operata dai fondi collegati a Madoff. 

E' un'indicatore "multipurpose" in quanto evidenzia (o tenta di evidenziarie) tentativi fraudolenti di "smoothing" dei rendimenti. Cosa vuol dire "smoothing fraudolento"? Ad esempio, compro e vendo asset illiquidi e, consapevole dell'effetto deterrente che ha la deviazione standard su eventuali acquirenti del mio "metodo meraviglioso", diluisco i rendimenti lungo il tempo (smusso gli outliers) lasciando invariati i totali (esempio). O invento di sana pianta rendmenti meravgliosi e costanti tanto da fa invidia ad una rendita realmente fissa e priva di rischio o, eliminando artatamente frizioni, costi, tasse, incidenti di percorso di modo da ritagliare la mia equity line su una distribuzione irreale.

Molto facile da computare, ben si abbina (ed è assolutamente consigliabile farlo) alla CSS_Statistic (che, noterete, qui nell'immagine esprime un valore simile al Bias Ratio). Insomma, prima di fidarsi è bene perdere 10 minuti di tempo e fare due conti.

E' un indicatore intellettualmente brevettato, qui il documento di registrazione .

Come si calcola?

Il mio suggerimento è di utilizzarlo su rendimenti mensili (espressi dal soggetto generico che si intende analizzare).

La prma cosa da fare è calcolare la deviazione standard campionaria , si tratta di un'operazione consentia oramai da tutte le piattaforme o softwares. Se i rendimenti non sono molti, lo potete fare anche con una calcolatrice da tavolo.

La seconda cosa è separare i rendimenti positivi dai rendimenti negativi del soggetto da esaminare. Lo fate o sempre a mano (se non sono molti) o vi scrivete una cosiddetta "funzione indicatrice" del tipo " genera la variabile rendpos=1 if(se) i rendimenti da esaminare sono >=0" , " genera la variabile rendneg=1 if(se) i rendimenti da esaminare sono <0";

fatto ciò, vi troverete due colonne di "1" che vanno ulteriormente scremate togliendo:

 tutti gli "1 che corrispondono a rendimenti > valore della deviazione standard campionaria nella colonna rendpos  
 tutti gli "1" che corrispondono ai rendimenti <= la deviazione standard campionaria *-1(quindi cambia il segno della misura di dispersione e si escludono i rendimenti maggiormente negativi) nella colonna rendneg

sommiamo gli "1" della colonna rendpos, immaginiamo siano 14

sommiamo gli "1" della colonna rendneg, immaginiamo siano 4


il Bias Ratio è = a 14 / 4 ovvero 3.5.

In rete trovate diversi lavori che vi spiegheranno come in presenza di distribuzioni normali (in tutti i sensi) il valore difficilmente si scosta molto da 1, che Bernie aveva un 6 abbondante, che fondi che trattano assets illiquidi sono portati ad avere Bias Ratio alti etc..etc..etc.

Quel che conta è il calcolo sopra che, se non ho sbagliato (possibilissimo..questo è un post a richiesta e l'ho scritto di fretta..) consente di metterci in allarme prima di finire in padella.

Un saluto,




domenica 22 giugno 2014

Sell in may and go away if you have no other way: the CSS statistic


Le anomalie periodiche hanno sempre catalizzato l'interesse degli accademici; L'unica, ad essere snobbata o liquidata al massimo con poche righe è "Sell in may & go away". Un paio di esempi:

pdf1     pdf2


Provo a colmare la lacuna, ribaltando diametralmente alcune conclusioni; una su tutte: è molto più anomalia questa che il celebrato "effetto gennaio".

Diamo inizialmente un'occhiata ai volumi. I volumi di maggio presentano la tendenza ad essere inferiori rispetto ai volumi di aprile. Il fenomeno è evidente calcolando  il delta% t/t-1 e cumulandolo. Possiamo vederlo in due diversi modi abbastanta intuitivi


Tuttavia, se osserviamo la media dei volumi di maggio, con la media mensile dei volumi (dal 1950), scopriamo che maggio è un mese assolutamente normale in valore assoluto.
 
                               stats        volume S&p500          volume may

        mean(millions of shares)  767.6259                800.1083


nb: tutte le statistiche sono state effettuate utilizzando lo Standard&Poors 500

Detto ciò, poichè di questo "sell in may and go away" lo sento praticamente da sempre,  faccio una cosa banale.

Isolo i rendimenti di ogni singolo mese ed indago su possibili fenomeni di dipendenza seriale. La prima indagine consiste nello scoprire evidenza di "long range dependence" o memoria di lungo periodo. E' un fenomeno importante e largamente discusso in ambito accademico poichè inficia esplicitamente l'impossibilità di arbitraggio in un mercato efficiente. Leggimi

Utilizzo inizialmente un test a firma Andrew Lo (1991)  modified rescaled range ((R/S, "range over standard deviation")  che non è altro che il classico R/S test di Hurst (1951), quello usato per scoprire ciclicità nelle piene del fiume Nilo, aggiustato per essere meno sensibile ai valori più recenti.

I risultati li vedete nel primo grafico* e, maggio, sembrerebbe essere il mese che conserva più memoria tra i 12 costituents dell'anno. Il valore si avvicina al livello critico e questo mi spinge ad affinare i metodi di indagine.

*nb :" actual_month" vs " earlier month" - (nel caso in esame maggio vs aprile)

Passo alla Cosine Self Similarity, una sorta di fattore di autocorrelazione(ad un ritardo in questp test) dinamico. L'algoritmo è molto veloce e comodo e, usato tramite EWMA, consente di indagare sul decadimento della persistenza (memoria, similarità col passato etc..etc.etc.) utlizzando vari fattori di smoothing. Sembra complicato ma realmente non lo è; non faccio altro che misurare se maggio attuale è "simile" all'aprile appena passato, scivolando lungo lo scorrere degli anni.

Per evidenziare quando "maggio" sia anomalo, anticipo la fine di questo pseudo giallo di terza categoria; la CSS_Statistic misurata sui dodici mesi (dopo vedremo la formula, razionale)

guardate il "numero" di maggio rispetto al "numero" degli altri mesi...e fate le proporzioni.








Come si giunge a quel numero evidenziato e che si discosta in maniera così sensibile dagli altri; plottiamo ll'autosimilarità di coseno relativa a maggio.

Il fattore di smoothing per la Exponential Weighted Moving Average(EWMA)  utilizzato è 0.97, un classico per osservazioni mensili.

Le righe orizzontali tratteggiate evidenziano la significatività statistica della misura ,sopra(o sotto) tali bande abbiamo memoria nella serie temporale (in mezzo la relazione è debole). Lo "zero" separa i valori positivi da quelli negativi, il "carattere" della serie temporale. Valori prossimi a 1 decretano una serie che tende a replicare il comportamento passato. Valori prossimi a  -1 evidenziano una serie che tende a fare il contrario di quanto fatto in passato.



La maggioranza dei valori è >0 e la maggioranza dei valori >0  è > del livello di significatività statistica - EWMA decay factor= 0.97


il fattore di decadimento è importante, decide la sensibilità ai valori più recenti della nostra stima. Importante è quindi indagare su come cambiano i risultati spostando l'incidenza dei pesi (EWMA-> media mobile esponenziale pesata) ->guardami

Indago sul comportamento da un valore di smoothing iniziale di 0.97 e scalando fino a 0.49
"mean"= media della misurazione        "cv" = coefficiente di variazione della misurazione
i valori medi rimangono piuttosto elevati e il coefficiente di variazione aumenta con l'aumentare della sensibilità della stima (come è lecito aspettarsi) senza scarti eccessivi.


Poichè mi interessa indagare su "una persistenza"  presente in una finestra ampia, ripeto la stima con fattore di smoothing 0.97 su tutti i mesi dell'anno, ognuno di essi confrontato con il proprio comportamento passato.

ottengo
ucv99,ucv975,ucv95 etc..= upper critical value at statsig%
maggio, con un valore medio di 0.26, mostra memoria (nb:di trend osservato sino alla più recente osservazione passata) con una significatività statistica compresa tra il 97.5% e 99%, quindi molto alta. E' un valore riferito tuttavia, alla media della misurazione effettuata con esponenziale pesata.

La CSS statistic , per evidenziare la memoria di lungo-medio e corto termine è data da:

la media della stima di cosine self similarity ottenuta tramite ewma con fattore di decadimento lambda(0.97 in questo caso) diviso il coefficiente di variazione di detta stima onde ottenere una misura quanto più possibile impermeabile agli outliers ed alla varianza che rappresentano un vero e proprio bias nelle misure di autocorrelazione generiche.

calcoliamola per utti i mesi dell'anno e rivediamo quello 0.187 evidenziato precedentemente in giallo che cade tra il 90% e il 95% di significatività statistica


tutta questa pappardella sopra per dire che (sperando che ancora qualcuno non sia svenuto per la noia)?

Maggio è un mese singolare: presenta la forte propensione ad avere un comportamento simile all'aprile appena passato.
 Anno dopo anno. Ha una memoria spiccata direi e, quando c'è memoria, una semplice media mobile garantisce risultanti eccellenti (fino al sopraggiungere dell'arteriosclerosi seriale..che funziona come negli uomini...ti ricordi perfettamente quello che facevi 30anni fa ma scordi dove hai messo la dentiera prima di andare a dormire)

 Tale memoria è assolutamente anomala rispetto a quanto rilevato per  rimanenti undici mesi dell'anno (coppie) e pur non potendo escludere quel pernicioso fenomeno del data snooping (essendomi limitato alle sole osservazioni mensili dello S&P500 che sono circa 65 per ogni mese, 774 in totale) , conoscendo la correlazione positiva del "mondo" verso lo SPX sono abbastanza confidente che un fenomeno simile si sia trasmesso agli indici più liquidi da almeno 15 anni a questa parte.

La CSS Statistic serve solo a questo? In effetti sì, in pratica no; vediamo un utilizzo diverso e divertente

La CSS Statistic vs Ponzi scheme


Le misure canoniche per l'evidenza di una "memoria" nelle serie storiche hanno dei limiti. Non possono dirci "quanto" questa memoria è artificiale.


otteniamo, su osservazioni mensili:

Il Farfield Sentry "presentava" una spiccata memoria di lungo termine..e come non avrebbe potuto aggiungo io?Il problema è che, pur mostrando un valore significativo, >2.098 non ho altre informazioni. Deduco quello che hanno dedotto prima del fallimento i tanti istituzionali che hanno infilato questo rendimento costante in portafoglio senza farsi troppe domande. Bastava comprarlo per guadagnare.

Vediamo come si muove la cosine self similarity ad un ritardo; plottiamola stimata con fattore di smoothing 0.97 e test di significatività statistica al 99%


Non c'è dubbio; questa "è" manna caduta dal cielo..c'è tanta, tanta memoria persistente.  (La memoria degli ultimi sottoscrittori a vantaggio dei primi, tipico schema piramidale)

Calcoliamo la CSS Statistic e riflettiamo sulla sua formulazone.

"Cosine Self Similarity (ewma df 0.97) / coefficient of variation"





il valore è circa 22 volte il limite di significatività statistica al 99%. Per costruzione la statistica ha un numeratore che varia da -1 a 1 ed un denominatore composto dalla deviazione standard della stima diviso la media in modulo.  Un valore cosi alto viene fuori solamente se il coefficiente di variazione presenta una sproporzione enorme tra numeratore(deviazione standard) e denominatore (media). E questa sproporzione, che rendeva il fondo simile ad una costante di rendimento, una macchina stampa soldi, difficilmente la possiamo osservare su serie estratte da dati finanziari(generico). Ergo, diffidate di valori anomali e indagate ulteriormente con tutti i mezzi a disposizione.

nb: la statistica è ancora in fase di studio per delimitarne matematicamente il range di significatività. Sono ben accetti suggerimenti, critiche,commenti, osservazioni costruttive.

ps: un grazie a Paolo Einaudi che ha pescato al volo una mia leggerezza di programmazione. Sapere che ci legge un VERO programmatore è un bel conforto, credetemi. Grazie ancora Paolo!

lunedì 16 giugno 2014

Bubbles&Antibubbles: Black Swans, Dragon Kings and Flying Donkeys

Da Nassim N. Taleb a Diedier Sornette, sembra che le catastrofi debbano necessariamente essere associate ad animali (reali o di fantasia)

Noi non siamo da meno e ci inseriamo in questa corsa per il titolo di miglior menagramo a dorso di somaro. Spavaldi.

Taleb e Sornette ultimamente se le danno di santa ragione (guardami). Visioni assolutamente contrapposte con il primo che cavalca la l'impossibilità di predirre Eventi realmente estremi ed il secondo che presenta modelli (piuttosto confusi invero..almeno per me) per catturare in tempo lo scoppio delle bolle finanziarie e gestirle.  Black Swans & Dragon Kings, e' guerra


Nessuno dei due eminenti studiosi cita gli asini che volano, animali che si presentano al culmine delle bolle,  quando si crede pervicacemente di aver scoperto la macchina dei soldi a moto perpetuo  (non consuma energia perfino).


Gli asini che volano sono gli animali più pericolosi in finanza;  quando si crede ad essi le probabilità di veder disattese le proprie aspettive sono altissime.

Gli asini che volano non sono belli come cigni ne maestosi come draghi( "d" minuscola...) ma guai a sottovalutarli.

Descriviamo gli "asini che volano":

  1. pre 1987 crash: tutti si convinsero che bastava mettere i soldi in borsa per fare "più" soldi. Con le IPO in special modo il retail (e con takeovers in special modo le società quotate). Asini che volano leggimi
  2. pre 2000 crash: tutti si convinsero che bastava mettere soldi in borsa per fare più "soldi"(again...). Con le Dot-com in special modo, neonate stampatrici di bigliettoni alimentate a bytes. Asini che volano leggimi
  3. pre 2007 crash: tutti si convinsero che bastava chiedere soldi alle banche per acquistare casa o metterli in borsa....per fare più soldi (mercato mobiliare e immobiliare in crescita apparentemente irrefrenabile). Asini che volano leggimi
Differenza sostanziale tra "bolla" e "cigno nero"; nel primo caso si assiste ad una sorta di schema Ponzi spontaneo, dove gli ultimi (quelli che credono agli asini che volano) sono certamente i più penalizzati dal successivo "scoppio". Nel secondo caso, tutti sono democraticamente penalizzati.

I volumi esplodono "ex ante" nelle bolle e "ex post" nei cigni neri.


Le bolle vedono crescita di volumi e sottostante e forse sono "avvertibili". Ha ragione Sornette imho.

I cigni neri vedono crescita di volumi(panico) e decrescita del sottostante, solitamente gran parte del movimento è molto rapido (esempio di rapidità il flash crash del 6 maggio 2010) e non sono, per i comuni mortali prevedibili (escludiamo qualche "non comune" insider). Ha ragione Taleb imho.



Come identificare gli asini volanti

Stante il ragionamento sopra ho pensato che nelle bolle, volumi e sottostante debbano necessariamente crescere insieme e in maniera "anomala" , con probabili fenomeni di autocorrelazione seriale. Nel grafico che segue "MeanGrowth" è la crescita media di indice e volumi e "fit" è la tendenza media di questa crescita comune (nell'esempio utilizzo dati dello SPX)



isoliamo la crescita media di logvolumi e logprezzo ed il fitting per vederlo meglio



se andiamo a misurare la deviazione standard tra la curva che rappresenta la crescita "prezzo&volumi" ed il fitting della stessa, che dovrebbe rappresentare il valore fisiologico rilevato sul passato otteniamo



seguendo il ragionamento precedente, ovvero che le bolle si creano quando prezzi e volumi crescono insieme ed in maniera anomala, condiziono la deviazione standard cui sopra ad assumere valore=0 quando la crescita media è sotto il valore di fitting (ovvero quando o cresce il prezzo ma non i volumi o quando crescono i volumi ma non il prezzo) ottenendo:



evidenziando la deviazione standard misurata quando la crescita di "volumi & prezzo" si allontana dalla media puntando verso l'alto.

faccio la stessa cosa ma evidenziando la deviazione standard misurata durante l'allontamento verso il basso

Poi mi toccherà essere noioso..(come al solito)


musica noiosa


Ho normalizzato la deviazione standard dal fitting. La distribuzione dei due "lati" si presenta come una variabile debolmente stazionaria a distribuzione gaussiana, con le comode peculiarità che sono state evidenziate qui

ottengo infatti:


e gli asini che volano, mettendomi prossimo alle bande che evidenziano i limiti della distribuzione di probabilità (vicino a +\- 0.2) sono , con questa metodologia rudimentale, abbastanza evidenti. Credo..



Ribadisco il ragionamento senza essere Didier Sornette o Nassim Taleb:

Le bolle a mio avviso devono essere necessariamente caratterizzate da fattori univoci concomitanti; corsa all'acquisto irrazionale e crescita dei volumi i principali (che determinano lo schiacciamento della distribuzione prima che si riallunghi repentinamente ai primi cenni di "scoppio" ma andiamo sul troppo noioso..immaginate di spingere e lasciare un palloncino pieno di liquido); una sorta, come già detto, di schema ponzi spontaneo dove gli ultimi rimangono col famoso cerino in mano (i volumi non posssono essere infiniti a differenza della teorica crescita dell'indice). Con questo metodo non necessitiamo di alcuna stima e gungiamo a risultati pressochè identici e con invarianza di scala.

Ovvero, se cambio time frame e passo al settimanale, le mie "bolle" sono egualmente evidenti:


e lo stesso se aumento ancora la frequenza passando al giornaliero:


è solo questione di rumore e di code della distribuzione che si inspessiscono leggermente spostando l'intervallo di confidenza (allargandolo un po')

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
nb: i più spregiudicati masochisti potranno agevolmente intuire una forma a "U", con ciò che ne deriva..divertirsi con dei test (With or Without U) e trarre conclusioni personali. Ricordo tuttavia che secondo e quarto momento, in finanza, sono virtualmente(?) infiniti.


 fine nb.
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

se conforntiamo quanto sopra con l fitting "ciclico" tramite LPPL(log periodic power law - Sornette) boh!? A me pare facciano una fatica immane per ottenere risultati tutto sommato equiparabili.


Well, detto ciò, se esistono le "bubbles" esisteranno le "antibubbles". Proverò a dire la mia (anicipo che a mio avviso OGGI siamo in un'antibubble e non capisco proprio quelli che preannunciano cataclismi ogni 5 minuti circa..che sia chiaro..possono capitare..ma per motivi diversi credo..anzi, opposti direi); proseguiamo con la navigazione..(.......)


venerdì 13 giugno 2014

TSA





Ho sempre apprezzato le cose semplici, non semplicistiche.


Tutti dicono che gli ultimi 10 anni sono stati difficili. Non è del tutto vero; l'introduzione della moneta unica in Europa ha determinato un'anomalia che, egoisticamente, spero rientri il più tardi possibile: la Germania come leader garante. I bond teutonici come certificati di deposito in valuta diversa dal dollaro ma, effettivamente, concorrenziale allo stesso. Inutile affrontare l'argomento su quanto la Germania abbia guadagnato dalla crisi dei periferici europei, forse giustamente. E' stato detto e scritto in più o meno tutte le salse. Quello che da anni cerco di comunicare è che, ancora oggi, la Germania è il miglior proxy per investire sulla crescita del maggior listino del mondo; lo Standard&Poors 500. L'Indice più liquido, l'indice più importante, l'indice che, in virtù della massa, attrae a se, correlandoli positivamente, tutti i settori e indici e strategie (tranne quella short sullo stesso) immaginabili. Bond e volatilità rimangono le asset classes che oppongono la resistenza maggiore.


Nel grafico di esempio la similarità calcolata in maniera dinamica tra lo S&P500 e Dax30 e Ftsemib. 100 è il valore di "similarità perfetta", ovvero il valore massimo possibile. Il grafico parte da un anno prima l'entrata in vigore della moneta unica europea.


TSA  è un trading system nato anni fa e piuttosto semplice: media a 200 giorni sullo Standard&Poors 500,  quando l'indice la supera si va long , quando l'indice viene superato dalla media si va short. Ma non sullo SPX, sul Dax. TSA sta per TsAmico o Timing Seeker Allocation

La versione "sofisticata", ma neanche così tanto, utilizza una variante divertente(e adattva, ovvero non necessita di stime) del modello "TAR" di Petruccelli e Woolford che trovate ad inizio pagina.

Usiamo dati mensili per ridurre il rumore pertanto, è bene specificarlo subito, non vedete quello che accade giorno per giorno. Fate finta sia un fondo veramente low cost dove non dovete pagare alcuna fee ma solamente i costi di transazione e  spese generiche.

Vediamo come si è comportato  in questi 14 anni circa oggettivamente difficili per una strategia passiva come il Buy&Hold nudo e crudo.

Il sistema va long e short (ma possiamo tranquillamente sostituire con dei bond quest'ultima gamba) sull'indice. Io l'ho concepito da sempre per un uso con ETF.




Qualche gestore potrebbe iniziare a sudare. Lo capisco, battere il TSA è dannatamente difficile, quale sia la versione. Genericamente, battere lo S&P500 come generatore di segnali da utilizzare su correlati(o ad esso simili) è veramente complicato.


TAR: Threshold Autoregressive(first order here..) Model. Modello a soglia autoregressivo di ordine primo. Un modello "non lineare" teoricamente..non è proprio vero a dir la verità..ma qui andiamo sul noioso.. :)


Per la costruzione del modello utilizzerò delle medie esponenziali pesate, EWMA con fattore di decadimento lambda =0.65. Già sento le grida dell'avvocato di contraparte: "questo è overfitting vostro onore!!!!!!". Condannato all'ergastolo senza appello.

In effetti 0.65 non è un valore scelto a caso ma è il valore meno overfittato possibile per catturare quell'effetto protagonista di una mezza tonnellata di lavori accademici e chiamato, universalmente, "momentum".

Tanti ne parlano, pochi capiscono effettivamente di cosa parlano, in questo lavoro, recentissimo, sanno quello che dicono e ritengo valga la pena leggerlo.

Il fenomeno che voglio catturare insiste sullo S&P500 in una finestra che varia dai 6 a 12 mesi.

Questo è il grafico del decadimento esponenziale del peso percentuale attribuito alle osservazioni mensili dal parametro di smoothing lambda=0.65.

Credo sia più chiaro di qualsiasi spiegazione (che potrete cmq. trovare agevolmente in rete o su testi specialistici)

> 90% il peso complessivo distribuito esponenzialmente dal fattore di smoothing prescelto e che insiste sulle sei più recenti osservazioni mensili,raggiungendo il 100% circa alla 12ma osservazione più recente(e quindi completando la distribuzione). Decadimento percentuale del peso per fattori di smoothing pari a 0.95, 0.85,0.75 e 0.65(in blue-dot curve)


ovviamente, la parte interessante per la costruzione del modello a soglia è:  "smoothing di cosa?"


Smoothing pesato esponenziale della forma assunta dalla distrubuzione dei rendimenti dello Standard&Poors500 nel tempo.

Parliamo di simmetria pesata. Parliamo di attribuire un rank alla distribuzione di probabilità per massimizzare le nostre aspettative di rendimento.

Il nostro modello TAR sarà matematicamente: EWMA(UPM1) + EWMA(LPM1) + K

ovvero, fatta K la nostra soglia, calcoleremo tramite EWMA il momento parziale superiore di primo ordine dei rendimenti dello SPX (probabilità positive, rendimenti >soglia) , calcoleremo tramite EWMA il momento parziale inferiore di primo ordine dei rendimenti dello SPX (probabilità negative, rendimenti<soglia) ed aggiungeremo a questo spread probabilistico "K", la nostra soglia&desiderata.

K= EWMA(logrendimenti percentuali SPX) con fattore di decadimento quanto più possibile prossimo a 1. Ovvero massima persistenza del drift.





TARtrigger=EWMA(UPM1(r)) + EWMA(LPM1(r)) +K(EWMA(r)*)

 *( fattore di smoothing quanto più possibile prossimo ad 1)





Il risultato, entrando in acquisto(a t+1) sui correlati (Dax30, MDax,EStoxx50 e Ftsemib nell'esempio) quando TARtrigger positivo ed in vendita quando TARtrigger negativo lo vedete qui e non mi sembra malaccio, considerate le spese di "gestione" del sistema.


Vediamo in numeri e misure di performance di cosa stiamo parlando:

qualche numero "since its inception" e solo 2014 di più sottostanti. Notare l'indice italiano nel 2014 o l'indice greco prima che trovassero l'errore nei conti.... :)



(......)
La Grande Onda



venerdì 30 maggio 2014

Supercalifragilistichespiralidoso. E anti.

Supercalifragilistichespiralidoso
anche se ti sembra che abbia un suono spaventoso                            probabilistic-like  fragility&antifragility measure
se lo dici forte avrai un successo strepitoso
supercalifragilistichespiralidoso







Compromising is condoning. The only modern dictum I follow is one by George
Santayana: A man is morally free when … he judges the world, and judges other men,
with uncompromising sincerity. This is not just an aim but an obligation.



Mi è piaciuto il libro di Nassim Nicholas Taleb "Antifragile", l'ho letto avidamente. Una cosa non ho capito (e continuo a non capire), il concetto di fondo.

Per me, non esistono cose "antifragili". Esistono cose fragili (più o meno fragili, meglio) e cose rotte. Le cose rotte non sono fragili per il semplice motivo che non si possono rompere.  In effetti il parto di questa sconcertante deduzione non è mio, ma di mio figlio che ha due anni e mezzo.

Un orologio rotto non smette di essere bello o complicato. Segna l'ora esatta ben due volte al giorno. Sopravviverà sicuramente ad un orologio funzionante per il semplice motivo che..non funziona.

Forse è per questo che Taleb indica l'Italia come antifragile.


Nassim Taleb: ecco i quattro motivi per cui l'Italia resiste ai «cigni neri»



 Provo ad approfondire la questione, probabilmente ridurrò il tutto ad una fragile, personale recensione del libro di Taleb ma  potrebbe comunque essere interessante.

"Fragility can be measured; risk is not measurable"

"anything that has more upside than downside from random events (or certain shocks) is
antifragile; the reverse is fragile."




La fragilità può essere misurata,il rischio no. Qualsiasi cosa che mostri una crescita a seguito di eventi casuali (o determinati shocks) è antifragile. Il contrario è fragile.

Partiamo da questi due concetti fondamentali e centriamoli al campo che ci vede interessati, la finanza:

la fragilità può essere certamente misurata, lo stasso Taleb riprendendo percorsi già tracciati in passato ci fornisce gli strumenti per farlo. Il rischio Taleb dice di no.
In effetti sarebbe meglio dire, a mio avviso, che non è possibile misurare "tutti i rischi" e , ancora più importante, è impossibile stabilire a priori l'impatto di ciò che non riusciamo a misurare. Torniamo a mio figlio di due anni e mezzo: il rischio che rompa una cosa che ha già rotto è assolutamente misurabile e pari a zero (probabilità), come è pari a zero il rischio di fallimento di una banca (o di un paese) già fallita. "Rotto" è sicuramente antifragile ed eventi casuali e\o imprevedibili mal che vada non avranno alcun impatto su di esso (ben che vada li riaggiustano, tipo calcio sul distributore di bevande bloccato, manata sul televisore che fa le righe, martellata sul carburatore della vecchia moto che non vuol saperne di partire, scossa tellurica che ricompone fortunosamente il piatto rotto solo pochi istanti prima e sparso casualmente(ordine) sul pavimento). Spingendoci più in là, potremmo dire che questa fragilità è compagna dell'evoluzione culturale; le blatte sono antifragili perchè hanno superato (fino ad oggi) tutti gli eventi che hanno interessato il pianeta dalla loro comparsa. L'uomo, che è arrivato dopo, parrebbe essere più fragile, resiste meno ad eventi estremi mostrando la deprecabile attitudine alla morte per cause non naturali. E con esso tutto ciò su cui mette mano. Taleb sottolinea questo concetto con "This is the tragedy of modernity" , "neomania".

I più antichi resti fossili di blattoidei risalgono al Carbonifero, tra 354 e 295 milioni di anni fa. La storia dell'uomo è l'insieme delle vicende umane all'interno della Storia della Terra. Essendo l'uomo il frutto di un processo evolutivo, l'inizio della storia dell'uomo può essere fatto risalire a diversi stadi di questo sviluppo: la si può intendere dalla comparsa del primo manufatto tecnologico australopithecino, a partire dalla comparsa del genere Homo, oppure a partire dalla comparsa di Homo sapiens, il cosiddetto "uomo moderno", circa 200 000 anni fa.
Con tale definizione si può preferire indicare la storia dell'uomo moderno, dotato di caratteri anatomici identici all'uomo odierno e di una cultura artistica e spirituale, ma nella periodizzazione tradizionale il primo dei periodi della storia umana è generalmente indicato nella Preistoria, 2,5 -2,6 milioni di anni fa, e quindi include diverse specie ominidi.


La fragilità può essere misurata,il rischio no. Qualsiasi cosa che mostri una crescita a seguito di eventi casuali (o determinati shocks) è antifragile. Il contrario è fragile.(2)


Taleb ci indica come approcciare la misura di fragilità-antifagilità:


Ok. Vediamo se ho capito: questa è antifragile

Antifragile? No, a fraud. A fragile fraud shape



No. Il contrario. E' (era, meglio forse) un fitting gaussiano della distribuzione dei rendimenti del feeder fund  di Bernard Madoff (Fairfield Sentry) . E' divenuto antifragile quando si è rotto.

Ha ragione mio figlio , credo che Taleb si sbagli..non esiste antifragile; esiste più o meno fragile e\o più o meno rotto.
Non è sufficiente una asimmetria per decretare antifragilità
S&P500 more fragile??

poichè la stessa asimmetria mostra l'esatto contrario se indaghiamo in profondità



Cosa vuol dire "ExtraTail Mass Probability" e perchè è una misura importante?



Sarò noioso;  generiamo la variabile X che mostra media =0 ,varianza=1 e presenta una funzione di densità di probabilità come segue:

In teoria della probabilità la distribuzione normale, o di Gauss (o gaussiana) dal nome del matematico tedesco Carl Friederich Gauss, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio. Il grafico della funzione di densità di probabilità associata è simmetrico e ha una forma a campana, nota come Campana di Gauss (o anche come curva degli errori, curva a campana, ogiva).
La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolo nel teorema del limite centrale. Più specificamente, assumendo certe condizioni, la somma di n variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di n all'infinito. Grazie a questo teorema, la distribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienze naturali e sociali[1] come un semplice modello per fenomeni complessi.



100000 osservazioni e le statistiche descrittive parrebbero certificare un buon funzionamento del generatore:


                             Variabile X
-------------------------------------------------------------
      Percentiles      Smallest
 1%    -2.315799      -4.633008
 5%     -1.64817       -4.41705
10%    -1.290938      -4.162048       Obs              100000
25%    -.6775689       -4.14397       Sum of Wgt.      100000

50%    -.0003309                       Mean          -.0041572
                        Largest             Std. Dev.       1.00022
75%     .6666807       3.894426
90%     1.279209       3.945858       Variance        1.00044
95%     1.640493       4.293149       Skewness       .0070993
99%     2.344445       4.490108       Kurtosis       2.996888

le peculiarità della Variabile X sono molteplici ma possiamo ridurle ad una sola fondamentale:  la prevedibilità statisitica.

La Variabile X è magica.



                                                                         Musica da lettura


Della Variabile X sappiamo che non si discosterà più di tanto dalla media, quando lo farà sarà semplce prevedere un movimento contrario al precedente (se si è allontanata verso il basso, andrà in alto e viceversa). Dalla Variabile X non dobbiamo aspettarci sorprese; scommettendo su di essa sappiamo esattamente quello che potremmo perdere perchè la Variabile X è si variabile ma non poi così tanto ed è assolutamente cortese nel fornirci le percentuali esatta dei suoi scostamenti.




Come un figlio che telefona ad intervalli regolari quando si allontana da casa fornendoci le coordinate esatte per rintracciarlo ovunque esso sia. Con la Variabile X Wile E. Coyote non corre il rischio di cadere in dirupi senza fondo e cattura sempre, sempre, Bip Bip.



La Variabile X è magica e consente a chiunque di sentirsi un po' Harry Potter costruendo la bacchetta magica che più aggrada. Il mio simpatico Ingegnere usa le probabilità condizionate e prevede , con una accuratezza vicina al 100%, i fondi azionari (o i mercati azionari) che saliranno nei tre anni seguenti il momento "t" che decreta le massime probabilità di crescita.

La Variabile X è magica ma necessita di tempo per sviluppare questi interessanti poteri. Io ho usato 100000 osservazioni, circa 400 anni di borsa aperta eppure..eppure..pur considerando un periodo così ampio e che difficilmente ci vedrà protagonisti,  la Variabile X cela qualche sorpresa..





Quelle code, che appaiono in perfetta forma nella figura appena sopra Wile E.Coyote, durante questi 400 anni, simulati generando una variabile normalmente distribuita, tendono a metter su massa per poi perderla. Usando una media mobile a 252 osservazioni (un anno di borsa circa) scopriamo che questa massa di probabilità "extra" che grava sulle code, corrompendone l'invidiabile linea, arriva ad oltre il 30% di quello che dovremmo aspettarci.

Mi spiego; se stimo un Valore a Rischio sulla Variabile X per identificare , col 99% di attendibilità statistica, la massima perdita nella quale potrei incorrere, la mia incertezza non sarà l'1% ma sarà un 30% più grande . Quindi quel 99% non sarà così rotondo ma sarà 98.7%, "a volte". A volte sarà più del 99%.
In media, dopo 400 anni, osserveremo un 99% pieno (quasi...sarebbe meglio avere qualche migliaio di anni in più..).

Sarà colpa del generatore del mio programma statistico? Non credo. Una moneta equa tende ad un eguale numero di teste e di croci dopo molti lanci ma le stringhe contenenti ripetizioni di faccia rendono le scommesse a lungo termine incerte (scommetto che su 1000 lanci usciranno 500 teste e 500 croci..e perdo).



"In finanza non c'è nulla di antifragile. Qualcosa funziona di più (ed ha più probabilità di rompersi) e qualcosa funziona di meno (ed essendo mezzo rotto, poco funzionante, avrà meno probabilità di rompersi" 


Nel caso del Fairfield Sentry (Madoff feeder fund), le probabilità "extra" usando una finestra rolling a 6 mesi (ho solo osservazioni mensili del fondo) sono arrivate al 770% ovvero, l'incertezza di un VaR al 99% era, a volte, del 7.7% e non dell 1%. A volte...sempre.  "A volte = sempre"


"In finanza non c'è nulla di antifragile. Qualcosa funziona di più (ed ha più probabilità di rompersi) e qualcosa funziona di meno (ed essendo mezzo rotto, poco funzionante, avrà meno probabilità di rompersi..Taleb è libanese, non conosce l'Italia. Un'Italia da sempre mezza rotta, poco funzionante. Non antifragile...1/2 rotta...volatile perchè poco efficiente e quindi poco attraente nei confronti di quella liquidità che si muove verso le cose funzionano. Resiste alle crisi perchè da esse non è mai uscita completamente e semmai lo facesse, se iniziasse a funzionare, diverrebbe ovviamente più fragile visto lo spostamento delle probabilità di rottura che l'efficienza comporta"






Come pesare(con le probabilità di vederla infranta) la promessa di un database finanziario? La misura precedentemente utilizzata si prefigge proprio questo scopo;

ETMP=massa di probabilità "extra" sulle code.

scopriamo l'acqua calda ma almeno la usiamo per farci due spaghetti che abbiano una giusta cottura; utilizzerò i dati del Fairfield Sentry per dare, in seguito, un senso concreto(finanziariamente) al concetto di promessa e di disatteso.


Una promessa è "fragile" se non riesco a determinare, causa incertezza, il rischio di vederla attesa\disattesa; genericamente quindi, in finanza osserviamo fragilità se la distribuzione dei dati si allontana da quella normale che ci consente di stimare entro un intervallo di fiducia le probabilità generiche.

Abbiamo un metro campione che si chiama "pseudo deviazione standard"; esso non è altro che lo scarto interquantile diviso 1.349 (1.349=2*0.674 è l’intervallo contenente il 50% di casi in una distribuzione normale)

IQR(interquartile range = differenza tra il 75mo ed il 25mo percentile (o tra il terzo quartile, Q3, ed primo quartile, Q1),contiene pertanto il 50% dei casi) / 1.349

Nel caso di distribuzioni simmetriche, il confronto tra standard deviation e pseudo-standard deviation offre indicazioni sulla massa di probabilità presente nelle code:
  • se standard deviation=pseudo standard deviation la distribuzione ha code normali;
  • se standard deviation>pseudo standard deviation la distribuzione ha code grosse (kurtosis > 3);
  • se standard deviation<pseudo standard deviation la distribuzione ha code sottili (kurtosis < 3).

La nostra formula, su finestra mobile e\o sulla totalità dei casi sarà quindi:

ETMP= Deviazione Standard  dati osservati / PseudoDeviazioneStandard * 100


 La percentuale risultante questa frazione ci indica quanta "roba" in più è presente sulle code (che diventano "grasse" proprio quando la massa di probabilità supera il peso "normale")




Osserviamo le varie misure di ETMP (rolling 6mesi, rolling 12mesi e totale) sul Madoff feeder fund:



Madoff non era uno sciocco..o forse sì. Se avete letto con attenzione tutto il noiosissimo scritto precedente, ed osservando le misure, partendo dalla massa totale osserviamo che fitta, alla perfezione, una normale. Chirurgicamente oserei dire.

Rileviamo un valore di  "ExtraTailMassProb_Fairfield_tot" =97.36138 su100(che è il valore della nostra gaussiana teorica). Questo con sole 216 osservazioni.

Io ne ho usate 100000 prima e non mi veniva così perfetto. Dovrei calcolare le probabilità che accada una cosa simile ma credo siano simili a quelle di uno sbarco alieno nel Parlamento Italiano (un altro intendo...)

Osservando la distribuzione delle misure rolling (qui avevo tolto "100" per evidenziare il peso aggiuntivo, cosa che potete fare in fase di computazione, basta tenerne conto) osserviamo invece scarti elevatissimi dalla normalità.

La nostra incertezza.



Il concetto penso sia stato chiarito.

Se ripetete la misura su, ad esempio, l'indice MSCI WORLD,  scoprirete con orrore quanto le nostre previsioni (o quanto la promessa fatta dai rendimenti passati dell'indice) sia incerta. Previsioni che, a dispetto di una apparente sofisticazione (probabilità condizionate ad esempio, statistica bayesiana nella sua interezza reti neurali comprese) sono assolutamente risibili se le identifichiamo come "promessa" da mantenere in un lasso di tempo ragionevole (durata media vita umana).  Bisognerebbe scrivere a caratteri cubitali, al posto di "Non vi è garanzia di ottenere eguali rendimenti in futuro", frase che campeggia nelle brochures dei gestori di tutto il mondo ma:

"NON E POSSIBILE OTTENERE EGUALI RENDIMENTI IN FUTURO" lasciando la porta aperta a sorprese sia gradevoli che sgradevoli.


La misura ETMP, che spero venga diffusa quanto più possibile, si presta ad essere un valido sostituto della varianza nelle misure di performance pesata con il rischio(generico);

Vediamo un rapido esempio usando la promessa di Madoff.

Il nostro amico Bernard prometteva rendimenti annui tra il 10 e il 12%. Usiamo la sua promessa come benchmark e ipotizziamo che esista(in passato è accaduto o quasi) uno strumento che ci dia questo 10% senza rischio; Dividiamo questo 10 per 12 mesi e cumuliamo ottendo una retta inclinata.

Vediamo le due "Equitylines" a confronto:



 Madoff domina il 10% annuo privo di rischio.

Pesiamo il rischio:

RAS: RISK ADJUSTED SLOPE = (Arcotangente (A/B) / 45-1)*100 / C        nb: output "Atan" in gradi, non in radianti. Per la conversione(se necessaria, dipende dal software) : LEGGIMI

dove "A" è l'equityline del Farfield, "B" è l'equityline del nostro 10% annuo ipotetico, "C" sarà, nelle due misure proposte, la deviazione standard rolling 12mesi annualizzata(VolRAS) la misura ETMP rolling 12mesi annualizzata (TailRAS)

ecco cosa accade quando si pesa il rischio(generico)


Un degrado costante della performance pesata con il rischio, tipico di uno schema Ponzi(truffa piramidale)

Ma del RAS e delle sue peculiarità come misura per giudicare i gestori parleremo nel prossimo post, qui l'argomento è la fragilità.

Forse la miglior definizione è questa, di un illuminato anonimo:




mercoledì 28 maggio 2014

Oh my Go(l)d!!!

Goodbye Mr. Sandman
L'oro, stante un Vix così basso e uno Standard&Poors che mette a segno records assoluti a ripetizione è innaturalmente alto. La ragione potrebbe essere individuata nelle difficoltà dell'Eurozona ed un eventuale disgregamento (con conseguente ritorno alle valute domestiche) ma, scongiurato questo pericolo (che diviene giorno dopo giorno meno probabile in tempi brevi), avremo di fronte un asset rischioso e forse sopravvalutato. Improvvisamente. 
E niente di più.

lunedì 26 maggio 2014

Toc toc toc on zerohead: normalized tango

zerohedge tick tick tick


Nessuno può prevedere nulla. Solo constatare che, al momento, il mercato non percepisce grossi pericoli.E difficilmente un grafico, seppur postato sull'autorevole zerohedge potrà spostare questa percezione. Possono farlo i soldi. Solo i soldi.

domenica 25 maggio 2014

QuantVix(2): the leverage (correlation effect) puzzle exploiting algorithmics solutions

Musica da lettura


Per capire bene in che ginepraio andiamo ad infilarci consiglio di spendere qualche ora e leggere, con attenzione, i lavori che allego;

il primo, ad opera del Prof. Marmi, fresco o quasi di stampa:Predizione incertezza e rischio: la matematica tra Las Vegas e Wall Street

il secondo, una pietra miliare del money management:Response to Paul A Samuelson letters and papers on the Kelly Capital Growth Investment Strategy  e vi consiglio letture di riferimento dello stesso autorevole autore, William T Ziemba (ad es.Good&Bad Properties of Kelly Crterion)

Di formule per determinare la scommessa ottimale, ne nasce una al giorno (ne partorirò perfino una io più avanti) ma presentano, tutte, lo stesso punto debole: disegnano una funzione di utlità che non è aderente alla funzione di utilità che un investitore matura nel tempo. Non approfondisco volutamente Vince e non spiego volutamente il perchè; sono sostanzialmente d'accordo con l'autore di questo articolo critico (che tratta l'optimal f ma potrebbe trattare alla medesima maniera i rimanenti algoritmi di ottimizzazione della scommessa passando per l'esclusione del ruin risk); quindi, ve lo leggete :) The Optimal F Fallacy

La mia, personalissima opinione è che Kelly e formule derivate sono , se non siete Thorp (ma la lista degli estimatori autorevoli è lunga) e non siete fortunati come lui, pericolosi. Semplicemente, non avrete mai il tempo per trarne un qualsiasi beneficio. Ma è una mia personalissima opinione, ribadisco.
Mia personalissima convinzione è che oggi, nel 2014, ogni investitore debba disegnare la propria funzione di utilità in base a criteri che esulino dallo stretto integralismo matematico ed abbraccino un pragmatismo di fondo prima che formalismi estetici. Oggi, il problema non è scommettere la quantità ottimale in base ai risultati ma accettare l'amara realtà di non poter ragionevolmente esser certi ne della qualità dei risultati ottenuti ne della qualità del sottostante che ci ha permesso di ottenerli ne del tempo che ci rimane a disposizione per testare la bontà di una qualsiasi strategia. Non è più così facile volare sulla Luna.

Per far capire a chi legge quello che ho capito io (e far fare due risate a chi ha capito di più) la faccenda si può ridurre in questi termini:

se leggiamo l'ultima risposta del misterioso Alemis 9 a Ralph Vince (risposta del 23 maggio u.s ) egli spara con nonchalance una terribile bordata: 


might add that Kellys equation and your own do not really apply to the market in practice (and so should not be used) due to the mathematical phenomenon of infinite variance.
.

Cosa vuole dire? Provo a spiegarlo con parole semplici: per applicare le formule di Kelly e Vince noi dobbiamo necessariamente assumere un momento secondo, la varianza, finita. Se fosse infinita, non potremmo utilizzarne il valore per l'ottimizzazione della scommessa. Se fosse nulla, zero, la nostra variabile non sarebbe, appunto, variabile; sarebbe una costante. E su una costante non ho bisogno di ottimizzare alcunchè.

Problema con la varianza finita, dobbiamo assumere di poter modellare la nostra variabile come  random i.i.d (indipendente e distribuita in modo identico) che segue una distribuzione gaussiana e ci piacerebbe tanto fosse stazionaria.

Problema con i.i.d  e con gaussiana: i nostri logrendimenti presentano la balzana peculiarità di variare il segno del fattore di autocorrelazione a seconda della frequenza. Ma non solo: se togliamo il segno, i logrendimenti assoluti col cavolo che sono indipendenti, sono autocorrelati a decadimento lento e lo stesso vale per il quadrato degli stessi anche se con valori leggermente inferiori; se andiamo a vedere che forma assume la distribuzione, notiamo una fastidiosa punta che sfora la curva di una gaussiana teorica.

Cose così, prendendo lo SPY come campione:




che poi è quello che ipotizzò Mandelbrot col volatility clustering suggerendo la famiglia di distribuzioni stabili a varianza infinita per modellare le serie finanziarie, non la gaussiana che è un caso particolare delle stesse (ma con varianza finita..comoda però..).

Quella punta, tanto per non farci mancare nulla, si accentua in maniera proporzionale alla frequenza delle osservazioni , cosicchè troviamo (o potremmo trovare, meglio) varianza infinita ad alta frequenza con acf di segno "-s", varianza finita a frequenze inferiori con acf di segno "+s", difformità di forma e acf  tra indici e costituents, mutazioni e\o inverisioni a U(shaped) in corsa e chi più ne ha ne metta.

Insomma, per quel poco che ho capito..la varianza infinita (e la debole stazionarietà) è il problema, quindi finiamo la varianza con buona pace di Kelly, Vince, Thorp & Co..che hanno tutta la mia stima ma io devo investire i miei risparmi e non lanciare un HedgeFund.



Quello che interessa a me, investitore basico con scarse conoscenze di econometria, statistica, matematica etc..etc..etc..è partorire una strategia che:

  • a) abbia una pendenza possibilmente positiva (abbia un rendimento NETTO migliore dei sottostanti che andrò ad utilizzare)
  • b) abbia una varianza possibilmente sostenibile
  • c) abbia una correlazione con i sottostanti che intendo utilizzare possibilmente nulla.

c) merita un approfondimento perchè ritengo sia il fulcro di tutto il puzzle che tenterò comporre.

Riprendiamo come esempio il sistema QuantVix : avere una correlazione nulla con i sottostanti di per se significa poco. Il web è pieno di formule che sublimano il vecchio e robusto(si fa per dire..) concetto di diversificazione (algoritmi stile MCA).

Problema: la correlazione è time varying, è tempo variante; componi un portafoglio di sottostanti con la miglior matrice possibile e, improvvisamente, salta tutto. La diversificazione va a farsi benedire, tutti i costituenti si muovono congiuntamente con la medesima direzione(solitamente il basso...), le probabilità che avevi stimato per escludere la nefasta occorrenza vanno a farsi benedire, le massima perdita che in back test avevi ipotizzato (pensando che mai si sarebbe verificata ma era bene cmq. sapere cosa aspettarsi nello scenario peggiore) una carezza rispetto alla sberla che ti molla la realtà del mercato.

Nel caso di una strategia di trading è ancora più complicato;

Prendiamo il caso del sistema precedentemente proposto: il QuantVix va lungo sullo SPY e lungo sul TLT a seconda della stima fornita dall'asimmetria rolling a un mese del delta openvix\closevix[t-1], il nostro proxy del flusso di notizie overnight. La strategia è efficace se discrimina correttamente le fasi di mercato switchando con meno ritardo possibile da un sottostante all'altro.

Se questi si correlano e perdono entrambi o la discriminazione non è efficace, la strategia incorre in perdite o drawdowns. Se salgono entrambi, una discriminazione inefficiente esprime mancata scelta del miglior candidato,  una sottoperformance rispetto ad un benchmark ambizoso, rendimenti non in linea con le aspettative ma, di problemi seri, non ve ne sono. Per deduzione logica quindi la strategia ottima è quella che che si allontana comunque dalle perdite dei due sottostanti ma sapendo scegliere, contemporaneamente, quello che guadagna di più(quando guadagna).

Ovvero:

  • a) abbia una pendenza possibilmente positiva (abbia un rendimento NETTO migliore dei sottostanti che andrò ad utilizzare)
  • b) abbia una varianza possibilmente sostenibile
  • c) abbia una correlazione con i sottostanti che intendo utilizzare possibilmente nulla.

abbiamo disegnato la nostra rudimentale funzione di utilità strettamente aderente alla definizione economica di soddisfazione personale.

Problema per l'investitore medio: i tre punti sopra, se non si possiede la sfera di cristallo, difficlmente possono essere risolti se non si utilizza la leva; vuoi per i costi di transazione e slippage e tasse che inficiano arbitraggi teorici, vuoi per l'impossibilità di essere completamente effcienti nella discriminazione, vuoi per l'efficienza, di contro, che il mercato ciclicamente si ricorda di possedere spazzando via con eventi imprevedibili coloro che hanno avuto l'ardire di sfidarlo. Questa ultima parte eseguita in maniera assolutamente democratica, senza applicare alcun tipo di scontistica. Le conseguenze di queste epurazioni, semmai, sono sovente meno democratiche. Ma è un altro discorso.

Scriviamo l'algoritmo che soddisfa i tre punti sopra e che ci guiderà a destinazione verso la ricchezza come Kelly ha guidato Thorp.

A proposito..qui  trovate le performances dei mitici quants  di Wall Street. I rendimenti sovente sono come i pesci per i pescatori, si tende sempre ad ingigantirli un po'. In buona fede, ovvio.

Algoritmo: sono un tipo pratico e scrivo quello che tecnicamente possiamo chiamare "algoritmo di targeting".

Tre input disegnano la mia funzione:

  •       EMLev     LevEDF      THVol
  •          1.5              2              16




Massimo Leverage che mi posso permettere: qui dobbiamo parlarci chiaro, andare il leva vuol dire usare direttamente soldi altrui ma, indirettamente soldi nostri. Bisogna guardarsi in tasca ed essere obbiettivi. Vantaggio nel 2014: possiamo usare strumenti strutturati per muoversi in leva vedi SPLX e comprarne meno.senza troppe complicazioni. Strumento nuovo, da monitorare e verificare sul campo. Prodotto UBS (vedi rifermento precedente al Dott.  Qunfang Bao Equity Quant at UBS
metto 1.5 (ovvero userò il 75% dei soldi necessari all'acquisto dello SPY(leva 1) , esempio, per acquistare SPLX(leva 2 e stesso sottostante, lo S&P500)


Fattore di decadimento leverage: è un esponente che va da 1(nullo) a (teoricamente) infinito. E' la velocità che scelgo per disinvestire.

Target Volatilità Storica: quello che voglio vedere (in media) quando tiro giù il report della strategia. E' la mia "Health (non Wealth) Choice", la mia scelta di salute. E' il limite della volatilità oltre il quale riduco la percentuale di soldi a mercato.

i tre input restituiscono una matrice di correlazione delle VOLATILITA' espresse dalle due strategie passive (il Buy&Hold sui due sottostanti, gli ETF SPY e TLT) e la strategia attiva (il trading system QuantVix) di questo genere:


                       HVol_QVTLT    HVol_BHSPY       HVol_BHTLT
             -------------+---------------------------------------------------
 HVol_QVTLT  |   1.0000

 HVol_BHSPY  |   0.0618            1.0000

 HVol_BHTLT   |  -0.0690            0.6278                 1.0000


se notate le volatilità (badate bene...) delle due strategie passive sono correlate positivamente e con un valore non proprio basso. La volatilità del QuantVix, dopo il crunching dell'algoritmo di targeting è neutra verso quella dei sottostanti.

Lo zero (neutro) è il ns. "valore ottimo", quello da ottenere se volessi formalizzare l'algoritmo come formula matematica. Il target è la neutralità (assenza di correlazione tra le diverse volatilità) tra la strategia attiva e le strategie passive dei sottostanti utilizzati.

E' un punto importante, il resto sono veramente operazioni banali, vale la pena rifletterci e cogliere, se c'è, l'innovazione matematica rispetto a Kelly e Vince.


Rispettando le regole di ingaggio del QuantVix, l'algoritmo procede come segue:

stima la volatilità sul sottostante (la strategia) più rischioso (lo SPY o il MDY negli esempi precedenti) ma sul logrendimento percentuale open/close[t-1]; la volatilità delle aperture (possiamo chiamarla così) è, mediamente , 1/2 della volatilità close to close. Il valore ottenuto dalla stima viene moltiplicato per due.

Il nostro leverage sarà uguale al TargetHVol impostato diviso il valore ottenuto dalla stima cui sopra.

Verrà condizionato al valore di EMLev se dovesse superarlo (nell'esempio sopra il rapporto è vincolato ad 1.5 ovvero anche se la volatilità stimata fosse 1/3 della volatilità "target" non avremmo una leva maggiore 1.5)

Verrà spinto ad "accelerare" nel caso dovesse scendere sotto il 50% del valore inizialmente impostato ovvero: quando l'algoritmo impone di comprare (nell'esempio in esame) il 75% dell'ETF in leva1 ovvero, quando la volatilità stimata supera del 25% il valore target impostato. Viene spinto ad accelerare imponendolo uguale al valore di leverage stimato elevato al valore impostato LevEDF.  Leverage^LevEDF al verificarsi della condizione Leverage<=EMLev*0.5. E' ovvio che l'algoritmo non prevede l'utilizzo di leve >2.

Essendo l'algoritmo di stima della volatilità(leverage) limitato temporalmente all'ultimo valore di apertura del sottostante più rischioso ed essendo gli ingressi della strategia posticipati rispetto a questo valore (il close), non vi è looking forward.

Il sottostante meno rischioso viene trattato in eguale maniera; anche esso sarà vincolato alla quantità imposta dalla stima del leverage ma, per motivi facilmente comprensibili, non andrà mai in leva >1(potrà scendere sotto tale valore).

Vediamo come cambiano i risultati, qui qualche numero bisogna partorirlo.

Applichiamo la strategia allo SPY, ci verrà utile se decideremo in seguito (dopo attentissimo monitoraggio) di utilizzare lo struttrato in leva2 con reset mensile SPLX.

Prima statistiche e grafico nudi e crudi, poi indagheremo in profondità (la seconda riga di statistiche descrittive si riferisce al periodo 02jan2014 - yesterday)

NB:QVTLTY_b= strategia QuantVix senza algoritmo di targeting






                                                           


            Osserviamo le volatilità storiche di:

  • Strategia Attiva=QuantVix in leva 1.5
  • Strategia Passiva a) = Buy&Hold Etf SPY
  • Strategia Passiva b) = Buy&Hold Eff TLT
stime garch(1,1) vce(robust)
Osserviamo in profondità con e senza algritmo di targeting
Ancora più in profondità, comparando la strategia IN LEVA con algoritmo di targeting e le due strategie passive





Ultima occhiata alle distribuzioni
In questi tre grafici vediamo i quantili delle variabili esaminate confrontati ai quantili di una distribuzione normale. Più le curve si allineano sulla retta(la diagonale) che identifica la "normalità" più la distribuzione delle variabili sarà fittata dalla classica campana gaussiana. Con i vantaggi che ne possono conseguire ovviamente, uno su tutti, la stima del Valore a Rischio della strategia per eventuali stop loss.
 Normality


L'algoritmo proposto ha il precipuo scopo di rendere "meno fragile" la strategia. Questo, pur con l'apparente contraddizione che comporta l'utilizzo della leva. NON POSSIAMO escludere Balck Swans, ma, se avete letto il paper che rimanda al "SILENT RISK" possiamo ricavare una misura probabilistica della "fragilità" . Di "antifragile", quando si parla di mercati mobiliari..non mi azzarderei ad ipotizzare nulla. Ma sarà l'argomento del prossimo post..