venerdì 30 maggio 2014

Supercalifragilistichespiralidoso. E anti.

Supercalifragilistichespiralidoso
anche se ti sembra che abbia un suono spaventoso                            probabilistic-like  fragility&antifragility measure
se lo dici forte avrai un successo strepitoso
supercalifragilistichespiralidoso







Compromising is condoning. The only modern dictum I follow is one by George
Santayana: A man is morally free when … he judges the world, and judges other men,
with uncompromising sincerity. This is not just an aim but an obligation.



Mi è piaciuto il libro di Nassim Nicholas Taleb "Antifragile", l'ho letto avidamente. Una cosa non ho capito (e continuo a non capire), il concetto di fondo.

Per me, non esistono cose "antifragili". Esistono cose fragili (più o meno fragili, meglio) e cose rotte. Le cose rotte non sono fragili per il semplice motivo che non si possono rompere.  In effetti il parto di questa sconcertante deduzione non è mio, ma di mio figlio che ha due anni e mezzo.

Un orologio rotto non smette di essere bello o complicato. Segna l'ora esatta ben due volte al giorno. Sopravviverà sicuramente ad un orologio funzionante per il semplice motivo che..non funziona.

Forse è per questo che Taleb indica l'Italia come antifragile.


Nassim Taleb: ecco i quattro motivi per cui l'Italia resiste ai «cigni neri»



 Provo ad approfondire la questione, probabilmente ridurrò il tutto ad una fragile, personale recensione del libro di Taleb ma  potrebbe comunque essere interessante.

"Fragility can be measured; risk is not measurable"

"anything that has more upside than downside from random events (or certain shocks) is
antifragile; the reverse is fragile."




La fragilità può essere misurata,il rischio no. Qualsiasi cosa che mostri una crescita a seguito di eventi casuali (o determinati shocks) è antifragile. Il contrario è fragile.

Partiamo da questi due concetti fondamentali e centriamoli al campo che ci vede interessati, la finanza:

la fragilità può essere certamente misurata, lo stasso Taleb riprendendo percorsi già tracciati in passato ci fornisce gli strumenti per farlo. Il rischio Taleb dice di no.
In effetti sarebbe meglio dire, a mio avviso, che non è possibile misurare "tutti i rischi" e , ancora più importante, è impossibile stabilire a priori l'impatto di ciò che non riusciamo a misurare. Torniamo a mio figlio di due anni e mezzo: il rischio che rompa una cosa che ha già rotto è assolutamente misurabile e pari a zero (probabilità), come è pari a zero il rischio di fallimento di una banca (o di un paese) già fallita. "Rotto" è sicuramente antifragile ed eventi casuali e\o imprevedibili mal che vada non avranno alcun impatto su di esso (ben che vada li riaggiustano, tipo calcio sul distributore di bevande bloccato, manata sul televisore che fa le righe, martellata sul carburatore della vecchia moto che non vuol saperne di partire, scossa tellurica che ricompone fortunosamente il piatto rotto solo pochi istanti prima e sparso casualmente(ordine) sul pavimento). Spingendoci più in là, potremmo dire che questa fragilità è compagna dell'evoluzione culturale; le blatte sono antifragili perchè hanno superato (fino ad oggi) tutti gli eventi che hanno interessato il pianeta dalla loro comparsa. L'uomo, che è arrivato dopo, parrebbe essere più fragile, resiste meno ad eventi estremi mostrando la deprecabile attitudine alla morte per cause non naturali. E con esso tutto ciò su cui mette mano. Taleb sottolinea questo concetto con "This is the tragedy of modernity" , "neomania".

I più antichi resti fossili di blattoidei risalgono al Carbonifero, tra 354 e 295 milioni di anni fa. La storia dell'uomo è l'insieme delle vicende umane all'interno della Storia della Terra. Essendo l'uomo il frutto di un processo evolutivo, l'inizio della storia dell'uomo può essere fatto risalire a diversi stadi di questo sviluppo: la si può intendere dalla comparsa del primo manufatto tecnologico australopithecino, a partire dalla comparsa del genere Homo, oppure a partire dalla comparsa di Homo sapiens, il cosiddetto "uomo moderno", circa 200 000 anni fa.
Con tale definizione si può preferire indicare la storia dell'uomo moderno, dotato di caratteri anatomici identici all'uomo odierno e di una cultura artistica e spirituale, ma nella periodizzazione tradizionale il primo dei periodi della storia umana è generalmente indicato nella Preistoria, 2,5 -2,6 milioni di anni fa, e quindi include diverse specie ominidi.


La fragilità può essere misurata,il rischio no. Qualsiasi cosa che mostri una crescita a seguito di eventi casuali (o determinati shocks) è antifragile. Il contrario è fragile.(2)


Taleb ci indica come approcciare la misura di fragilità-antifagilità:


Ok. Vediamo se ho capito: questa è antifragile

Antifragile? No, a fraud. A fragile fraud shape



No. Il contrario. E' (era, meglio forse) un fitting gaussiano della distribuzione dei rendimenti del feeder fund  di Bernard Madoff (Fairfield Sentry) . E' divenuto antifragile quando si è rotto.

Ha ragione mio figlio , credo che Taleb si sbagli..non esiste antifragile; esiste più o meno fragile e\o più o meno rotto.
Non è sufficiente una asimmetria per decretare antifragilità
S&P500 more fragile??

poichè la stessa asimmetria mostra l'esatto contrario se indaghiamo in profondità



Cosa vuol dire "ExtraTail Mass Probability" e perchè è una misura importante?



Sarò noioso;  generiamo la variabile X che mostra media =0 ,varianza=1 e presenta una funzione di densità di probabilità come segue:

In teoria della probabilità la distribuzione normale, o di Gauss (o gaussiana) dal nome del matematico tedesco Carl Friederich Gauss, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio. Il grafico della funzione di densità di probabilità associata è simmetrico e ha una forma a campana, nota come Campana di Gauss (o anche come curva degli errori, curva a campana, ogiva).
La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolo nel teorema del limite centrale. Più specificamente, assumendo certe condizioni, la somma di n variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di n all'infinito. Grazie a questo teorema, la distribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienze naturali e sociali[1] come un semplice modello per fenomeni complessi.



100000 osservazioni e le statistiche descrittive parrebbero certificare un buon funzionamento del generatore:


                             Variabile X
-------------------------------------------------------------
      Percentiles      Smallest
 1%    -2.315799      -4.633008
 5%     -1.64817       -4.41705
10%    -1.290938      -4.162048       Obs              100000
25%    -.6775689       -4.14397       Sum of Wgt.      100000

50%    -.0003309                       Mean          -.0041572
                        Largest             Std. Dev.       1.00022
75%     .6666807       3.894426
90%     1.279209       3.945858       Variance        1.00044
95%     1.640493       4.293149       Skewness       .0070993
99%     2.344445       4.490108       Kurtosis       2.996888

le peculiarità della Variabile X sono molteplici ma possiamo ridurle ad una sola fondamentale:  la prevedibilità statisitica.

La Variabile X è magica.



                                                                         Musica da lettura


Della Variabile X sappiamo che non si discosterà più di tanto dalla media, quando lo farà sarà semplce prevedere un movimento contrario al precedente (se si è allontanata verso il basso, andrà in alto e viceversa). Dalla Variabile X non dobbiamo aspettarci sorprese; scommettendo su di essa sappiamo esattamente quello che potremmo perdere perchè la Variabile X è si variabile ma non poi così tanto ed è assolutamente cortese nel fornirci le percentuali esatta dei suoi scostamenti.




Come un figlio che telefona ad intervalli regolari quando si allontana da casa fornendoci le coordinate esatte per rintracciarlo ovunque esso sia. Con la Variabile X Wile E. Coyote non corre il rischio di cadere in dirupi senza fondo e cattura sempre, sempre, Bip Bip.



La Variabile X è magica e consente a chiunque di sentirsi un po' Harry Potter costruendo la bacchetta magica che più aggrada. Il mio simpatico Ingegnere usa le probabilità condizionate e prevede , con una accuratezza vicina al 100%, i fondi azionari (o i mercati azionari) che saliranno nei tre anni seguenti il momento "t" che decreta le massime probabilità di crescita.

La Variabile X è magica ma necessita di tempo per sviluppare questi interessanti poteri. Io ho usato 100000 osservazioni, circa 400 anni di borsa aperta eppure..eppure..pur considerando un periodo così ampio e che difficilmente ci vedrà protagonisti,  la Variabile X cela qualche sorpresa..





Quelle code, che appaiono in perfetta forma nella figura appena sopra Wile E.Coyote, durante questi 400 anni, simulati generando una variabile normalmente distribuita, tendono a metter su massa per poi perderla. Usando una media mobile a 252 osservazioni (un anno di borsa circa) scopriamo che questa massa di probabilità "extra" che grava sulle code, corrompendone l'invidiabile linea, arriva ad oltre il 30% di quello che dovremmo aspettarci.

Mi spiego; se stimo un Valore a Rischio sulla Variabile X per identificare , col 99% di attendibilità statistica, la massima perdita nella quale potrei incorrere, la mia incertezza non sarà l'1% ma sarà un 30% più grande . Quindi quel 99% non sarà così rotondo ma sarà 98.7%, "a volte". A volte sarà più del 99%.
In media, dopo 400 anni, osserveremo un 99% pieno (quasi...sarebbe meglio avere qualche migliaio di anni in più..).

Sarà colpa del generatore del mio programma statistico? Non credo. Una moneta equa tende ad un eguale numero di teste e di croci dopo molti lanci ma le stringhe contenenti ripetizioni di faccia rendono le scommesse a lungo termine incerte (scommetto che su 1000 lanci usciranno 500 teste e 500 croci..e perdo).



"In finanza non c'è nulla di antifragile. Qualcosa funziona di più (ed ha più probabilità di rompersi) e qualcosa funziona di meno (ed essendo mezzo rotto, poco funzionante, avrà meno probabilità di rompersi" 


Nel caso del Fairfield Sentry (Madoff feeder fund), le probabilità "extra" usando una finestra rolling a 6 mesi (ho solo osservazioni mensili del fondo) sono arrivate al 770% ovvero, l'incertezza di un VaR al 99% era, a volte, del 7.7% e non dell 1%. A volte...sempre.  "A volte = sempre"


"In finanza non c'è nulla di antifragile. Qualcosa funziona di più (ed ha più probabilità di rompersi) e qualcosa funziona di meno (ed essendo mezzo rotto, poco funzionante, avrà meno probabilità di rompersi..Taleb è libanese, non conosce l'Italia. Un'Italia da sempre mezza rotta, poco funzionante. Non antifragile...1/2 rotta...volatile perchè poco efficiente e quindi poco attraente nei confronti di quella liquidità che si muove verso le cose funzionano. Resiste alle crisi perchè da esse non è mai uscita completamente e semmai lo facesse, se iniziasse a funzionare, diverrebbe ovviamente più fragile visto lo spostamento delle probabilità di rottura che l'efficienza comporta"






Come pesare(con le probabilità di vederla infranta) la promessa di un database finanziario? La misura precedentemente utilizzata si prefigge proprio questo scopo;

ETMP=massa di probabilità "extra" sulle code.

scopriamo l'acqua calda ma almeno la usiamo per farci due spaghetti che abbiano una giusta cottura; utilizzerò i dati del Fairfield Sentry per dare, in seguito, un senso concreto(finanziariamente) al concetto di promessa e di disatteso.


Una promessa è "fragile" se non riesco a determinare, causa incertezza, il rischio di vederla attesa\disattesa; genericamente quindi, in finanza osserviamo fragilità se la distribuzione dei dati si allontana da quella normale che ci consente di stimare entro un intervallo di fiducia le probabilità generiche.

Abbiamo un metro campione che si chiama "pseudo deviazione standard"; esso non è altro che lo scarto interquantile diviso 1.349 (1.349=2*0.674 è l’intervallo contenente il 50% di casi in una distribuzione normale)

IQR(interquartile range = differenza tra il 75mo ed il 25mo percentile (o tra il terzo quartile, Q3, ed primo quartile, Q1),contiene pertanto il 50% dei casi) / 1.349

Nel caso di distribuzioni simmetriche, il confronto tra standard deviation e pseudo-standard deviation offre indicazioni sulla massa di probabilità presente nelle code:
  • se standard deviation=pseudo standard deviation la distribuzione ha code normali;
  • se standard deviation>pseudo standard deviation la distribuzione ha code grosse (kurtosis > 3);
  • se standard deviation<pseudo standard deviation la distribuzione ha code sottili (kurtosis < 3).

La nostra formula, su finestra mobile e\o sulla totalità dei casi sarà quindi:

ETMP= Deviazione Standard  dati osservati / PseudoDeviazioneStandard * 100


 La percentuale risultante questa frazione ci indica quanta "roba" in più è presente sulle code (che diventano "grasse" proprio quando la massa di probabilità supera il peso "normale")




Osserviamo le varie misure di ETMP (rolling 6mesi, rolling 12mesi e totale) sul Madoff feeder fund:



Madoff non era uno sciocco..o forse sì. Se avete letto con attenzione tutto il noiosissimo scritto precedente, ed osservando le misure, partendo dalla massa totale osserviamo che fitta, alla perfezione, una normale. Chirurgicamente oserei dire.

Rileviamo un valore di  "ExtraTailMassProb_Fairfield_tot" =97.36138 su100(che è il valore della nostra gaussiana teorica). Questo con sole 216 osservazioni.

Io ne ho usate 100000 prima e non mi veniva così perfetto. Dovrei calcolare le probabilità che accada una cosa simile ma credo siano simili a quelle di uno sbarco alieno nel Parlamento Italiano (un altro intendo...)

Osservando la distribuzione delle misure rolling (qui avevo tolto "100" per evidenziare il peso aggiuntivo, cosa che potete fare in fase di computazione, basta tenerne conto) osserviamo invece scarti elevatissimi dalla normalità.

La nostra incertezza.



Il concetto penso sia stato chiarito.

Se ripetete la misura su, ad esempio, l'indice MSCI WORLD,  scoprirete con orrore quanto le nostre previsioni (o quanto la promessa fatta dai rendimenti passati dell'indice) sia incerta. Previsioni che, a dispetto di una apparente sofisticazione (probabilità condizionate ad esempio, statistica bayesiana nella sua interezza reti neurali comprese) sono assolutamente risibili se le identifichiamo come "promessa" da mantenere in un lasso di tempo ragionevole (durata media vita umana).  Bisognerebbe scrivere a caratteri cubitali, al posto di "Non vi è garanzia di ottenere eguali rendimenti in futuro", frase che campeggia nelle brochures dei gestori di tutto il mondo ma:

"NON E POSSIBILE OTTENERE EGUALI RENDIMENTI IN FUTURO" lasciando la porta aperta a sorprese sia gradevoli che sgradevoli.


La misura ETMP, che spero venga diffusa quanto più possibile, si presta ad essere un valido sostituto della varianza nelle misure di performance pesata con il rischio(generico);

Vediamo un rapido esempio usando la promessa di Madoff.

Il nostro amico Bernard prometteva rendimenti annui tra il 10 e il 12%. Usiamo la sua promessa come benchmark e ipotizziamo che esista(in passato è accaduto o quasi) uno strumento che ci dia questo 10% senza rischio; Dividiamo questo 10 per 12 mesi e cumuliamo ottendo una retta inclinata.

Vediamo le due "Equitylines" a confronto:



 Madoff domina il 10% annuo privo di rischio.

Pesiamo il rischio:

RAS: RISK ADJUSTED SLOPE = (Arcotangente (A/B) / 45-1)*100 / C        nb: output "Atan" in gradi, non in radianti. Per la conversione(se necessaria, dipende dal software) : LEGGIMI

dove "A" è l'equityline del Farfield, "B" è l'equityline del nostro 10% annuo ipotetico, "C" sarà, nelle due misure proposte, la deviazione standard rolling 12mesi annualizzata(VolRAS) la misura ETMP rolling 12mesi annualizzata (TailRAS)

ecco cosa accade quando si pesa il rischio(generico)


Un degrado costante della performance pesata con il rischio, tipico di uno schema Ponzi(truffa piramidale)

Ma del RAS e delle sue peculiarità come misura per giudicare i gestori parleremo nel prossimo post, qui l'argomento è la fragilità.

Forse la miglior definizione è questa, di un illuminato anonimo:




mercoledì 28 maggio 2014

Oh my Go(l)d!!!

Goodbye Mr. Sandman
L'oro, stante un Vix così basso e uno Standard&Poors che mette a segno records assoluti a ripetizione è innaturalmente alto. La ragione potrebbe essere individuata nelle difficoltà dell'Eurozona ed un eventuale disgregamento (con conseguente ritorno alle valute domestiche) ma, scongiurato questo pericolo (che diviene giorno dopo giorno meno probabile in tempi brevi), avremo di fronte un asset rischioso e forse sopravvalutato. Improvvisamente. 
E niente di più.

lunedì 26 maggio 2014

Toc toc toc on zerohead: normalized tango

zerohedge tick tick tick


Nessuno può prevedere nulla. Solo constatare che, al momento, il mercato non percepisce grossi pericoli.E difficilmente un grafico, seppur postato sull'autorevole zerohedge potrà spostare questa percezione. Possono farlo i soldi. Solo i soldi.

domenica 25 maggio 2014

QuantVix(2): the leverage (correlation effect) puzzle exploiting algorithmics solutions

Musica da lettura


Per capire bene in che ginepraio andiamo ad infilarci consiglio di spendere qualche ora e leggere, con attenzione, i lavori che allego;

il primo, ad opera del Prof. Marmi, fresco o quasi di stampa:Predizione incertezza e rischio: la matematica tra Las Vegas e Wall Street

il secondo, una pietra miliare del money management:Response to Paul A Samuelson letters and papers on the Kelly Capital Growth Investment Strategy  e vi consiglio letture di riferimento dello stesso autorevole autore, William T Ziemba (ad es.Good&Bad Properties of Kelly Crterion)

Di formule per determinare la scommessa ottimale, ne nasce una al giorno (ne partorirò perfino una io più avanti) ma presentano, tutte, lo stesso punto debole: disegnano una funzione di utlità che non è aderente alla funzione di utilità che un investitore matura nel tempo. Non approfondisco volutamente Vince e non spiego volutamente il perchè; sono sostanzialmente d'accordo con l'autore di questo articolo critico (che tratta l'optimal f ma potrebbe trattare alla medesima maniera i rimanenti algoritmi di ottimizzazione della scommessa passando per l'esclusione del ruin risk); quindi, ve lo leggete :) The Optimal F Fallacy

La mia, personalissima opinione è che Kelly e formule derivate sono , se non siete Thorp (ma la lista degli estimatori autorevoli è lunga) e non siete fortunati come lui, pericolosi. Semplicemente, non avrete mai il tempo per trarne un qualsiasi beneficio. Ma è una mia personalissima opinione, ribadisco.
Mia personalissima convinzione è che oggi, nel 2014, ogni investitore debba disegnare la propria funzione di utilità in base a criteri che esulino dallo stretto integralismo matematico ed abbraccino un pragmatismo di fondo prima che formalismi estetici. Oggi, il problema non è scommettere la quantità ottimale in base ai risultati ma accettare l'amara realtà di non poter ragionevolmente esser certi ne della qualità dei risultati ottenuti ne della qualità del sottostante che ci ha permesso di ottenerli ne del tempo che ci rimane a disposizione per testare la bontà di una qualsiasi strategia. Non è più così facile volare sulla Luna.

Per far capire a chi legge quello che ho capito io (e far fare due risate a chi ha capito di più) la faccenda si può ridurre in questi termini:

se leggiamo l'ultima risposta del misterioso Alemis 9 a Ralph Vince (risposta del 23 maggio u.s ) egli spara con nonchalance una terribile bordata: 


might add that Kellys equation and your own do not really apply to the market in practice (and so should not be used) due to the mathematical phenomenon of infinite variance.
.

Cosa vuole dire? Provo a spiegarlo con parole semplici: per applicare le formule di Kelly e Vince noi dobbiamo necessariamente assumere un momento secondo, la varianza, finita. Se fosse infinita, non potremmo utilizzarne il valore per l'ottimizzazione della scommessa. Se fosse nulla, zero, la nostra variabile non sarebbe, appunto, variabile; sarebbe una costante. E su una costante non ho bisogno di ottimizzare alcunchè.

Problema con la varianza finita, dobbiamo assumere di poter modellare la nostra variabile come  random i.i.d (indipendente e distribuita in modo identico) che segue una distribuzione gaussiana e ci piacerebbe tanto fosse stazionaria.

Problema con i.i.d  e con gaussiana: i nostri logrendimenti presentano la balzana peculiarità di variare il segno del fattore di autocorrelazione a seconda della frequenza. Ma non solo: se togliamo il segno, i logrendimenti assoluti col cavolo che sono indipendenti, sono autocorrelati a decadimento lento e lo stesso vale per il quadrato degli stessi anche se con valori leggermente inferiori; se andiamo a vedere che forma assume la distribuzione, notiamo una fastidiosa punta che sfora la curva di una gaussiana teorica.

Cose così, prendendo lo SPY come campione:




che poi è quello che ipotizzò Mandelbrot col volatility clustering suggerendo la famiglia di distribuzioni stabili a varianza infinita per modellare le serie finanziarie, non la gaussiana che è un caso particolare delle stesse (ma con varianza finita..comoda però..).

Quella punta, tanto per non farci mancare nulla, si accentua in maniera proporzionale alla frequenza delle osservazioni , cosicchè troviamo (o potremmo trovare, meglio) varianza infinita ad alta frequenza con acf di segno "-s", varianza finita a frequenze inferiori con acf di segno "+s", difformità di forma e acf  tra indici e costituents, mutazioni e\o inverisioni a U(shaped) in corsa e chi più ne ha ne metta.

Insomma, per quel poco che ho capito..la varianza infinita (e la debole stazionarietà) è il problema, quindi finiamo la varianza con buona pace di Kelly, Vince, Thorp & Co..che hanno tutta la mia stima ma io devo investire i miei risparmi e non lanciare un HedgeFund.



Quello che interessa a me, investitore basico con scarse conoscenze di econometria, statistica, matematica etc..etc..etc..è partorire una strategia che:

  • a) abbia una pendenza possibilmente positiva (abbia un rendimento NETTO migliore dei sottostanti che andrò ad utilizzare)
  • b) abbia una varianza possibilmente sostenibile
  • c) abbia una correlazione con i sottostanti che intendo utilizzare possibilmente nulla.

c) merita un approfondimento perchè ritengo sia il fulcro di tutto il puzzle che tenterò comporre.

Riprendiamo come esempio il sistema QuantVix : avere una correlazione nulla con i sottostanti di per se significa poco. Il web è pieno di formule che sublimano il vecchio e robusto(si fa per dire..) concetto di diversificazione (algoritmi stile MCA).

Problema: la correlazione è time varying, è tempo variante; componi un portafoglio di sottostanti con la miglior matrice possibile e, improvvisamente, salta tutto. La diversificazione va a farsi benedire, tutti i costituenti si muovono congiuntamente con la medesima direzione(solitamente il basso...), le probabilità che avevi stimato per escludere la nefasta occorrenza vanno a farsi benedire, le massima perdita che in back test avevi ipotizzato (pensando che mai si sarebbe verificata ma era bene cmq. sapere cosa aspettarsi nello scenario peggiore) una carezza rispetto alla sberla che ti molla la realtà del mercato.

Nel caso di una strategia di trading è ancora più complicato;

Prendiamo il caso del sistema precedentemente proposto: il QuantVix va lungo sullo SPY e lungo sul TLT a seconda della stima fornita dall'asimmetria rolling a un mese del delta openvix\closevix[t-1], il nostro proxy del flusso di notizie overnight. La strategia è efficace se discrimina correttamente le fasi di mercato switchando con meno ritardo possibile da un sottostante all'altro.

Se questi si correlano e perdono entrambi o la discriminazione non è efficace, la strategia incorre in perdite o drawdowns. Se salgono entrambi, una discriminazione inefficiente esprime mancata scelta del miglior candidato,  una sottoperformance rispetto ad un benchmark ambizoso, rendimenti non in linea con le aspettative ma, di problemi seri, non ve ne sono. Per deduzione logica quindi la strategia ottima è quella che che si allontana comunque dalle perdite dei due sottostanti ma sapendo scegliere, contemporaneamente, quello che guadagna di più(quando guadagna).

Ovvero:

  • a) abbia una pendenza possibilmente positiva (abbia un rendimento NETTO migliore dei sottostanti che andrò ad utilizzare)
  • b) abbia una varianza possibilmente sostenibile
  • c) abbia una correlazione con i sottostanti che intendo utilizzare possibilmente nulla.

abbiamo disegnato la nostra rudimentale funzione di utilità strettamente aderente alla definizione economica di soddisfazione personale.

Problema per l'investitore medio: i tre punti sopra, se non si possiede la sfera di cristallo, difficlmente possono essere risolti se non si utilizza la leva; vuoi per i costi di transazione e slippage e tasse che inficiano arbitraggi teorici, vuoi per l'impossibilità di essere completamente effcienti nella discriminazione, vuoi per l'efficienza, di contro, che il mercato ciclicamente si ricorda di possedere spazzando via con eventi imprevedibili coloro che hanno avuto l'ardire di sfidarlo. Questa ultima parte eseguita in maniera assolutamente democratica, senza applicare alcun tipo di scontistica. Le conseguenze di queste epurazioni, semmai, sono sovente meno democratiche. Ma è un altro discorso.

Scriviamo l'algoritmo che soddisfa i tre punti sopra e che ci guiderà a destinazione verso la ricchezza come Kelly ha guidato Thorp.

A proposito..qui  trovate le performances dei mitici quants  di Wall Street. I rendimenti sovente sono come i pesci per i pescatori, si tende sempre ad ingigantirli un po'. In buona fede, ovvio.

Algoritmo: sono un tipo pratico e scrivo quello che tecnicamente possiamo chiamare "algoritmo di targeting".

Tre input disegnano la mia funzione:

  •       EMLev     LevEDF      THVol
  •          1.5              2              16




Massimo Leverage che mi posso permettere: qui dobbiamo parlarci chiaro, andare il leva vuol dire usare direttamente soldi altrui ma, indirettamente soldi nostri. Bisogna guardarsi in tasca ed essere obbiettivi. Vantaggio nel 2014: possiamo usare strumenti strutturati per muoversi in leva vedi SPLX e comprarne meno.senza troppe complicazioni. Strumento nuovo, da monitorare e verificare sul campo. Prodotto UBS (vedi rifermento precedente al Dott.  Qunfang Bao Equity Quant at UBS
metto 1.5 (ovvero userò il 75% dei soldi necessari all'acquisto dello SPY(leva 1) , esempio, per acquistare SPLX(leva 2 e stesso sottostante, lo S&P500)


Fattore di decadimento leverage: è un esponente che va da 1(nullo) a (teoricamente) infinito. E' la velocità che scelgo per disinvestire.

Target Volatilità Storica: quello che voglio vedere (in media) quando tiro giù il report della strategia. E' la mia "Health (non Wealth) Choice", la mia scelta di salute. E' il limite della volatilità oltre il quale riduco la percentuale di soldi a mercato.

i tre input restituiscono una matrice di correlazione delle VOLATILITA' espresse dalle due strategie passive (il Buy&Hold sui due sottostanti, gli ETF SPY e TLT) e la strategia attiva (il trading system QuantVix) di questo genere:


                       HVol_QVTLT    HVol_BHSPY       HVol_BHTLT
             -------------+---------------------------------------------------
 HVol_QVTLT  |   1.0000

 HVol_BHSPY  |   0.0618            1.0000

 HVol_BHTLT   |  -0.0690            0.6278                 1.0000


se notate le volatilità (badate bene...) delle due strategie passive sono correlate positivamente e con un valore non proprio basso. La volatilità del QuantVix, dopo il crunching dell'algoritmo di targeting è neutra verso quella dei sottostanti.

Lo zero (neutro) è il ns. "valore ottimo", quello da ottenere se volessi formalizzare l'algoritmo come formula matematica. Il target è la neutralità (assenza di correlazione tra le diverse volatilità) tra la strategia attiva e le strategie passive dei sottostanti utilizzati.

E' un punto importante, il resto sono veramente operazioni banali, vale la pena rifletterci e cogliere, se c'è, l'innovazione matematica rispetto a Kelly e Vince.


Rispettando le regole di ingaggio del QuantVix, l'algoritmo procede come segue:

stima la volatilità sul sottostante (la strategia) più rischioso (lo SPY o il MDY negli esempi precedenti) ma sul logrendimento percentuale open/close[t-1]; la volatilità delle aperture (possiamo chiamarla così) è, mediamente , 1/2 della volatilità close to close. Il valore ottenuto dalla stima viene moltiplicato per due.

Il nostro leverage sarà uguale al TargetHVol impostato diviso il valore ottenuto dalla stima cui sopra.

Verrà condizionato al valore di EMLev se dovesse superarlo (nell'esempio sopra il rapporto è vincolato ad 1.5 ovvero anche se la volatilità stimata fosse 1/3 della volatilità "target" non avremmo una leva maggiore 1.5)

Verrà spinto ad "accelerare" nel caso dovesse scendere sotto il 50% del valore inizialmente impostato ovvero: quando l'algoritmo impone di comprare (nell'esempio in esame) il 75% dell'ETF in leva1 ovvero, quando la volatilità stimata supera del 25% il valore target impostato. Viene spinto ad accelerare imponendolo uguale al valore di leverage stimato elevato al valore impostato LevEDF.  Leverage^LevEDF al verificarsi della condizione Leverage<=EMLev*0.5. E' ovvio che l'algoritmo non prevede l'utilizzo di leve >2.

Essendo l'algoritmo di stima della volatilità(leverage) limitato temporalmente all'ultimo valore di apertura del sottostante più rischioso ed essendo gli ingressi della strategia posticipati rispetto a questo valore (il close), non vi è looking forward.

Il sottostante meno rischioso viene trattato in eguale maniera; anche esso sarà vincolato alla quantità imposta dalla stima del leverage ma, per motivi facilmente comprensibili, non andrà mai in leva >1(potrà scendere sotto tale valore).

Vediamo come cambiano i risultati, qui qualche numero bisogna partorirlo.

Applichiamo la strategia allo SPY, ci verrà utile se decideremo in seguito (dopo attentissimo monitoraggio) di utilizzare lo struttrato in leva2 con reset mensile SPLX.

Prima statistiche e grafico nudi e crudi, poi indagheremo in profondità (la seconda riga di statistiche descrittive si riferisce al periodo 02jan2014 - yesterday)

NB:QVTLTY_b= strategia QuantVix senza algoritmo di targeting






                                                           


            Osserviamo le volatilità storiche di:

  • Strategia Attiva=QuantVix in leva 1.5
  • Strategia Passiva a) = Buy&Hold Etf SPY
  • Strategia Passiva b) = Buy&Hold Eff TLT
stime garch(1,1) vce(robust)
Osserviamo in profondità con e senza algritmo di targeting
Ancora più in profondità, comparando la strategia IN LEVA con algoritmo di targeting e le due strategie passive





Ultima occhiata alle distribuzioni
In questi tre grafici vediamo i quantili delle variabili esaminate confrontati ai quantili di una distribuzione normale. Più le curve si allineano sulla retta(la diagonale) che identifica la "normalità" più la distribuzione delle variabili sarà fittata dalla classica campana gaussiana. Con i vantaggi che ne possono conseguire ovviamente, uno su tutti, la stima del Valore a Rischio della strategia per eventuali stop loss.
 Normality


L'algoritmo proposto ha il precipuo scopo di rendere "meno fragile" la strategia. Questo, pur con l'apparente contraddizione che comporta l'utilizzo della leva. NON POSSIAMO escludere Balck Swans, ma, se avete letto il paper che rimanda al "SILENT RISK" possiamo ricavare una misura probabilistica della "fragilità" . Di "antifragile", quando si parla di mercati mobiliari..non mi azzarderei ad ipotizzare nulla. Ma sarà l'argomento del prossimo post..



venerdì 23 maggio 2014

Riding (trough the news flow) on a Vix opening price: the QuantVix system

Un paper letto recentemente ha colpito la mia attenzione Why Do Investors Disagree? The Role of a Dispersed News FLow
Il prologo mi ha spinto a tentare di modellare le informazioni fornite da quello che giudico il proxy eletto del flusso di notizie, il Vix .

Non volendo replicare l'eccellente lavoro svolto dagli autori del paper sopracitato ho deciso di utilizzare la forma della distribuzione di frequenza espressa dal valore di apertura del Vix.

"La posizione e la variabilità di una distribuzione di frequenza non esauriscono le informazioni contenute nei dati. Due distribuzioni possono avere stessa media e varianza ma essere profondamente diverse a causa del peso che hanno i valori  più grandi (o più piccoli) rispetto al centro  

Intendiamo per forma di una distribuzione il modo secondo il quale i valori di un carattere quantitativo si dispongono intorno al proprio centro"  



Utilizzo la media a 20 osservazioni giornaliere(un mese circa) dell'indice di asimmetria calcolato sul delta "prezzo di apertura del Vix - prezzo di chiusura del Vix riferito alla sessione precedente; nel grafico sopra vediamo l'evoluzione nel tempo comparato al prezzo di apertura del Vix. Per mia comodità ho deannualizzato il valore espresso dal Vix. Ho scelto uno smoothing semplice a 20 osservazioni per non andare oltre il valore previsivo teorico espresso dall'implicita dello S&P500 (Often referred to as the fear index or the fear gauge, Vix Index represents one measure of the market's expectation of stock market volatility over the next 30 day period.) Questi 30 giorni di calendario sono equivalenti (circa) ai 20 giorni di mercato utilizzati nella skew rolling.

Perchè utilizzare il valore di apertura del Vix?  Diamo un'occhiata alle distribuzioni dei logrendimenti open su close precedente e close su close precedente:

A sinistra abbiamo la distribuzione di quello che possiamo identificare come il flusso di notizie che concorre a formare il prezzo di apertura del Vix. Flusso di notizie che incide temporalmente dalla chiusura dei mercati americani all'istante di apertura,nel giorno seguente, degli stessi. La coda della distribuzione è fortemente sbilanciata a sinistra. Provo a dare un'interpretazione: post chiusura iniziano ad affluire dati societari, politici ed economici che è impossibile, sovente, rilasciare a mercati aperti. Statisticamente la maggiorparte di questi dati parrebbe avere un effetto positivo, la forma della distribuzione indica una minore probabilità di avere aperture del Vix con valori più alti della chiusura precedente che viceversa.
Guardando la distribuzione di destra, che descrive proprio i rendimenti close to close[t-1] abbiamo una parziale conferma. Le probabilità prima evidenziate, coda sinistra allungata, aperture del Vix con segno "meno" (volatilità implicita che parte più bassa della chiusura precedente, meno apprensione negli operatori di mercato, notizie positive durante l'orario di chiusura dei mercati) più frequenti rispetto al valore centrale, vengono sovvertite. La coda si allunga a destra. Questa asimmetria la troviamo ancor più evidente negli strumentii derivati relativi, le opzioni sul Vix ed il loro sottostante, i futures sul Vix. Strumenti che hanno avuto dal 2006 una vera e propra esplosione volumetrica rendendo il Vix da strumento "untradable" ad strumento assolutamente, teoricamente, liquido e tradabile. Sarà per questo che il range di oscillazione dello stesso parrebbe mostrare una marcata tendenza a contrarsi rispetto al periodo antecedente la nascita dei futures e delle opzioni? Sto divagando, in effetti queste sono mie personali opinioni.

Proviamo quanto sopra: se gli istogrammi delle due distribuzioni non mentono, lo S&P500 sale( esprime rendimenti positivi) più di notte a borsa chiusa che durante l'orario diurno di contrattazione.



Ok, tutto torna (non ho usato chiusure aggiustate per i dividendi). Parrebbe che effettivamente la notte porti consiglio.
Come sfruttare l'informazione del valore di apertura del Vix per catturare in market timing quanto più rendmento possibile?

O meglio, come indagare sull'effettiva influenza del valore informativo del flusso di notizie overnight, che assumiamo essere rappresentato dal valore di apertura del Vix, sui rendimenti dello S&P500 (SPY il ns. "tradable proxy")?

 La correlazione tra SPY e Vix è fortemente negativa, due vettori che tendono a muoversi in maniera contrapposta. Non sempre ma in media osserviamo un valore negativo "robusto". I logrendimenti del Vix, oltre le caratteristiche sopra evidenziate presentano un comportamento mean reverting. Ho trovato estremamente interessante un lavoro relativamente recente pubblicato dal Dott.Qunfang Bao(Il Dott. Qunfang Bao è Equity Quant at UBS ) che descrive la dinamica dei futures sul Vix tramite modelli MRLM. Mean Reverting Logarithmic Model of Vix e che trovo, per quel che posso capire, strettamente collegato al processo di co-jumps di  prezzo e volatilità che i Professori Roberto Renò e Federico.M.Bandi hanno illustrato in questo brillante lavoro recentemente rivisto Price and Volatility Co-Jumps.

Decido quindi, dopo questo preambolo che mostra tutta la mia approssimazione di semplice appassionato (spero che il Prof.Renò, sovente vittima del mio stalking intellettuale abbia pietà di me..) di scrivere questo semplice modello operativo per tentare di catturare le dinamiche sopra evidenziate:

se l'indice di asimmetria rolling 20 giorni calcolato sul valore di open del Vix è >0, positivo quindi,  compro in chiusura di giornata lo SPY (o il MDY, le midcap). Lo tengo finchè l'indice cui sopra non diviene negativo e farà scattare la vendita in chiusura dello SPY(o del MDY) e l'acquisto di bond  USA a maturità residua >20y TLT  (o cash o prodotti similari)


Ho citato il MDY non a caso e forse furbescamente; è la bestia nera per molti fondi noti. Qui un simpatico articolo preso da Seekingalpha dove l'ETF "really cheap" massacra il povero(si fa per dire...) Warren Buffett.


Proviamo a vendicare il povero (sempre si fa per dire.....) Warren; utilizzo inizialmente proprio il MDY per la "gamba" Long Equity e il TLT per la "gamba" Long Bond, surrogato di una posizione di vendita allo scoperto (naked short) dell'ETF che non è sempre agevole mantenere e gestire; le regole sono in corsivo sopra.

Ottengo:

Wow! Pur con il "nota bene, performances lorde", pur tenendo conto dei costi di transazione, slippage e tassazione, con una media di 0.14 operazioni giornaliere (sono 382 in questi ultimi 10anni, 3 operazioni circa IN MEDIA al mese) la bestia nera di Warren è, in backtest, bello che fritto. In backtest, per il futuro non c'è alcuna certezza di ottenere eguali rendimenti. C'è una speranza, matematica certamente, ma sempre speranza.

La variabilità dei rendimenti migliora sensibilmente, è palese anche ad occhio e ci risparmiamo tutte le misure di performances aggiustate per il rischio che la letteratura ha partorito negli ultimi anni. I draw downs, le perdite, sono decisamente minori e generalmente QUASI sostenibili (bisogna tener conto che il punto di entrata di un ipotetico investitore non parte mai all'inizio di una qualsiasi, meravigliosa equityline ma, genericamente, in un punto casuale lungo la stessa. La Legge di Murphy  decreta che le probabilità di entrare in prossimità di un massimo( e quindi iniziare a perdere immediatamente subito dopo) sono pari a quelle di un toast che, cadendo dal piatto,  atterri sul lato imburrato. Altissime quindi, direi quasi una certezza (pensate a quanti sono entrati in borsa prima dello scoppio della bolla tecnologica o a fine 2007, quando sembrava che non ci fosse limite ai soldi ottenibili in prestito dalle banche)
La strategia presenta, condensando, un comportamento generale buono con una forte criticità durante il collasso subito dal mercato nei sei mesi seguenti il fallimento della Lehman Brothers.

Applicando un algoritmo di CV la situazione migliora.

 Tanto per dare un'idea siamo sotto il 13% di volatilità storica annualizzata (stima effettuata con un modello garch(1,1) contro il 23% del buy&hold sul MDY e con una correlazione nulla tra varianza di strategia attiva e varianza di strategia passiva. Il numero di operazioni, ovviamente, rimane invariato.

Visivamente, vuol dire questo:




I prossimi obiettivi saranno indagare su un possibile impiego della leva abbinata al controllo ex ante della varianza di strategia, un rigoroso computo dei costi di transazione e finalmente, un'analisi di stile confrontando  eventuali strategie benchmark.


NB: la formula utilizzata per il calcolo dell'asimmetria è visibille al seguente indirizzo

To be continued.. :)