domenica 25 maggio 2014

QuantVix(2): the leverage (correlation effect) puzzle exploiting algorithmics solutions

Musica da lettura


Per capire bene in che ginepraio andiamo ad infilarci consiglio di spendere qualche ora e leggere, con attenzione, i lavori che allego;

il primo, ad opera del Prof. Marmi, fresco o quasi di stampa:Predizione incertezza e rischio: la matematica tra Las Vegas e Wall Street

il secondo, una pietra miliare del money management:Response to Paul A Samuelson letters and papers on the Kelly Capital Growth Investment Strategy  e vi consiglio letture di riferimento dello stesso autorevole autore, William T Ziemba (ad es.Good&Bad Properties of Kelly Crterion)

Di formule per determinare la scommessa ottimale, ne nasce una al giorno (ne partorirò perfino una io più avanti) ma presentano, tutte, lo stesso punto debole: disegnano una funzione di utlità che non è aderente alla funzione di utilità che un investitore matura nel tempo. Non approfondisco volutamente Vince e non spiego volutamente il perchè; sono sostanzialmente d'accordo con l'autore di questo articolo critico (che tratta l'optimal f ma potrebbe trattare alla medesima maniera i rimanenti algoritmi di ottimizzazione della scommessa passando per l'esclusione del ruin risk); quindi, ve lo leggete :) The Optimal F Fallacy

La mia, personalissima opinione è che Kelly e formule derivate sono , se non siete Thorp (ma la lista degli estimatori autorevoli è lunga) e non siete fortunati come lui, pericolosi. Semplicemente, non avrete mai il tempo per trarne un qualsiasi beneficio. Ma è una mia personalissima opinione, ribadisco.
Mia personalissima convinzione è che oggi, nel 2014, ogni investitore debba disegnare la propria funzione di utilità in base a criteri che esulino dallo stretto integralismo matematico ed abbraccino un pragmatismo di fondo prima che formalismi estetici. Oggi, il problema non è scommettere la quantità ottimale in base ai risultati ma accettare l'amara realtà di non poter ragionevolmente esser certi ne della qualità dei risultati ottenuti ne della qualità del sottostante che ci ha permesso di ottenerli ne del tempo che ci rimane a disposizione per testare la bontà di una qualsiasi strategia. Non è più così facile volare sulla Luna.

Per far capire a chi legge quello che ho capito io (e far fare due risate a chi ha capito di più) la faccenda si può ridurre in questi termini:

se leggiamo l'ultima risposta del misterioso Alemis 9 a Ralph Vince (risposta del 23 maggio u.s ) egli spara con nonchalance una terribile bordata: 


might add that Kellys equation and your own do not really apply to the market in practice (and so should not be used) due to the mathematical phenomenon of infinite variance.
.

Cosa vuole dire? Provo a spiegarlo con parole semplici: per applicare le formule di Kelly e Vince noi dobbiamo necessariamente assumere un momento secondo, la varianza, finita. Se fosse infinita, non potremmo utilizzarne il valore per l'ottimizzazione della scommessa. Se fosse nulla, zero, la nostra variabile non sarebbe, appunto, variabile; sarebbe una costante. E su una costante non ho bisogno di ottimizzare alcunchè.

Problema con la varianza finita, dobbiamo assumere di poter modellare la nostra variabile come  random i.i.d (indipendente e distribuita in modo identico) che segue una distribuzione gaussiana e ci piacerebbe tanto fosse stazionaria.

Problema con i.i.d  e con gaussiana: i nostri logrendimenti presentano la balzana peculiarità di variare il segno del fattore di autocorrelazione a seconda della frequenza. Ma non solo: se togliamo il segno, i logrendimenti assoluti col cavolo che sono indipendenti, sono autocorrelati a decadimento lento e lo stesso vale per il quadrato degli stessi anche se con valori leggermente inferiori; se andiamo a vedere che forma assume la distribuzione, notiamo una fastidiosa punta che sfora la curva di una gaussiana teorica.

Cose così, prendendo lo SPY come campione:




che poi è quello che ipotizzò Mandelbrot col volatility clustering suggerendo la famiglia di distribuzioni stabili a varianza infinita per modellare le serie finanziarie, non la gaussiana che è un caso particolare delle stesse (ma con varianza finita..comoda però..).

Quella punta, tanto per non farci mancare nulla, si accentua in maniera proporzionale alla frequenza delle osservazioni , cosicchè troviamo (o potremmo trovare, meglio) varianza infinita ad alta frequenza con acf di segno "-s", varianza finita a frequenze inferiori con acf di segno "+s", difformità di forma e acf  tra indici e costituents, mutazioni e\o inverisioni a U(shaped) in corsa e chi più ne ha ne metta.

Insomma, per quel poco che ho capito..la varianza infinita (e la debole stazionarietà) è il problema, quindi finiamo la varianza con buona pace di Kelly, Vince, Thorp & Co..che hanno tutta la mia stima ma io devo investire i miei risparmi e non lanciare un HedgeFund.



Quello che interessa a me, investitore basico con scarse conoscenze di econometria, statistica, matematica etc..etc..etc..è partorire una strategia che:

  • a) abbia una pendenza possibilmente positiva (abbia un rendimento NETTO migliore dei sottostanti che andrò ad utilizzare)
  • b) abbia una varianza possibilmente sostenibile
  • c) abbia una correlazione con i sottostanti che intendo utilizzare possibilmente nulla.

c) merita un approfondimento perchè ritengo sia il fulcro di tutto il puzzle che tenterò comporre.

Riprendiamo come esempio il sistema QuantVix : avere una correlazione nulla con i sottostanti di per se significa poco. Il web è pieno di formule che sublimano il vecchio e robusto(si fa per dire..) concetto di diversificazione (algoritmi stile MCA).

Problema: la correlazione è time varying, è tempo variante; componi un portafoglio di sottostanti con la miglior matrice possibile e, improvvisamente, salta tutto. La diversificazione va a farsi benedire, tutti i costituenti si muovono congiuntamente con la medesima direzione(solitamente il basso...), le probabilità che avevi stimato per escludere la nefasta occorrenza vanno a farsi benedire, le massima perdita che in back test avevi ipotizzato (pensando che mai si sarebbe verificata ma era bene cmq. sapere cosa aspettarsi nello scenario peggiore) una carezza rispetto alla sberla che ti molla la realtà del mercato.

Nel caso di una strategia di trading è ancora più complicato;

Prendiamo il caso del sistema precedentemente proposto: il QuantVix va lungo sullo SPY e lungo sul TLT a seconda della stima fornita dall'asimmetria rolling a un mese del delta openvix\closevix[t-1], il nostro proxy del flusso di notizie overnight. La strategia è efficace se discrimina correttamente le fasi di mercato switchando con meno ritardo possibile da un sottostante all'altro.

Se questi si correlano e perdono entrambi o la discriminazione non è efficace, la strategia incorre in perdite o drawdowns. Se salgono entrambi, una discriminazione inefficiente esprime mancata scelta del miglior candidato,  una sottoperformance rispetto ad un benchmark ambizoso, rendimenti non in linea con le aspettative ma, di problemi seri, non ve ne sono. Per deduzione logica quindi la strategia ottima è quella che che si allontana comunque dalle perdite dei due sottostanti ma sapendo scegliere, contemporaneamente, quello che guadagna di più(quando guadagna).

Ovvero:

  • a) abbia una pendenza possibilmente positiva (abbia un rendimento NETTO migliore dei sottostanti che andrò ad utilizzare)
  • b) abbia una varianza possibilmente sostenibile
  • c) abbia una correlazione con i sottostanti che intendo utilizzare possibilmente nulla.

abbiamo disegnato la nostra rudimentale funzione di utilità strettamente aderente alla definizione economica di soddisfazione personale.

Problema per l'investitore medio: i tre punti sopra, se non si possiede la sfera di cristallo, difficlmente possono essere risolti se non si utilizza la leva; vuoi per i costi di transazione e slippage e tasse che inficiano arbitraggi teorici, vuoi per l'impossibilità di essere completamente effcienti nella discriminazione, vuoi per l'efficienza, di contro, che il mercato ciclicamente si ricorda di possedere spazzando via con eventi imprevedibili coloro che hanno avuto l'ardire di sfidarlo. Questa ultima parte eseguita in maniera assolutamente democratica, senza applicare alcun tipo di scontistica. Le conseguenze di queste epurazioni, semmai, sono sovente meno democratiche. Ma è un altro discorso.

Scriviamo l'algoritmo che soddisfa i tre punti sopra e che ci guiderà a destinazione verso la ricchezza come Kelly ha guidato Thorp.

A proposito..qui  trovate le performances dei mitici quants  di Wall Street. I rendimenti sovente sono come i pesci per i pescatori, si tende sempre ad ingigantirli un po'. In buona fede, ovvio.

Algoritmo: sono un tipo pratico e scrivo quello che tecnicamente possiamo chiamare "algoritmo di targeting".

Tre input disegnano la mia funzione:

  •       EMLev     LevEDF      THVol
  •          1.5              2              16




Massimo Leverage che mi posso permettere: qui dobbiamo parlarci chiaro, andare il leva vuol dire usare direttamente soldi altrui ma, indirettamente soldi nostri. Bisogna guardarsi in tasca ed essere obbiettivi. Vantaggio nel 2014: possiamo usare strumenti strutturati per muoversi in leva vedi SPLX e comprarne meno.senza troppe complicazioni. Strumento nuovo, da monitorare e verificare sul campo. Prodotto UBS (vedi rifermento precedente al Dott.  Qunfang Bao Equity Quant at UBS
metto 1.5 (ovvero userò il 75% dei soldi necessari all'acquisto dello SPY(leva 1) , esempio, per acquistare SPLX(leva 2 e stesso sottostante, lo S&P500)


Fattore di decadimento leverage: è un esponente che va da 1(nullo) a (teoricamente) infinito. E' la velocità che scelgo per disinvestire.

Target Volatilità Storica: quello che voglio vedere (in media) quando tiro giù il report della strategia. E' la mia "Health (non Wealth) Choice", la mia scelta di salute. E' il limite della volatilità oltre il quale riduco la percentuale di soldi a mercato.

i tre input restituiscono una matrice di correlazione delle VOLATILITA' espresse dalle due strategie passive (il Buy&Hold sui due sottostanti, gli ETF SPY e TLT) e la strategia attiva (il trading system QuantVix) di questo genere:


                       HVol_QVTLT    HVol_BHSPY       HVol_BHTLT
             -------------+---------------------------------------------------
 HVol_QVTLT  |   1.0000

 HVol_BHSPY  |   0.0618            1.0000

 HVol_BHTLT   |  -0.0690            0.6278                 1.0000


se notate le volatilità (badate bene...) delle due strategie passive sono correlate positivamente e con un valore non proprio basso. La volatilità del QuantVix, dopo il crunching dell'algoritmo di targeting è neutra verso quella dei sottostanti.

Lo zero (neutro) è il ns. "valore ottimo", quello da ottenere se volessi formalizzare l'algoritmo come formula matematica. Il target è la neutralità (assenza di correlazione tra le diverse volatilità) tra la strategia attiva e le strategie passive dei sottostanti utilizzati.

E' un punto importante, il resto sono veramente operazioni banali, vale la pena rifletterci e cogliere, se c'è, l'innovazione matematica rispetto a Kelly e Vince.


Rispettando le regole di ingaggio del QuantVix, l'algoritmo procede come segue:

stima la volatilità sul sottostante (la strategia) più rischioso (lo SPY o il MDY negli esempi precedenti) ma sul logrendimento percentuale open/close[t-1]; la volatilità delle aperture (possiamo chiamarla così) è, mediamente , 1/2 della volatilità close to close. Il valore ottenuto dalla stima viene moltiplicato per due.

Il nostro leverage sarà uguale al TargetHVol impostato diviso il valore ottenuto dalla stima cui sopra.

Verrà condizionato al valore di EMLev se dovesse superarlo (nell'esempio sopra il rapporto è vincolato ad 1.5 ovvero anche se la volatilità stimata fosse 1/3 della volatilità "target" non avremmo una leva maggiore 1.5)

Verrà spinto ad "accelerare" nel caso dovesse scendere sotto il 50% del valore inizialmente impostato ovvero: quando l'algoritmo impone di comprare (nell'esempio in esame) il 75% dell'ETF in leva1 ovvero, quando la volatilità stimata supera del 25% il valore target impostato. Viene spinto ad accelerare imponendolo uguale al valore di leverage stimato elevato al valore impostato LevEDF.  Leverage^LevEDF al verificarsi della condizione Leverage<=EMLev*0.5. E' ovvio che l'algoritmo non prevede l'utilizzo di leve >2.

Essendo l'algoritmo di stima della volatilità(leverage) limitato temporalmente all'ultimo valore di apertura del sottostante più rischioso ed essendo gli ingressi della strategia posticipati rispetto a questo valore (il close), non vi è looking forward.

Il sottostante meno rischioso viene trattato in eguale maniera; anche esso sarà vincolato alla quantità imposta dalla stima del leverage ma, per motivi facilmente comprensibili, non andrà mai in leva >1(potrà scendere sotto tale valore).

Vediamo come cambiano i risultati, qui qualche numero bisogna partorirlo.

Applichiamo la strategia allo SPY, ci verrà utile se decideremo in seguito (dopo attentissimo monitoraggio) di utilizzare lo struttrato in leva2 con reset mensile SPLX.

Prima statistiche e grafico nudi e crudi, poi indagheremo in profondità (la seconda riga di statistiche descrittive si riferisce al periodo 02jan2014 - yesterday)

NB:QVTLTY_b= strategia QuantVix senza algoritmo di targeting






                                                           


            Osserviamo le volatilità storiche di:

  • Strategia Attiva=QuantVix in leva 1.5
  • Strategia Passiva a) = Buy&Hold Etf SPY
  • Strategia Passiva b) = Buy&Hold Eff TLT
stime garch(1,1) vce(robust)
Osserviamo in profondità con e senza algritmo di targeting
Ancora più in profondità, comparando la strategia IN LEVA con algoritmo di targeting e le due strategie passive





Ultima occhiata alle distribuzioni
In questi tre grafici vediamo i quantili delle variabili esaminate confrontati ai quantili di una distribuzione normale. Più le curve si allineano sulla retta(la diagonale) che identifica la "normalità" più la distribuzione delle variabili sarà fittata dalla classica campana gaussiana. Con i vantaggi che ne possono conseguire ovviamente, uno su tutti, la stima del Valore a Rischio della strategia per eventuali stop loss.
 Normality


L'algoritmo proposto ha il precipuo scopo di rendere "meno fragile" la strategia. Questo, pur con l'apparente contraddizione che comporta l'utilizzo della leva. NON POSSIAMO escludere Balck Swans, ma, se avete letto il paper che rimanda al "SILENT RISK" possiamo ricavare una misura probabilistica della "fragilità" . Di "antifragile", quando si parla di mercati mobiliari..non mi azzarderei ad ipotizzare nulla. Ma sarà l'argomento del prossimo post..



1 commento:

  1. Per avere un pò di effetto leva si potrebbe usare anche un pizzico di questo:
    http://etfs.morningstar.com/quote?t=XIV

    RispondiElimina