venerdì 30 maggio 2014

Supercalifragilistichespiralidoso. E anti.

Supercalifragilistichespiralidoso
anche se ti sembra che abbia un suono spaventoso                            probabilistic-like  fragility&antifragility measure
se lo dici forte avrai un successo strepitoso
supercalifragilistichespiralidoso







Compromising is condoning. The only modern dictum I follow is one by George
Santayana: A man is morally free when … he judges the world, and judges other men,
with uncompromising sincerity. This is not just an aim but an obligation.



Mi è piaciuto il libro di Nassim Nicholas Taleb "Antifragile", l'ho letto avidamente. Una cosa non ho capito (e continuo a non capire), il concetto di fondo.

Per me, non esistono cose "antifragili". Esistono cose fragili (più o meno fragili, meglio) e cose rotte. Le cose rotte non sono fragili per il semplice motivo che non si possono rompere.  In effetti il parto di questa sconcertante deduzione non è mio, ma di mio figlio che ha due anni e mezzo.

Un orologio rotto non smette di essere bello o complicato. Segna l'ora esatta ben due volte al giorno. Sopravviverà sicuramente ad un orologio funzionante per il semplice motivo che..non funziona.

Forse è per questo che Taleb indica l'Italia come antifragile.


Nassim Taleb: ecco i quattro motivi per cui l'Italia resiste ai «cigni neri»



 Provo ad approfondire la questione, probabilmente ridurrò il tutto ad una fragile, personale recensione del libro di Taleb ma  potrebbe comunque essere interessante.

"Fragility can be measured; risk is not measurable"

"anything that has more upside than downside from random events (or certain shocks) is
antifragile; the reverse is fragile."




La fragilità può essere misurata,il rischio no. Qualsiasi cosa che mostri una crescita a seguito di eventi casuali (o determinati shocks) è antifragile. Il contrario è fragile.

Partiamo da questi due concetti fondamentali e centriamoli al campo che ci vede interessati, la finanza:

la fragilità può essere certamente misurata, lo stasso Taleb riprendendo percorsi già tracciati in passato ci fornisce gli strumenti per farlo. Il rischio Taleb dice di no.
In effetti sarebbe meglio dire, a mio avviso, che non è possibile misurare "tutti i rischi" e , ancora più importante, è impossibile stabilire a priori l'impatto di ciò che non riusciamo a misurare. Torniamo a mio figlio di due anni e mezzo: il rischio che rompa una cosa che ha già rotto è assolutamente misurabile e pari a zero (probabilità), come è pari a zero il rischio di fallimento di una banca (o di un paese) già fallita. "Rotto" è sicuramente antifragile ed eventi casuali e\o imprevedibili mal che vada non avranno alcun impatto su di esso (ben che vada li riaggiustano, tipo calcio sul distributore di bevande bloccato, manata sul televisore che fa le righe, martellata sul carburatore della vecchia moto che non vuol saperne di partire, scossa tellurica che ricompone fortunosamente il piatto rotto solo pochi istanti prima e sparso casualmente(ordine) sul pavimento). Spingendoci più in là, potremmo dire che questa fragilità è compagna dell'evoluzione culturale; le blatte sono antifragili perchè hanno superato (fino ad oggi) tutti gli eventi che hanno interessato il pianeta dalla loro comparsa. L'uomo, che è arrivato dopo, parrebbe essere più fragile, resiste meno ad eventi estremi mostrando la deprecabile attitudine alla morte per cause non naturali. E con esso tutto ciò su cui mette mano. Taleb sottolinea questo concetto con "This is the tragedy of modernity" , "neomania".

I più antichi resti fossili di blattoidei risalgono al Carbonifero, tra 354 e 295 milioni di anni fa. La storia dell'uomo è l'insieme delle vicende umane all'interno della Storia della Terra. Essendo l'uomo il frutto di un processo evolutivo, l'inizio della storia dell'uomo può essere fatto risalire a diversi stadi di questo sviluppo: la si può intendere dalla comparsa del primo manufatto tecnologico australopithecino, a partire dalla comparsa del genere Homo, oppure a partire dalla comparsa di Homo sapiens, il cosiddetto "uomo moderno", circa 200 000 anni fa.
Con tale definizione si può preferire indicare la storia dell'uomo moderno, dotato di caratteri anatomici identici all'uomo odierno e di una cultura artistica e spirituale, ma nella periodizzazione tradizionale il primo dei periodi della storia umana è generalmente indicato nella Preistoria, 2,5 -2,6 milioni di anni fa, e quindi include diverse specie ominidi.


La fragilità può essere misurata,il rischio no. Qualsiasi cosa che mostri una crescita a seguito di eventi casuali (o determinati shocks) è antifragile. Il contrario è fragile.(2)


Taleb ci indica come approcciare la misura di fragilità-antifagilità:


Ok. Vediamo se ho capito: questa è antifragile

Antifragile? No, a fraud. A fragile fraud shape



No. Il contrario. E' (era, meglio forse) un fitting gaussiano della distribuzione dei rendimenti del feeder fund  di Bernard Madoff (Fairfield Sentry) . E' divenuto antifragile quando si è rotto.

Ha ragione mio figlio , credo che Taleb si sbagli..non esiste antifragile; esiste più o meno fragile e\o più o meno rotto.
Non è sufficiente una asimmetria per decretare antifragilità
S&P500 more fragile??

poichè la stessa asimmetria mostra l'esatto contrario se indaghiamo in profondità



Cosa vuol dire "ExtraTail Mass Probability" e perchè è una misura importante?



Sarò noioso;  generiamo la variabile X che mostra media =0 ,varianza=1 e presenta una funzione di densità di probabilità come segue:

In teoria della probabilità la distribuzione normale, o di Gauss (o gaussiana) dal nome del matematico tedesco Carl Friederich Gauss, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio. Il grafico della funzione di densità di probabilità associata è simmetrico e ha una forma a campana, nota come Campana di Gauss (o anche come curva degli errori, curva a campana, ogiva).
La distribuzione normale è considerata il caso base delle distribuzioni di probabilità continue a causa del suo ruolo nel teorema del limite centrale. Più specificamente, assumendo certe condizioni, la somma di n variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di n all'infinito. Grazie a questo teorema, la distribuzione normale si incontra spesso nelle applicazioni pratiche, venendo usata in statistica e nelle scienze naturali e sociali[1] come un semplice modello per fenomeni complessi.



100000 osservazioni e le statistiche descrittive parrebbero certificare un buon funzionamento del generatore:


                             Variabile X
-------------------------------------------------------------
      Percentiles      Smallest
 1%    -2.315799      -4.633008
 5%     -1.64817       -4.41705
10%    -1.290938      -4.162048       Obs              100000
25%    -.6775689       -4.14397       Sum of Wgt.      100000

50%    -.0003309                       Mean          -.0041572
                        Largest             Std. Dev.       1.00022
75%     .6666807       3.894426
90%     1.279209       3.945858       Variance        1.00044
95%     1.640493       4.293149       Skewness       .0070993
99%     2.344445       4.490108       Kurtosis       2.996888

le peculiarità della Variabile X sono molteplici ma possiamo ridurle ad una sola fondamentale:  la prevedibilità statisitica.

La Variabile X è magica.



                                                                         Musica da lettura


Della Variabile X sappiamo che non si discosterà più di tanto dalla media, quando lo farà sarà semplce prevedere un movimento contrario al precedente (se si è allontanata verso il basso, andrà in alto e viceversa). Dalla Variabile X non dobbiamo aspettarci sorprese; scommettendo su di essa sappiamo esattamente quello che potremmo perdere perchè la Variabile X è si variabile ma non poi così tanto ed è assolutamente cortese nel fornirci le percentuali esatta dei suoi scostamenti.




Come un figlio che telefona ad intervalli regolari quando si allontana da casa fornendoci le coordinate esatte per rintracciarlo ovunque esso sia. Con la Variabile X Wile E. Coyote non corre il rischio di cadere in dirupi senza fondo e cattura sempre, sempre, Bip Bip.



La Variabile X è magica e consente a chiunque di sentirsi un po' Harry Potter costruendo la bacchetta magica che più aggrada. Il mio simpatico Ingegnere usa le probabilità condizionate e prevede , con una accuratezza vicina al 100%, i fondi azionari (o i mercati azionari) che saliranno nei tre anni seguenti il momento "t" che decreta le massime probabilità di crescita.

La Variabile X è magica ma necessita di tempo per sviluppare questi interessanti poteri. Io ho usato 100000 osservazioni, circa 400 anni di borsa aperta eppure..eppure..pur considerando un periodo così ampio e che difficilmente ci vedrà protagonisti,  la Variabile X cela qualche sorpresa..





Quelle code, che appaiono in perfetta forma nella figura appena sopra Wile E.Coyote, durante questi 400 anni, simulati generando una variabile normalmente distribuita, tendono a metter su massa per poi perderla. Usando una media mobile a 252 osservazioni (un anno di borsa circa) scopriamo che questa massa di probabilità "extra" che grava sulle code, corrompendone l'invidiabile linea, arriva ad oltre il 30% di quello che dovremmo aspettarci.

Mi spiego; se stimo un Valore a Rischio sulla Variabile X per identificare , col 99% di attendibilità statistica, la massima perdita nella quale potrei incorrere, la mia incertezza non sarà l'1% ma sarà un 30% più grande . Quindi quel 99% non sarà così rotondo ma sarà 98.7%, "a volte". A volte sarà più del 99%.
In media, dopo 400 anni, osserveremo un 99% pieno (quasi...sarebbe meglio avere qualche migliaio di anni in più..).

Sarà colpa del generatore del mio programma statistico? Non credo. Una moneta equa tende ad un eguale numero di teste e di croci dopo molti lanci ma le stringhe contenenti ripetizioni di faccia rendono le scommesse a lungo termine incerte (scommetto che su 1000 lanci usciranno 500 teste e 500 croci..e perdo).



"In finanza non c'è nulla di antifragile. Qualcosa funziona di più (ed ha più probabilità di rompersi) e qualcosa funziona di meno (ed essendo mezzo rotto, poco funzionante, avrà meno probabilità di rompersi" 


Nel caso del Fairfield Sentry (Madoff feeder fund), le probabilità "extra" usando una finestra rolling a 6 mesi (ho solo osservazioni mensili del fondo) sono arrivate al 770% ovvero, l'incertezza di un VaR al 99% era, a volte, del 7.7% e non dell 1%. A volte...sempre.  "A volte = sempre"


"In finanza non c'è nulla di antifragile. Qualcosa funziona di più (ed ha più probabilità di rompersi) e qualcosa funziona di meno (ed essendo mezzo rotto, poco funzionante, avrà meno probabilità di rompersi..Taleb è libanese, non conosce l'Italia. Un'Italia da sempre mezza rotta, poco funzionante. Non antifragile...1/2 rotta...volatile perchè poco efficiente e quindi poco attraente nei confronti di quella liquidità che si muove verso le cose funzionano. Resiste alle crisi perchè da esse non è mai uscita completamente e semmai lo facesse, se iniziasse a funzionare, diverrebbe ovviamente più fragile visto lo spostamento delle probabilità di rottura che l'efficienza comporta"






Come pesare(con le probabilità di vederla infranta) la promessa di un database finanziario? La misura precedentemente utilizzata si prefigge proprio questo scopo;

ETMP=massa di probabilità "extra" sulle code.

scopriamo l'acqua calda ma almeno la usiamo per farci due spaghetti che abbiano una giusta cottura; utilizzerò i dati del Fairfield Sentry per dare, in seguito, un senso concreto(finanziariamente) al concetto di promessa e di disatteso.


Una promessa è "fragile" se non riesco a determinare, causa incertezza, il rischio di vederla attesa\disattesa; genericamente quindi, in finanza osserviamo fragilità se la distribuzione dei dati si allontana da quella normale che ci consente di stimare entro un intervallo di fiducia le probabilità generiche.

Abbiamo un metro campione che si chiama "pseudo deviazione standard"; esso non è altro che lo scarto interquantile diviso 1.349 (1.349=2*0.674 è l’intervallo contenente il 50% di casi in una distribuzione normale)

IQR(interquartile range = differenza tra il 75mo ed il 25mo percentile (o tra il terzo quartile, Q3, ed primo quartile, Q1),contiene pertanto il 50% dei casi) / 1.349

Nel caso di distribuzioni simmetriche, il confronto tra standard deviation e pseudo-standard deviation offre indicazioni sulla massa di probabilità presente nelle code:
  • se standard deviation=pseudo standard deviation la distribuzione ha code normali;
  • se standard deviation>pseudo standard deviation la distribuzione ha code grosse (kurtosis > 3);
  • se standard deviation<pseudo standard deviation la distribuzione ha code sottili (kurtosis < 3).

La nostra formula, su finestra mobile e\o sulla totalità dei casi sarà quindi:

ETMP= Deviazione Standard  dati osservati / PseudoDeviazioneStandard * 100


 La percentuale risultante questa frazione ci indica quanta "roba" in più è presente sulle code (che diventano "grasse" proprio quando la massa di probabilità supera il peso "normale")




Osserviamo le varie misure di ETMP (rolling 6mesi, rolling 12mesi e totale) sul Madoff feeder fund:



Madoff non era uno sciocco..o forse sì. Se avete letto con attenzione tutto il noiosissimo scritto precedente, ed osservando le misure, partendo dalla massa totale osserviamo che fitta, alla perfezione, una normale. Chirurgicamente oserei dire.

Rileviamo un valore di  "ExtraTailMassProb_Fairfield_tot" =97.36138 su100(che è il valore della nostra gaussiana teorica). Questo con sole 216 osservazioni.

Io ne ho usate 100000 prima e non mi veniva così perfetto. Dovrei calcolare le probabilità che accada una cosa simile ma credo siano simili a quelle di uno sbarco alieno nel Parlamento Italiano (un altro intendo...)

Osservando la distribuzione delle misure rolling (qui avevo tolto "100" per evidenziare il peso aggiuntivo, cosa che potete fare in fase di computazione, basta tenerne conto) osserviamo invece scarti elevatissimi dalla normalità.

La nostra incertezza.



Il concetto penso sia stato chiarito.

Se ripetete la misura su, ad esempio, l'indice MSCI WORLD,  scoprirete con orrore quanto le nostre previsioni (o quanto la promessa fatta dai rendimenti passati dell'indice) sia incerta. Previsioni che, a dispetto di una apparente sofisticazione (probabilità condizionate ad esempio, statistica bayesiana nella sua interezza reti neurali comprese) sono assolutamente risibili se le identifichiamo come "promessa" da mantenere in un lasso di tempo ragionevole (durata media vita umana).  Bisognerebbe scrivere a caratteri cubitali, al posto di "Non vi è garanzia di ottenere eguali rendimenti in futuro", frase che campeggia nelle brochures dei gestori di tutto il mondo ma:

"NON E POSSIBILE OTTENERE EGUALI RENDIMENTI IN FUTURO" lasciando la porta aperta a sorprese sia gradevoli che sgradevoli.


La misura ETMP, che spero venga diffusa quanto più possibile, si presta ad essere un valido sostituto della varianza nelle misure di performance pesata con il rischio(generico);

Vediamo un rapido esempio usando la promessa di Madoff.

Il nostro amico Bernard prometteva rendimenti annui tra il 10 e il 12%. Usiamo la sua promessa come benchmark e ipotizziamo che esista(in passato è accaduto o quasi) uno strumento che ci dia questo 10% senza rischio; Dividiamo questo 10 per 12 mesi e cumuliamo ottendo una retta inclinata.

Vediamo le due "Equitylines" a confronto:



 Madoff domina il 10% annuo privo di rischio.

Pesiamo il rischio:

RAS: RISK ADJUSTED SLOPE = (Arcotangente (A/B) / 45-1)*100 / C        nb: output "Atan" in gradi, non in radianti. Per la conversione(se necessaria, dipende dal software) : LEGGIMI

dove "A" è l'equityline del Farfield, "B" è l'equityline del nostro 10% annuo ipotetico, "C" sarà, nelle due misure proposte, la deviazione standard rolling 12mesi annualizzata(VolRAS) la misura ETMP rolling 12mesi annualizzata (TailRAS)

ecco cosa accade quando si pesa il rischio(generico)


Un degrado costante della performance pesata con il rischio, tipico di uno schema Ponzi(truffa piramidale)

Ma del RAS e delle sue peculiarità come misura per giudicare i gestori parleremo nel prossimo post, qui l'argomento è la fragilità.

Forse la miglior definizione è questa, di un illuminato anonimo:




Nessun commento:

Posta un commento