Cigni neri, code grasse e orecchie da mercante: come misurare il rischio nei mercati finanziari

/ Articolo / Cigni neri, code grasse e orecchie da mercante: come misurare il rischio nei mercati finanziari
  • Condividi

Alcuni giorni fa, il Financial Times ha pubblicato un articolo di Nassim Nicholas Taleb in cui l'autore attacca violentemente la matematica finanziaria come "pseudoscienza", accusandola di essere incapace di trattare le statistiche che in pratica si incontrano nei mercati. In realtà, in ambito accademico è stata fatta una discreta quantità di lavoro in questa direzione, e se i suoi risultati non sono utilizzati le responsabilità vanno cercate altrove.

Taleb è un personaggio pittoresco, che tende a dare di sé un'immagine di "trader turned philosopher" che si è fatto le ossa sul campo di battaglia dei mercati, e ama condire i suoi scritti con citazioni erudite e abbondanza di "names dropping". Negli ultimi anni ha pubblicato un paio di libri divulgativi su temi finanziari, "Fooled by Randomness" e, quest'anno, "The Black Swan", in cui sostiene più o meno quanto segue: l'ammontare di casualità presente nei mercati non ne consente un trattamento matematico; il framework corrente, basato sul concetto di volatilità, è provatamente incapace di far previsioni sensate su eventi rari, di cui sistematicamente sottovaluta la probabilità; chi sostiene diversamente è un impostore in malafede. Forse ha seguito il consiglio dato da Paul Krugman a chi vuole far l'editorialista ed avere successo di pubblico: "Adopt the stance of rebel: There is nothing that plays worse in our culture than seeming to be the stodgy defender of old ideas, no matter how true those ideas may be". A giudicare dal devoto seguito che tanto l'uno quanto l'altro si sono costruiti tra bloggers, recensori su riviste e compratori di bestsellers, la tattica funziona; quanto a coglierci nel segno, è un altro discorso.

L'articolo citato (disponibile dal sito di FT solo a pagamento, ma riportato integralmente da vari siti o blogs, per esempio qui) è un buon sommario delle sue tesi e del suo stile; e chi abbia seguito sui giornali le varie crisi finanziarie degli ultimi decenni (non ultimo il sussulto di metà agosto scorso) sa che eventi che dovrebbero accadere "ogni 10,000 anni" o che sono supposti giacere a una distanza di "25 volte la deviazione standard" dal valore atteso, hanno, in effetti, il vizio di ripresentarsi ogni decennio circa. Però, contrariamente a quel che dice Taleb, il problema è stato identificato già nella prima metà del XX secolo, e gli strumenti matematici per trattarlo ci sarebbero. Vediamone i dettagli più da vicino.

Quantili e momenti

Nelle applicazioni pratiche di teoria della probabilità e statistica, tanto nelle scienze naturali quanto nelle economiche, si è in genere interessati a far previsioni sulla base di dati sperimentali e ragionevoli modelli matematici; in particolare, si è interessati ai valori assunti dalla funzione di distribuzione cumulativa (o CDF) di una variabile aleatoria per certi valori della variabile stessa; o, reciprocamente, ci si chiede quali siano i valori di tale variabile (detti quantili) in relazione ai quali la sua CDF assume particolari valori. Ad esempio, il quantile 0.5, detto mediana, dà una misura della posizione "centrale" della densita' di probabilita' (PDF, la derivata della CDF), e lo scarto inter-quartile, cioè la differenza tra primo e terzo quartile (quantili 0.25 e 0.75), dà una misura della "larghezza" della PDF. In matematica finanziaria, il molto discusso Value-at-Risk (VaR) è definito in termini di quantili sulla distribuzione dei cambiamenti di valore di un portafoglio di titoli (in particolare, è il massimo stimato della perdita che si può verificare entro un certo periodo di tempo con un dato livello di confidenza, tipicamente il 95% o 99%).

Lavorare con i quantili o con i valori delle probabilità cumulative, però, richiede la conoscenza della forma matematica della funzione di distribuzione. Quello che in genere si fa è definire un modello, che comporta la scelta di una certa funzione di distribuzione; stimare i parametri di quest'ultima sulla base dei dati storici; e da lì passare al calcolo dei quantili.

 

La stima dei parametri spesso è derivata da quella dei momenti di ordine N della distribuzione, che sono i valori attesi delle N-sime potenze della variabile aleatoria. La stima dei momenti è relativamente facile, dato che consiste nel calcolo di medie delle N-sime potenze dei valori storici (anche se la ricerca del metodo migliore per calcolare queste medie ha generato una sterminata letteratura, fino ai sofisticati modelli derivati di quell'ARCH che nel 2003 portò il Nobel per l'Economia a Robert Engle).

 

Se si assume, come spesso si fa, che la forma matematica della PDF è gaussiana, i suoi parametri sono direttamente deducibili dai momenti di ordine 1 e 2, che consentono di ricavare il valore atteso e la varianza. Nel caso gaussiano, il valore atteso coincide con la mediana (il quantile 0.5), mentre la radice quadrata della varianza, detta deviazione standard, è circa uguale a 0.74 volte lo scarto interquartile.

 

Gaussiane: perché e quando.

 

La ragione dietro la popolarità della distribuzione gaussiana è dovuta essenzialmente al Teorema del Limite Centrale (CLT), dimostrato nella sua forma più generale nel 1922, che asserisce che la somma di un certo numero di variabili aleatorie indipendenti ed equidistribuite tende alla distribuzione gaussiana al crescere del numero di tali variabili. Questa situazione si verifica spesso in natura, e anche in finanza: per esempio, i rendimenti giornalieri su merci o titoli (cioè i rapporti tra il prezzo di chiusura e il prezzo di chiusura del giorno precedente) sono il prodotto dei rendimenti individuali per ogni ora (o minuto, etc.) nel periodo in cui la merce o titolo è trattata in borsa. Pertanto, il logaritmo dei rendimenti giornalieri è la somma di tanti logaritmi di rendimenti elementari (supposti essere ugualmente distribuiti) e sarà perciò distribuito in forma approssimativamente gaussiana. I rendimenti avranno quindi una distribuzione log-normale.

 

Per la validità del CLT esiste però una precondizione importante, che sinora ho sottaciuto: la varianza delle variabili aleatorie componenti la somma deve avere un valore finito. Parlando più sopra della stima dei momenti, avevo glissato su un dettaglio: se da un lato le medie delle potenze N-sime dei valori sperimentali esistono sempre, dall'altro esse possono non tendere alle stime dei momenti della distribuzione, perché questi ultimi possono non esistere affatto. Questo succede quando l'integrale del prodotto tra PDF e potenza N-esima di una variabile X non converge a un valore finito, perché la PDF non tende a zero abbastanza rapidamente al tendere di X a più o a meno infinito. Più precisamente: se le code delle distribuzioni elementari tendono a zero più lentamente di |X|-(N+1), i momenti di ordine superiore a N non esisteranno. E se N < 2, addio CLT e addio gaussianità della somma!

Distribuzioni stabili

 

Nei primi decenni del XX secolo ci si chiese se esistesse una versione più generale del CLT applicabile a situazioni in cui le variabili componenti hanno varianza infinita. Una risposta fu trovata nel 1955 da Gnedenko e Kolmogorov, il cui Teorema Generalizzato del Limite Centrale (GCLT) dice che se N è compreso tra 0 e 2, la distribuzione della somma di variabili aleatorie equidistribuite con code che tendono a zero come |X|-(N+1) tende alla forma di una "Distribuzione (alfa-)stabile di Lévy" (simmetrica). Questa famiglia di distribuzioni era stata studiata da Paul Lévy gia' negli anni '20, ed è caratterizzata da quattro parametri:

 

- Il primo, α, è compreso tra 0 e 2 e determina la rapidità di caduta delle code; in particolare, se α < 2 le code tendono a zero come |X|-(α+1), e la distribuzione è detta "stabile paretiana"; ma se α = 2 la caduta bruscamente diviene molto più rapida, dell'ordine di exp(-x2) come nel caso gaussiano; in effetti, in questo caso la distribuzione si riduce a una gaussiana.


- Il secondo, β, e' compreso tra -1 e +1 e determina l'asimmetria (skew) della PDF. Se β = 0 la PDF e' simmetrica, e se in aggiunta α = 1 la distribuzione si riduce a una Lorenziana.

 

- Il terzo, γ, è legato alla "larghezza" della curva. Se α = 2, γ rappresenta la deviazione standard; se α = 1, γ rappresenta il parametro dello stesso nome nella Lorenziana, e coincide con la metà dello scarto interquartile.

 

- Il quarto, δ, è legato alla posizione del picco (moda, che in questa famiglia di distribuzioni è sempre unica).

 

L'aggettivo "stabile" nel nome dipende dalla più importante proprietà della famiglia: se due variabili aleatorie seguono distribuzioni stabili di Lévy con il medesimo α, la loro somma seguirà anch'essa una distribuzione stabile di Lévy con lo stesso valore di α.

 

Un'altra interessante proprietà è la seguente: così come per le gaussiane la somma di due variabili indipendenti ha un γ il cui quadrato è la somma dei quadrati degli y delle due componenti (perché nella gaussiana γ rappresenta la varianza, che per variabili indipendenti è additiva), così per la somma di due variabili indipendenti stabili di Lévy vale la relazione generalizzata:

 

γα = γ1α + γ2α

 

Questa proprieta' formale, assieme alla relazione allo scarto interquartile relativamente simile nei casi di α = 2 e α = 1, porta a considerare γ un buon candidato per rimpiazzare la deviazione standard quando la varianza semplicemente non esiste. Nel caso di covarianze di più variabili, dovrebbe essere possibile fare lo stesso con i parametri di distribuzioni stabili multivariate.

 

Infine, una breve nota su un caso diverso ma correlato. Talora, per esempio nel campo assicurativo, non interessano variabili che siano la somma (o la combinazione lineare a coefficienti costanti) di più variabili elementari, ma altre che siano il massimo (o il minimo) di tali variabili elementari. Per questo, sono state studiate distribuzioni che godono della proprietà di stabilità rispetto alle operazioni di massimo e di minimo, anziché di somma: sono quelle appartenenti alla famiglia di "distribuzioni di valore estremo generalizzate" (GEV), sviluppate nell'ambito della teoria del valore estremo (EVT).

 

Non sparate sul pianista

 

Il problema di fondo di molta matematica finanziaria in uso corrente quando si tratta di far previsioni su eventi rari (la cui probabilità è sistematicamente sottovalutata) è che una delle sue pietre angolari è il concetto di "volatilità", e questo è definito in termini di deviazione standard. In particolare, questo è vero in tre importanti aree:

 

- Teoria Moderna del Portafoglio, che fornisce metodi per calcolare un portafoglio con minima volatilità una volta fissato il rendimento, o di massimo rendimento una volta fissata la volatilità;

 

- Teoria del pricing delle opzioni (formula di Black-Scholes e adattamenti successivi);

 

- Teoria del Valore a Rischio (VaR), sviluppata dal gruppo RiskMetrics di JP Morgan e adottata (spesso incautamente) un po' da tutti, inclusi i regolatori del Comitato di Basilea sulla Supervisione Bancaria per gli accordi Basilea II.

 

Peraltro, è da parecchi anni che è stato notato che le distribuzioni dei logaritmi dei rendimenti sui mercati sono tutt'altro che gaussiane. In genere si cita il lavoro svolto da Mandelbrot nei primi anni '60, quando studiando l'andamento dei prezzi del cotone arrivò alla conclusione che essi seguivano una statistica alfa-stabile di Levi con α uguale a circa 1.7 (e quindi piuttosto lontano dal valore 2 che renderebbe la distribuzione gaussiana); ma già nel 1915 l'economista di Columbia University Wesley Clair Mitchell aveva notato che le frequenze dei rendimenti sui titoli azionari fittavano una curva più leptokurtica di una gaussiana, cioè con un picco più affilato e code che scendono meno rapidamente.

 

La cosa è restata per decenni un "panno sporco da lavare in famiglia", più per responsabilità degli operatori di mercato e della stampa finanziaria che dei ricercatori accademici. Invece, proprio su questo punto la posizione di Nassim Taleb è totalmente negativa: spara a zero su tutti (tranne il suo amico personale Benoît Mandelbrot) e nega si possa fare alcunché di razionale. Ad esempio, nella sua recensione al libro di Mandelbrot "The (Mis)Behavior of Markets" scrive:

 

Now the question: what if we can't insulate ourselves from such distributions? The answer is “do something else”, all the way to finding another profession. Risk managers frequently ask me what to do if the commonly accepted version of Value-at-Risk does not work. They still need to give their boss some number. My answer is: clip the tails if you can; get another job if you can't. “Otherwise you are defining yourself as a slave”. If your boss is foolish enough to want you to guess a number (patently random), go work for a shop that eliminates the exposure to its tails and does not get into portfolios first then look for measurement after.

 

Contrariamente a quanto Taleb asserisce, qualcosa si sta facendo per dare strumenti a chi li vuole usare. È in corso da tempo lavoro di ricerca per adattare la matematica finanziaria a casi non-gaussiani: ad esempio, si veda questa collezione di papers e riferimenti bibliografici. Ovviamente le stime del rischio sarebbero più preoccupanti di quelle attuali, spaventando gli investitori e inducendo i regolatori a imporre alle banche capital requirements più elevati: probabilmente, questa è la ragione per cui l'industria finanziaria preferisce far finta di nulla e nascondere la testa sotto la sabbia (salvo poi chiedere salvataggi governativi quando le crisi si verificano).

 

Forse i ricercatori dovrebbero davvero riservare un po' del loro tempo ad attrarre attenzione sulle loro fatiche, magari scrivendo anch'essi qualche bestseller ribellistico-anticonspiratorio...

Indietro

Commenti

Ci sono 34 commenti

un libro non anticospiratore, ma che tratta il problema delle "fat tails" in modo intelligente e senza catastrofismi c'è già: www.amazon.com/Iceberg-Risk-Adventure-Portfolio-Theory/dp/1587990687

è una specie di "math-novel" (definizione di Paul Wilmott)  ambientato in una banca d'affari immaginaria. Un "approccio" che si presenta nel testo è quello delle "misture" di normali/binomiali, che è valido per ottenere distribuzioni fat tailed.

Nel link che hai citato, c'è anche Sergio Ortobelli: tutto il dip. di matematica applicata (Bertocchi, Giacometti) di Bergamo si occupa di queste cose. Sono molto in gamba...è anche da un loro articolo che ho maturato l'idea che spero diventi la mia tesi di laurea. Eppure sono un'eccezione: sono davvero poche le facoltà di economia in italia che abbiano un buon dipartimento di matematica applicata alla finanza...oltre a Bergamo, Padova (dove c'è il prof. Azzalini che se ne occupa se non sbaglio). Speriamo che il dibattito su questi temi guadagni centralità senza cacce alle streghe. Intanto complimenti per l'articolo divulgativo.

ah, a proposito di come misurare il rischio:  ottimizzazione del C-var per qualsiasi distribuzione (http://www.ise.ufl.edu/uryasev/kro_CVaR.pdf). Il C-var è una misura coerente di rischio en.wikipedia.org/wiki/Coherent_risk_measure

Oltre a Bergamo e Padova, in termini di output accademico direi soprattutto l'IMQ Bocconi e Bologna. E pure Pavia...

Un "approccio" che si presenta nel testo è quello delle "misture" di

normali/binomiali, che è valido per ottenere distribuzioni fat tailed.

Non ho letto il libro, ma nota che misture di distribuzioni non sono generalmente stabili sotto self-convoluzione. Ad esempio, la distribuzione di Voigt , che e' un misto di gaussiana e lorentziana, non e' stabile (sono indebitato per avermi fatto capire questo punto col mio amico ed ex-collega di corso Valerio Parisi). La stabilita' e' importante perche' fornisce una ragione teorica per la forma matematica della distribuzione; da li', analizzando i dati , si puo' poi passare alla stima dei parametri, che peraltro non e' facile guardando quando α e' vicino a 2 (perche' gli eventi rari sono, d'oh, rari :-) ).

Un'altra caratteristica interessante delle distribuzioni alfa-stabili, che e' probabilmente collegata alla stabilita', e' quella di Massima Entropia secondo Jaynes. La cosa generalizza una proprieta' nota della gaussiana per casi in cui la varianza e' finita, anche se la derivazione non e' immediata (vedi p.es. qui e qui).

Ti faccio due domande:

1) La mistura di due distribuzioni normali (una pesata p e l'altra 1-p) con media idetica ma diversa varianza, non dovrebbe essere in teoria stabile, visto che si tratta di una combinazione lineare tra due cose stabili?

2) L'utilizzo di espansioni come quella di Edgeworth/Gram Charlier mina la stabilità? http://en.wikipedia.org/wiki/Edgeworth_series

Te lo chiedo perché c'è una mistura che è stata elaborata da due ricercatori coreani che mixa due normali del tipo che ho detto sopra (linearmente) e, per ottenere livelli flessibili di skewness, si serve dell'espansione di Charlier. Mi sembrava un approccio molto più semplice, a livello analitico, di quello delle alfa stabili, ma comunque efficace.

Grazie anche per i link: sono utilissimi per uno studente di economia in italia, dove la matematica è considerata tutto sommato inutile dall'80% dei docenti.

1) La mistura di due distribuzioni normali (una pesata p e l'altra

1-p) con media idetica ma diversa varianza, non dovrebbe essere in

teoria stabile, visto che si tratta di una combinazione lineare tra due

cose stabili?

La stabilita' e' definita solo per combinazione (per somma, in questo caso) di due variabili casuali identicamente distribuite. Nel caso che citi, la distribuzione e' anch'essa gaussiana, ma se, p.es., sommi due variabili alfa-stabili di Levy che hanno due valori diversi di α, il risultato in genere non e' nemmeno alfa-stabile di Levy. P.es., come dicevo nel commento precedente, la somma tra una variabile gaussiana e una lorenziana (entrambe, individualmente, appartenenti alla famiglia delle alfa-stabili di Levy) ha una distribuzione di Voigt, che a tale famiglia non appartiene.

2) L'utilizzo di espansioni come quella di Edgeworth/Gram Charlier mina la stabilità? http://en.wikipedia.org/wiki/Edgeworth_series

A quanto capisco, queste espansioni richiedono l'esistenza di una varianza finita. Ma c'e' una questione preliminare da chiarire, e cioe'...

Te lo chiedo perché c'è una mistura che è stata elaborata da due

ricercatori coreani che mixa due normali del tipo che ho detto sopra

(linearmente) e, per ottenere livelli flessibili di skewness, si serve

dell'espansione di Charlier. Mi sembrava un approccio molto più

semplice, a livello analitico, di quello delle alfa stabili, ma

comunque efficace.

...parliamo qui di combinazioni lineari di variabili casuali, o di combinazioni lineari di distribuzioni? La cosa e' ben diversa, perche' la densita' di distribuzione della somma di due variabili e' la convoluzione delle distribuzioni, non la loro somma. In particolare, sommando due variabili gaussiane la risultante e' ancora gaussiana, quindi con skewness zero...

 

Ti ringrazio moltissimo, alla luce di quanto scrivi, ho l'impressione di aver sempre guardato in modo sbagliato al "problema". Ma non è mai troppo tardi per imparare (spero). Grazie ancora.

Buonasera Michelangeli, volevo chiarire alcuni punti qualitativi che a parer mio sono preliminari a questa discussione. Lo faccio con qualche cognizione di causa essendo,ahime',uno dei pochissimi CQF italiani (Certificate in Quant.FInance,corso di Willmott in cui insegna lo stesso Taleb, il quale e' sicuramente uno dei principali "ispiratori" del corso).

I miei punti:

1. Taleb non e' un ciarlatano. Oltre essere un multimillionaire trader (vorra' pur dire qualcosa), ha scritto uno dei piu' bei libri di finanza quantitativa, Dynamic Hedging, degli ultimi anni. I libri che lei cita, che io non ho letto, potranno anche essere filosofico-divulgativi o semplicemente commerciali (il Nostro e' senz'altro sensibile al fascino del denaro), ma quando lo si critica anche personalmente come scienziato e' Dynamic Hedging che bisogna criticare. Ed il libro e' magnifico;

2/ l'articolo di Taleb su FT non e' contro la matematica finanziaria, tutt'altro. E' contro la teoria economica, gli economisti e l'attribuzione dei Nobel a tanta pseudoscienza che a chi come Willmott, Taleb (e il sottoscritto) ha una formazione quantitativa fa molto sorridere. Gli esempi citati da Taleb, CAPM e Black&Scholes pricing theory sono un bell'esempio.

3/ il dibattito scientifico che lei imposta (la ricerca della migliore distribuzione che riesca a fittare i dati empirici) non esiste come tale in alcuna accademia. La ragione per cui la distribuzione normale e sue convoluzioni sono state usate non e' l'ignoranza dei practicioners o dei quants delle banche quanto piuttosto perche' i momenti successivi al primo della distribuzione normale e le derivate rispetto alle variabili di rischio nelle formule di pricing derivate dalla assunzione di log-normalita' sono facili e soprattutto VELOCI da calcolare. La velocita' e' fondamentale quando si parla di mkt. finanziari. Un valore atteso ultrapreciso sulla base di una distribuzione i cui momenti successivi al primo siano troppo complicati e' inservibile;

4/ per questa ragione (cosa che Taleb non dice sull'FT, ma che insegna ai corsi) la ricerca si e' totalmente focalizzata negli ultimi dieci anni sulle martingale e sulle simulazioni visto che grazie alle potenze di calcolo dei computers attuali si riesce a simulare ormai molto velocemente;

5/ infine, fatte queste precisazioni essenziali, il dibattito sugli strumenti di pricing che ne puo' scaturire e' interessantissimo ma, La prego, non lo metta in relazione con la crisi dei subprime. Gli strumenti in questione (mortgage-backed assets, CDOs in particolare) sono strumenti altamente illiquidi per cui qualunque modello di pricing risulta inadeguato. Se vuole possiamo approfondire, ma di crisi di liquidita' si tratta, non di pricing errati.

Scusi la lunghezza.

 

 

l'articolo di Taleb su FT non e' contro la matematica finanziaria,

tutt'altro. E' contro la teoria economica, gli economisti e

l'attribuzione dei Nobel a tanta pseudoscienza che a chi come Willmott,

Taleb (e il sottoscritto) ha una formazione quantitativa fa molto

sorridere. Gli esempi citati da Taleb, CAPM e Black&Scholes pricing

theory sono un bell'esempio.

Tutta la matematica dei derivati è partita dal modello di Black e Scholes. Non ho letto il libro di Taleb, ma una ricerca su Amazon mostra che l'autore usa la derivazione di Black-Scholes-Merton. Edward Thorp, che secondo l'articolo di Taleb sarebbe il vero inventore dell'equazione di BS e avrebbe avuto un approccio "più realistico", non è neanche menzionato nel suo libro.

infine, fatte queste precisazioni essenziali, il dibattito sugli strumenti di pricing che ne puo' scaturire e' interessantissimo ma, La prego, non lo metta in relazione con la crisi dei subprime.

Veramente era Taleb, non Enzo, che nel suo articolo parlava della crisi subprime.

 

Ciao juventinopervicace,

ho letto che hai il CQF. Ti ringrazierei se potessi scrivermi a southheaven@libero.it.

vorrei farti qualche domanda sul corso.

grazie mille!

ciao

 

Caro JP,

Non mi interessa particolarmente criticare "Taleb anche personalmente come scienziato", ma solo le sue affermazioni palesemente false: tipo quella secondo cui un risk manager a cui e' chiesto come valutare il rischio sotto ipotesi realistiche (cioe' di "fat tails") abbia come unica scelta dare le dimissioni e guadagnarsi da vivere in altro modo (magari scrivendo pulp fiction travestita da divulgazione finanziaria).

Mi pare di aver documentato che la non-gaussianita' di certe serie finanziarie era nota sin dai tempi della prima guerra mondiale, e che gli strumenti teorici di base per affrontarla esistono da almeno mezzo secolo. Contrariamente a quanto Taleb insinua, il lavoro di Mandelbrot era ben noto anche negli ambienti che lavoravano a MPT e CAPM: vedi p.es. questo paper di Eugene Fama (che riassume la sua tesi di dottorato).

Sulla questione della velocita' di calcolo: stimare i parametri di funzioni alfa-stabili non e' particolarmente piu' lento dello stimare la varianza. La lentezza semmai compare quando non e' possibile usare formule chiuse, e bisogna ricorrere a procedure di simulazione: per il VaR, storica o Montecarlo; e per l'ottimizzazione dei portafogli in MPT, spesso "simulated annealing" (che e' un algoritmo preso a prestito dalla termodinamica). Questo accade per due ragioni: una, ineliminabile, di presenza nei portafogli di prodotti i cui ritorni non sono lineari (p.es., opzioni); e l'altra causata dalla rinuncia a trattare analiticamente distribuzioni diverse dalla gaussiana: su questo, usare i risultati della teoria delle distribuzioni alfa-stabili o dell'EVT puo' solo giovare. E in effetti, lavoro accademico che va in questa direzione esiste: vedi p.es. questo paper sul VaR e questo sul pricing delle opzioni. Se viene ignorato dai risk managers delle istituzioni finanziarie, la colpa non e' dell'accademia: e' dei risk managers e del top management che li assume. Sul perche' esso sia ignorato, io azzardo un'ipotesi: sottovalutare il rischio consente di effettuare profitti maggiori quando le cose vanno lisce; tanto poi, quando vanno male, si puo' sempre andare a piangere dal governo e farsi salvare coi soldi dei contribuenti.

Finalmente, io non postulo affatto un legame causale tra pricing e crisi subprime: ho solo detto che pricing delle opzioni, teoria del portafoglio e teoria del Value-at-Risk cosi' come sono adesso si basano tutti sull'ipotesi di finitezza della varianza, che e' inconsistente con l'esperienza in tutti e tre i casi.

 

Su Taleb: se l'intenzione era quella che mi dice, allora c'e' un po' troppo di personale e di poco informato nel suo testo iniziale. Il suo sembra molto piu' il tentativo maldestro di fare cio' di cui Lei stessa accusa Taleb (osare mettersi contro l'establishment, ovverosia FT, le banche etc.), solo che lui lo fa probabilmente per danaro, Lei mi pare per farsi gloria su un blog tra l'altro frequentato da lettori, direi, piuttosto digiuni di teoria economico-finanziaria (politica, socciologgia, ekonomics, quelle abbondano, ma matematica finanziaria, quella, ahime', pochina).

Sulla non-gaussianita' delle serie storiche finanziarie: il punto e' talmente ovvio che per pensare che qualcuno non lo riconosca nelle banche bisogna assumere una pressoche', inverosimile, imbarazzante inadeguatezza dei Risk Managers (e dei traders) delle banche di investimento. Basta plottare la serie dei rendimenti dell'S&P500 dai '60 a oggi (basta aprire Yahoo) per rendersi conto della forzatura della ipotesi di lognormalita'. Cio', peraltro, non significa che non se ne tenga conto gia' a livello di pratica di mercato (si vada a vedere dove gira in media il livello della volatilita' implicita/skeweness implicita calcolate semplicemente con B-S rispetto alla storica, per vedere come il mercato gia' prezzi in qualche modo un mark up molto forte rispetto all'ipotesi di normalita'). A livello teorico l'approccio che lei segnala (ricerca di distribuzioni alternative alla normale) non mi risulta affatto (anzi posso tranquillamente affermare "non e'") quello maggioritario (cio' non significa che alla University of London, a Bonn o magari a Parma ci sia qualche ricercatore che scriva di distribuzioni altre). GLi approcci sono volatilita' stocastica, GARCH (fino a dieci anni fa, GARCH peraltro, come dice Taleb su FT, e' stato solo un modo di assegnare l'ennesimo Nobel-bufala alla supposta scienza economica) e piu' recentemente differenze finite, martingale e conseguentemente montecarlo simulations.

TUTTO CIO', pero', NON RIGUARDA i SUBPRIME: su assets class totalmente illiquide e dal pay-off cosi' fortemente convesso, non esiste un approccio statistico sensato. Di qui l'insensatezza delle sue riflessioni al riguardo.

 

Come si spiega il fatto che dopo un grande interesse per l'applicazione delle distribuzioni Levy-stabili alla finanza alla fine degli anni sessanta inizio settanta, non se ne e' quasi piu parlato nella letteratura accademica? (Prima dei paper recenti che tu citi). Non sara certo perche i cattivi banchieri fanno opposizione.

Come hai fatto notare Eugene Fama si era interessato alla questione e aveva scritto sull'argomento nel 71. Poi piu niente. Questo Eugene Fama che era il padreterno della finanza durante gli anni 70 e 80 e poteva non solo publicare quello che voleva ma (come reviewer) incoraggiare o bloccare papers a suo piacimento.

Sembra che il mondo accademico economico/finananziario abbia piu o meno scartato l'ipotesi che i movimenti dei prezzi degli attivi finanziari abbiano una varianza infinita (i matematici continuano a interessarsi a questa ipotesi). Secondo te, perche ?

I miei dieci centesimi di esperienza personale. Anche se non son per niente quello che si dice un "financial economist", ho molti cari amici che lo sono e, anche a causa loro, mi sono occupato di finanza per un po' di tempo negli anni '90. Ora la ignoro quasi completamente, a meno che non debba andare a cena con alcuni di loro ...

Conosco pero' una quantita' enorme di gente che fa finanza accademica e si occupa di modelli finanziari basati su distribuzioni differenti dalla normale e, in particolare, su distribuzioni a varianza infinita, code "grasse", code con atomi, misture di normali e binomiali, o di normali e poisson, e svariate altre amenita' del genere. Ovviamente conosco anche una grande quantita' di gente che fa finanza e si occupa dei problemi pratici qui sollevati ma ritiene che la soluzione sia altrove, ossia che occorra usare metodi diversi dalle distribuzioni a varianza infinita per modellare i mercati. Altri pensano, addirittura, che il problema non sia puramente statistico o "computeristico" (cosa si riesce e cosa non si riesce a simulare in tempo ragionevole) ma piu' profondo, ossia analitico: i modelli di pricing son da buttare, alcuni arditi sostengono ... Alcuni, strana gente, credono che il problema non sia risolvibile analiticamente in nessun caso, perche' manca la stazionarieta' in senso stretto, perche' gli eventi che generano queste crisi sono "non predicibili" (mai avvenuti prima, fuori dal supporto, sunspots, ...). Altri ancora ritengono che tali fenomeni siano inevitabili, ma allo stesso tempo non predicibili per ragioni di complessita' computazionale dovuta alla natura caotica del sistema sottostante. Insomma, l'impressione mia e' che gli accademici si occupino appassionatamente di questi temi ma che, non avendo la verita' in tasca, non siano unanimamente convinti che il loro compito sia dedicarsi all'applicazione delle Pareto-Levy alla finanza ... ma questo e' un discorso piu' complicato, che non ho tempo per affrontare. Ritorno ai dieci centesimi di esperienze personali.

Per vari anni, Jose Scheinkman, Andreu Mas Colell ed il sottoscritto hanno diretto una scuola di matematica economica per "scienziati natural' (fisici e matematici soprattutto) all'ICTP di Trieste. Almeno meta' delle lezioni e dei dibattiti erano dedicati a questo tipo di modelli. In un certo senso quelle scuole hanno svolto un certo ruolo positivo nella creazione di un'intera area della fisica, che va sotto il nome di "econo-physics", che praticamente non fa altro che occuparsi di questi temi. Per un'introduzione a questa area di studi, vedasi: Introduction to Econophysics, by Rosario N. Mantegna and H. Eugene

Stanley, pp. 158. ISBN 0521620082. Cambridge, UK: Cambridge University

Press, November 1999. Negli anni seguenti il numero di studi e' altamente aumentato.

Come qualcuno ha notato, l'interesse dell'accademia per questo tipo di problemi risale, comunque, a ben prima e non si e' certo spento dopo gli anni '60. Basta cercare in Google Scholar, anche solo sotto il nome di Mandelbrot, per trovare decine di articoli. Io ho finito il PhD nel 1987, quindi non saprei dare una testimonianza personale prima di quella data. Dal 1986-87 sino al 1992 partecipai - assieme ad altri fra cui di nuovo Jose Scheinkman, John Geanakoplos, Ken Arrow, Larry Summers, Tom Sargent, Buz Brock - alla costruzione del programma economico del Santa Fe Institute. Durante quegli anni uno dei temi costantemente presenti era quello della insufficienza del modello di asset pricing tradizionale, basato su normalita' o lognormalita', varie approssimazioni lineari, eccetera. Doyne Farmer, Norman Packard ed altri ne hanno fatto il loro tema di ricerca da allora, ma molti altri hanno contribuito. Uno sguardo ai working papers ed alle pubblicazioni di SFI dovrebbe confermarlo.

Aldila' delle esperienze personali - che sono forse marginali anche perche' (ripeto) mi occupavo di finanza solo a tempo perso e non lo faccio da circa 8/9 anni - credo sufficiente usare astutamente Google Scholar per trovare centinaia di lavori. Ho fatto un po' di esperimenti. Le parole "pareto distribution finance" danno 21400 risultati. Ovviamente non tutti sono relativi al tema, moltissimo non lo sono, ma uno sguardo qui mostra che per decine di pagine gli articoli listati sono tutti piu' o meno cogenti. Le parole "extreme value finance" danno 104000 risultati, e potete verificare qui che un gran numero dei titoli che appaiono nelle prime pagine sono rilevanti. Le parole "infinite variance asset" danno 14400 risultati e, di nuovo, gia' dal terzo cominciamo a trovare titoli rilevanti. La combinazione "finance levy" da' 53700 risultati, qui bisogna fare un po' di attenzione perche' i primi titoli sono dominati dai lavori di Moshe ed Haim Levy, che con il nostro tema non c'entrano nulla, ma poi arrivano subito decine di lavori rilevanti. Potrei continuare con le decine di altre parole chiave che possono permettere un accesso rapido alla letteratura, ma non credo serva. Da dove e' uscita l'idea che la ricerca accademica non abbia studiato il problema? Mah ...

Visto che ci sono, un anedotto personale. Un po' piu' di dieci anni fa - avevo appena lasciato Kellogg GSM per andare alla CIII di Madrid - mi venne chiesto un lavoro di consulenza da una delle principali banche italiane di allora (e' grande anche adesso ...). Si trattava di mettere in piedi il loro sistema di controllo del rischio, sia quello relativo al trading (che gia' allora avveniva quasi tutto a Londra), sia, in prospettiva, quello creditizio. Quanto avevano era alquanto primitivo, ricordo che usavano spread sheets e duration ... Mi diedi da fare, cercando anche di coinvolgere un paio di colleghi che sapevo essere piu' bravi di me e piu' esperti del tema. Dopo tre mesi tutto venne abbandonato, per due ragioni. La costituency interna, ossia i bravi ed allegri traders londinesi ed i loro "quants", non capendo nulla di quanto si cercava di spiegargli e non avendo tempo/voglia di fare lo sforzo necessario per impararlo, non facevano che creare ostacoli di tutti i tipi. Avendo loro acquisito in azienda la reputazione di essere "draghi matematico-quantitativi", l'idea che tre o quattro morti di fame in arrivo da Chicago potessero mettere in ombra questo loro status li infastidiva alquanto. Rassicurarli sulle nostre intenzioni - d'andare a lavorare in banca non avevo proprio voglia, e se la voglia l'avessi avuta qualcuno che mi prendeva a G&S credo ci fosse ... gli altri due per G&S c'erano gia' passati - non servi' a nulla, erano troppo insicuri per ascoltare, let alone capire. La dirigenza centrale, tutta, non capiva proprio il problema che aveva di fronte. Soprattutto non riusciva a capire perche' noi si insistesse nel fare delle cose diverse, non lineari, proprie, fatte in casa, anche artigianali se volete, ma controllabili direttamente da noi, invece di adattare rapidamente alle esigenze pratiche della banca quella meraviglia che JP Morgan andava mettendo in giro al tempo ... Idem sul rischio di credito. Su quest'ultimo, infatti c'e' un'altra esperienza milanese, qualche anno dopo, con un'altra grande banca italiana ed anche qui ... transeat. Sia chiaro, tutto questo magari dipende dal fatto che io non ci capisco nulla, ma non mi risulta si siano poi rivolti ad altri piu' esperti di me per farsi fare il lavoro. In Spagna ho avuto piu' fortuna ...

Infine, ritorno brevemente alle osservazioni iniziali per poter tirare la pietra nello stagno del dibattito: cosa fa ritenere a quelli che si occupano di questi temi che la soluzione del problema consista nel trovare e stimare la distribuzione (parametrica) giusta? Come la troviamo? E, una volta trovata, con quali dati e con quali metodi la stimiamo?

 

 

 

Sembra che il mondo accademico economico/finananziario abbia piu o meno

scartato l'ipotesi che i movimenti dei prezzi degli attivi finanziari

abbiano una varianza infinita (i matematici continuano a interessarsi a

questa ipotesi).

Non e' un'ipotesi astratta: e' una tesi che puo' essere messa alla prova sulla base dei dati sperimentali. Tu come la spieghi la persistente ricorrenza di eventi che modelli basati su distribuzioni gaussiane stimavano avere probabilita' trascurabile?

Secondo te, perche ?

Be', la mia opinione l'ho espressa: l'industria finanziaria non ha alcun incentivo ad esplorare strade che conducono a stime del rischio molto maggiori di quelle attuali. Semmai, mi sorprende che non se ne interessino le banche centrali e/o i ministeri del Tesoro, che sono i "lenders of last resort".

La mia osservazione l'avevo appesa al commento di AlexCT, ma non voleva essere diretta a lui in particolare. Volevo solo evitare che si continuasse a discutere di una cosa che non esiste, ossia che gli accademici non si preoccupano dei limiti del modello standard, mentre quelli del business son tutti li' che cercano di far miracoli. L'evidenza dimostra il contrario, se dimostra qualcosa. Quindi la domanda che pone Enzo alla fine del suo post rimane valida e rilevante. Perche' le "banche" (ossia, industria finanziaria in generale) tendono a prestare poca attenzione a questo tipo di ricerca, mentre vi sono centinaia di accademici che la fanno? In particolare, aggiungo io, perche' Basel continua ad esser scritta in quella maniera assurda e sulla base di concetti primitivi e deresponsabilizzanti, come se l'intero circo non servisse altro che per far adottare gli strumenti prodotti da JPM ed imitatori?

Non volevo neanche fare pubblicita' all'econo-physics o a quel che sia; ognuno degli approcci che ho elencato, e mezza dozzina di altri, ha meriti e difetti. Nessuno ha fornito una soluzione, that's for sure. Per parte mia ho giocato per anni con modelli caotici e poi con modelli d'origine termodinamica, tipo interacting particles o self-organization, ma ho l'impressione che anche quelli siano vicoli molto molto oscuri e senza uscita.

Non son certo che la ragione suggerita da Enzo sia il 100% della risposta, ma non mi sembra da buttar via come punto di partenza. Le resistenze culturali e di potere interne alle "banche" mi sembrano un altro fattore rilevante: l'arrivo degli "esterni" da' fastidio a tutti, specialmente a chi gode di una rendita - e che rendita! - di posizione. Per questo ho raccontato la mia esperienza, sarei curioso di conoscerne altre, analoghe od opposte. Come ho detto, in Spagna l'esperienza e' stata diversa da quella italiana, ma la diffidenza verso gli accademici rimaneva. E qui aggiungo un terzo fattore: la pazienza/capacita' di "capire". Il banchiere con cui si interagisce vuole soluzioni rapide che lui riesca a capire. Non si rende conto che, da un lato, le cose "pratiche" che usa sono il prodotto di ricerche durate decenni ed ora maturate e, dall'altro, quelle cose "pratiche" le capisce perche' gliele hanno spiegate. Con un po' di pazienza e di sforzo forse capisce anche quelle nuove e, forse, prova a sperimentare e vedere se funzionano. L'accademico, dal lato opposto, non e' sempre il massimo della chiarezza e/o praticita', ed anche questo non aiuta.

Infine, rinnovo il quesito che mi interessa. Siete davvero convinti che la soluzione consista nel trovare modelli statistici "migliori" e piu' sofisticati? Per quale ragione le osservazioni del passato dovrebbero dirci qual'e' la "frequenza attesa" di un altro ottobre 1987 o di un altra crisi asiatica? Non vi sembra rivelante che, se guardiamo anche solo agli ultimi vent'anni non c'e' stato un fattore di crisi uguale all'altro? Provate a far l'elenco: ottobre 1987, junk bonds fine 80 ed inizio 90, svalutazione messicana del 95, bolla immobiliare giapponese e nikkei, crisi asiatica, crisi russa e ltcm, argentina, dot-com bubble, sub-prime mortgages ... di certo me ne sono scordato qualcuna, ma il punto non cambia: dov'e' la stazionarieta' del 'data generating mechanism' sottostante? Aggiungo di piu': in un mondo di innovazione costante e di creazione continua di nuovi mercati, fattori di rischio, strumenti e strategie di assicurazione e/o assunzione di rischio, perche' mai dovremmo credere che la distribuzione di probabilita' degli eventi "estremi" rimanga invariata?

 

 

 

Infine, rinnovo il quesito che mi interessa. Siete davvero convinti che

la soluzione consista nel trovare modelli statistici "migliori" e piu'

sofisticati? Per quale ragione le osservazioni del passato dovrebbero

dirci qual'e' la "frequenza attesa" di un altro ottobre 1987 o di un

altra crisi asiatica? Non vi sembra rivelante che, se guardiamo anche

solo agli ultimi vent'anni non c'e' stato un fattore di crisi uguale

all'altro? Provate a far l'elenco: ottobre 1987, junk bonds fine 80 ed

inizio 90, svalutazione messicana del 95, bolla immobiliare giapponese

e nikkei, crisi asiatica, crisi russa e ltcm, argentina, dot-com

bubble, sub-prime mortgages ... di certo me ne sono scordato qualcuna,

ma il punto non cambia: dov'e' la stazionarieta' del 'data generating

mechanism' sottostante? Aggiungo di piu': in un mondo di innovazione

costante e di creazione continua di nuovi mercati, fattori di rischio,

strumenti e strategie di assicurazione e/o assunzione di rischio,

perche' mai dovremmo credere che la distribuzione di probabilita' degli

eventi "estremi" rimanga invariata?

Questo e' vero, ma aggiustare tutte le volte il modello con modifiche ad hoc non consente di fare alcuna predizione: al massimo permette di "spiegare" il passato, il che puo' essere consolatorio ma non evita disastri futuri. Ed e' forse per questo che soluzioni svincolate dal particulare risultano anche esteticamente piu' seducenti, specialmente se derivano da principi di natura generale (come il MaxEnt che menzionavo in un precedente commento). Poi ovviamente alla fine della giornata the proof of the pudding is in the eating, come per tutte le teorie.

 

Forse ha

seguito il consiglio dato da Paul Krugman a chi vuole

far l'editorialista ed avere successo di pubblico: "Adopt the stance of

rebel: There is nothing that plays worse in our culture than seeming to be

the stodgy defender of old ideas, no matter how true those ideas may be". A

giudicare dal devoto seguito che tanto l'uno quanto l'altro si sono costruiti tra bloggers, recensori su

riviste e compratori di bestsellers, la tattica funziona; quanto a coglierci nel

segno, è un altro discorso.

Infatti Taleb è in malafede, perché sa benissimo che quello che scrive non è vero. Ad esempio quando scrive

"Dynamic hedging assumes no jumps – it fails miserably in all markets

and did so catastrophically in 1987 (failures textbooks do not like to

mention)"

A

parte il fatto che il crash del 1987 è menzionato in un bel po' di

libri di matematica finanziaria (basta fare una ricerca su Amazon), ma

ci sono modelli finanziari che tengono conto della possibilità di

"salti", come appunto il crash dell'87 (jump diffusion models). E

questo Taleb lo sa bene. Uno dei libri che sto usando in questo periodo

(The Volatility Surface

di Jim Gatheral), ha una sezione sui modelli di jump diffusion (JD) e

una prefazione entusiasta dello stesso Taleb, che dichiara di aver

seguito tutto il corso del suo collega, sui cui appunti è basato il

libro. Forse Taleb preferisce ignorarlo perché l'idea del primo modello

di JD venne a Robert Merton, una delle sue bestie nere, nel 1975.

I modelli di JD associano al solito processo lognormale di Black e Scholes (BS) un processo di Poisson associato con salti discontinui. Il processo che risulta è un processo di Lévy.

Questi processi hanno una proprietà interessante: le distribuzioni di

probabilità degli incrementi sono "infinitamente divisibili". Questo

significa che per ogni intero positivo n la distribuzione può essere

rappresentata come quella della somma di n variabili indipendenti e

identicamente distribuite. Vedi qui,

oppure l'articolo citato nella pagina di Wikipedia. Si può dimostrare

che le distribuzioni stabili sono un sottoinsieme di quelle

infinitamente divisibili. I modelli di JD risultano in distribuzioni

dei rendimenti dalle code più spesse, come si può vedere da questi grafici sul libro di Gatheral.

Questi

modelli però non sono molto popolari e sono quasi sconosciuti tra chi

si occupa di risk management. Io stesso non sapevo quasi nulla delle

distribuzioni stabili finché ne sentii parlare da te, e fino a poco fa

ne ignoravo le connessioni coi processi di JD. Per quanto riguarda il

front office, ci sono diversi problemi nell'applicazione pratica di

questi modelli. Uno è l'assenza di un prezzo arbitrage-free, come nel

modello di BS. Mentre in quest'ultimo il drift (che è legato alle risk

preferences degli investitori) è irrilevante, nei modelli con "salti"

la martingale measure usata per calcolare il prezzo non è unica. Nel

mondo di BS, se il sottostante S si evolve con un processo stocastico

con misura P, esiste un'unica misura equivalente Q che fa evolvere S

come un martingale.

Nei modelli di JD esiste un'infinità di misure Q di questo tipo, e

quindi un'infinità di prezzi rischio-neutri. La scelta della misura

adatta dipende dalle preferenze di rischio, e non c'è nessuna garanzia

che resti costante nel tempo. Altri problemi sono legati all'evoluzione

del volatility smile.

Un'altra categoria di modelli è quella

della volatilità stocastica (SV), in cui la volatilità segue un

processo di diffusione simile a quello del rendimento, spesso con

reversione alla media (in alcuni modelli si aggiunge la possibilità che

la volatilità possa saltare, o si combina con un modello di JD). Uno

dei più usati credo sia il SABR, che però non è mean reverting e quindi funziona meglio per le maturità vicine.

Una buona fonte per i modelli di JD dovrebbe essere il libro di Rebonato, Volatility and Correlation, che non ho ancora avuto occasione di leggere.

 

 

 Bell'articolo di Martin Wolf sul sistema bancario. Ricco di dati (banali per gli esperti, temo, ma pieno di spunti...)

 

http://www.ft.com/cms/s/0/3da550e8-9d0e-11dc-af03-0000779fd2ac.html?nclick_check=1

 

 

Bell'articolo di Martin Wolf sul sistema bancario. Ricco di dati (banali per gli esperti, temo, ma pieno di spunti...)

 

Disponibile con accesso gratuito p.es. qui e, completo di grafici, qui (thank you, Google! :-) )