Translate

venerdì 28 novembre 2014

HIGH FREQUENCY TRADING: CO -LOCATION, PROXIMITY CENTRAL HOSTING, CENTRAL PROXIMITY HOSTING E LA RICERCA DELLA VELOCITA' SUPREMA. L' ÉLITE FINANZIARIA E' QUI! PT2

Come si fa a stabilire se un operatore sia o meno un HFT? Come spiega la Consob nel suo Discussion Paper del 2012 “Il trading ad alta frequenza”, esisto 3 diverse modalità identificative:
  1. diretta, sulla base delle indicazione fornite dalla piattaforme di negoziazione; si tratta per lo più di soggetti (o sistemi) impegnati nel trading proprietario;
  2. indiretta, sulla base delle caratteristiche operative dei traders esaminati; ad esempio elevato order to trade ratio, elevatissimo numero di operazione giornaliere, conclusione della sessione di trading intraday in posizione flat, margini di profitto per singola operazione molto contenuti, ecc.
  3. basata sulla qualificazione delle strategie utilizzate; il che presupporrebbe l'analisi dei flussi di ordini immessi, modificate e cancellati e le relative frequenze (pratica particolarmente complessa e dispendiosa).
F.J. Fabozzi, S. M. Focardi e C. Jonas (2010) High Frequency Trading: Methodologies and Market
Impact, definiscono l'HFT come: «Una tipologia di trading completamente automatizzato (della famiglia del trading algoritmico) in grado di eseguire una moltitudine di calcoli in pochissimo tempo; dispone d un collegamento con il mercato estremamente rapido, analizza dati tick – by – tick avvalendosi di infrastrutture tecnologiche e informatiche in grado di eseguire operazioni in un arco temporale di pochi millisecondi. Un sistema ad alta frequenza è progettato in modo tale da eseguire le proprie strategie in maniera autonoma, analizzando il mercato e trasmettendo migliaia di messaggi di acquisto e vendita al secondo e inserendo contestualmente ordini di esecuzione, di cancellazione o di sostituzione che si adattano immediatamente al flusso informativo disponibile. L’obiettivo principale di un sistema ad alta frequenza è di identificare e trarre vantaggio da rapidi
sbilanciamenti di liquidità o da inefficienze dei prezzi di brevissima durata; solitamente chiude la
giornata di contrattazioni flat».
Nella Deutsche Bank Research (febbraio 2011), High Frequency Trading, Better than its reputation?, il trading algoritmico è definito come segue: «Un metodo di trading i cui parametri sono determinati da uno specifico set di regole con lo scopo di automatizzare le decisioni di investimento, eliminando la componente emotiva e comportamentale. Gli algoritmi di trading tipicamente specificano timing, prezzo, quantità e ruotine degli ordini, monitorando le condizioni del mercato in maniera continua».
Nel post precedente abbiamo potuto vedere come una delle caratteristiche che differenziano l' HFT dal trading ordinario e da quello meramente algoritmico, sia proprio la bassa latenza (low latency); un altro tratto distintivo è qui individuabile nella co - location. Cerchiamo di capire un po' cosa sia la co-location: sappiamo che la velocità del segnale (inteso proprio quale segnale elettronico trasmesso nella fibra ottica) impiegato nel trading ad alta frequenza, così come la velocità di produzione e trasmissione del segnale di risposta (output), generato dagli elaboratori in reazione agli input provenienti dal mercato e dalla massa di informazioni price sensitive, costituiscono aspetti fondamentali per qualsiasi high frequency trader. Tuttavia, per quanto un pacchetto di dati possa viaggiare alla velocità massima consentita dalla fisica moderna -vale a dire quella della luce- e per quanto sia possibile utilizzare l'hardware più veloce al mondo, il tutto deve fare i conti con una variabile parte integrante dello scenario analizzato: la distanza (ovvero lo spazio). Ciò significa che in un'ipotetica corsa -tra due operatori- all' ottenimento del miglior prezzo di acquisto o vendita, a parità di velocità disponibile in entrata ed in uscita, l'operatore fisicamente più distante dal server della piattaforma di negoziazione prescelta (ipotizzata comune ad entrambi) arriverà secondo, il che può significare che dovrà accontentarsi di un prezzo diverso (e probabilmente meno conveniente) da quello visualizzato qualche millesimo di secondo prima. A questo punto, proviamo a rispondere alla seguente domanda: cosa fanno gli HFT per ridurre il problema delle distanze, intese in senso fisico? Sfruttano il servizio commerciale -cioè a pagamento- di co -location offerto dalle stesse piattaforme di negoziazione (London Stock Exchange, NYSE Euronext, Nasdaq, Dax e così via), le quali danno l'opportunità ai traders ad alta frequenza o ai soggetti interposti (cioè i data vendors) di prendere in locazione spazi detti racks, presso i quali posizionare i propri server, che in tal modo risultano essere molto molto vicini -fisicamente- a quelli delle medesime piattaforme, con conseguente ulteriore contrazione dei tempi di ottenimento degli e di risposta agli input di mercato e ulteriore vantaggio -in termini di sfruttamento di finestre di prezzi visualizzabili per pochi secondi o per pochi millesimi- rispetto a coloro i quali, pur essendo dotati di infrastrutture hardware e software particolarmente veloci, non utilizzino servizi di tale natura. Può un HFT sfruttare contemporaneamente “il fattore vicinanza” su più piattaforme di negoziazione (e quindi trovarsi contemporaneamente nelle prossimità dei server delle stesse?). Sì, attraverso la multiple co – location: i server utilizzati dal trader per il funzionamento degli algoritmi sono posti in prossimità di quelli delle varie piattaforme, anche molto lontane le une dalle altre, potendo la co-location multipla verificarsi al contempo, ad esempio, su Milano e New York, New York e Tokio e così via. Distinto dalla co-location è il fenomeno del “proximity central hosting”: in tal caso i racks non sono offerti dalle piattaforme di negoziazione ma da soggetti terzi i quali dispongono di grandi centri dati realizzati nelle vicinanze dei server delle piattaforme. I traders, quindi, operano sulle piattaforme solo tramite l'interposizione dei centri dati, mentre talvolta si spingo a posizionare i loro server in modo tale che risultino equidistanti dalle piattaforme di più sedi di negoziazione (cd. “central proximity hosting”); anche laddove non fossero offerti servizi aventi le caratteristiche di cui sopra gli HFT tenderebbero ad installare materialmente i propri server nelle vicinanze di quelli dei mercati sui quali si rendono operativi, restando prioritario l'obiettivo di contenimento della latenza.



Quando nella primavera del 2007 il fenomeno del trading ad alta frequenza cominciò a dar segni di vita, molti dei traders istituzionali che non ne conoscevano l'esistenza o che non ne comprendevano il funzionamento, si trovarono in grosse difficoltà. Perché? Praticamente che cosa accadeva? Ciò che appariva sullo schermo in termini di quantità acquista/venduta, prezzo di acquisto/vendita, spariva semplicemente nel millesimo di secondo posteriore all'atto di immissione dell'ordine, che restava dunque non eseguito: può sembrare banale, ma per chi sta seduto al trading desk di un qualsiasi operatore di mercato, questo evento può rappresentare -potenzialmente- un grosso problema, specie se si è un market maker che offre liquidità al mercato, subordinando -com'è ovvio che sia- tale decisione alla possibilità di prezzare con certezza lo strumento finanziario in relazione al quale detta liquidità fornisce. Proviamo a fare un esempio: sappiamo che il market maker si interpone tra chi vuole acquistare e vendere grossi quantitativi di titoli ed i mercati presentanti volumi molto più ridotti; immaginiamo che un soggetto intenda vendere 2 milioni di azioni della Coca Cola laddove i mercati mostrino una domanda per sole 500.000 azioni; il market maker acquisterebbe (come di solito fa) tutti e 2 i milioni di titoli in vendita,venderebbe  immediatamente le 500.000 azioni richieste in quel momento sui mercati e lavorerebbe artatamente per vendere il milione e mezzo di titoli restanti, nelle ore successive. Nel momento in cui i prezzi di acquisto/vendita sparivano all'atto di immissione dell'ordine, il market maker non era in grado di prezzare il blocco di titoli più grande, riducendo la sua disponibilità ad offrire liquidità in condizioni di bassi volumi, non potendo stabilire i costi potenziali – e dunque i rischi-di tale modalità operativa. Facciamo un passo indietro: sino al 2002, limitatamente al mercato americano, l'85% circa degli scambi sull'azionario era rappresentato dalle negoziazioni condotte sul New York Stock Exchange, dove gli ordini erano processati da veri e propri esseri umani. Le azioni che non erano ivi negoziate, lo erano sul Nasdaq; nessuna lo era -contemporaneamente- su entrambi i listini. Nel 2005 la SEC diede il via libera alla concorrenza tra le piattaforme di negoziazione, sia esistenti sia in procinto di nascere in virtù di detta novità regolamentare. Virtualmente, ogni azione poteva essere negoziata su tutti questi nuovi “mercati”: in altri termini, sarebbe stato possibile acquistare un'azione della Microsoft sul New York Stock Exchange, sul Nasdaq, sul Nasdaq BX, sul BATS e così via. Nello stesso momento in cui la concorrenza ebbe inizio, la figura dell'essere umano sul trading floor cominciò ad essere fortemente ridimensionata, in quanto divenuta sostanzialmente inutile. Lo scambio, le negoziazioni sul Nasdaq o su qualsiasi altra piattaforma, avveniva per il tramite di un insieme di server sui quali girava il programma noto col nome di Matching Engine. Chiunque avesse voluto vendere o acquistare non avrebbe dovuto e potuto più dialogare con l'uomo, bensì con la macchina: avrebbe dovuto limitarsi ad introdurre un ordine sul proprio pc ed inviarlo al Matching Engine. Unitamente all'evoluzione tecnologica, sì è potuta osservare quella del modello di business delle varie piattaforme. Infatti, sino al 2007 i mercati regolamentati facevano pagare -ad ogni broker di Wall Street che avesse immesso un ordine di acquisto/vendita- la stessa commissione fissa per singola azione negoziata. Dopo aver rimpiazzato l'uomo con la macchina, molte cose divennero più complicate; questa complicazione ha il nome di maket-taker model.
Ipotizziamo che un investitore intenda acquistare delle azioni Microsoft, quotate 100,00 – 100,05 (bid/ask). Egli ha due opzioni: entrare subito nel mercato e comprarle a 100,05, dando luogo al fenomeno noto come “crossing the spread” o “ attraversamento dello spread (bid/ask)” oppure non acquistarle subito e aspettare che qualcuno gliele offra a 100,00. Nel primo caso assume il ruolo di taker, nel secondo di maker. In generale, i mercati fanno pagare un tot per azione ai takers, mentre remunerano con qualcosa in meno i makers, intascandosi la differenza tra quanto ricevuto dai primi e pagato ai secondi, sulla base della controversa teoria che vede questi offrire una sorta di servizio al mercato tutto, decidendo di non attraversare lo spread. Tuttavia, sussistono delle eccezioni: il BATS EXCHANGE, ad esempio, faceva pagare i makers e remunerava i takers. 
Foto tratta da:  motherboard.vice.com

sabato 22 novembre 2014

ALLA SCOPERTA DELL'HIGH FREQUENCY TRADING (TRADING AD ALTA FREQUENZA). L' ÉLITE FINANZIARIA E' QUI! PT 1

Cari amici,
chiedo scusa per la lunga assenza ma sono impegnato in un tirocinio formativo presso un giudice penale: si tratta di un'esperienza molto interessante ed al contempo impegnativa. Nei momenti liberi che riuscirò a preservare cercherò di parlare di una tematica che -visti anche gli insights sulle query di ricerca del blog- reputo molto interessante, vale a dire quella inerente l'high frequency trading. Partirò dalle definizioni di base per poi approfondire nel tempo l'argomento, impiegando un linguaggio il più possibile accessibile a tutti (e non solo agli addetti ai lavori). Qui avevo già trattato il tema con riferimento al mercato dell'oro. 
Mi permetto di consigliare due letture di base, veramente ben fatte e dalle quali trarrò spunto per introdurvi questo spaccato del mondo finanziario:
  1. Il trading ad alta frequenza. Caratteristiche, effetti, questioni di policy, di V .Caivano, S. Ciccarelli, G. Di Stefano, M. Fratini,G. Gasparri, M. Giliberti, N. Linciano, I. Tarola, CONSOB 2012.
  2. High Frequency Trading: una panoramica, di Alfonso Puorro, Banca d'Italia 2013.




L'High Frequency Trading (di seguito HFT) rappresenta il prodotto della fusione di due mondi, di due anime: quella finanziaria e quella della tecnologica più raffinata. Il punto di partenza è rappresentato dagli algoritmi informatici che -grazie ad un hardware e ad un software sempre più sofisticati- acquisiscono un'immensa mole di dati -provenienti dai mercati- in tempo reale, fornendo come output ordini di acquisto e/o di vendita di strumenti finanziari. Essi hanno quindi come input, prezzi, variazioni assolute e percentuali degli stessi su diversi time frames, news di mercato, market movers e come output, immissioni, modifiche e cancellazioni di ordini buy and/or sell. Dove vengono immessi questi ordini? Sulle piattaforme di negoziazione, dette trading venues. Da un punto di vista meramente teorico, non bisogna confondere l'HFT con il Trading Algoritmico, poiché il primo è compreso nel secondo, vale a dire ne costituisce un sottoinsieme essendo possibile osservare anche un trading algoritmico non ad alta frequenza. Quali sono le caratteristiche che differenziano maggiormente l' HFT da quello algoritmico non HFT e da quello ordinario, magari retail? La più rilevante è sicuramente la low latency (bassa latenza), cioè il bassissimo (nell'ordine di qualche millesimo di secondo) lasso di tempo intercorrente tra l'acquisizione da parte dei calcolatori dei dati di input, la loro elaborazione e la produzione di una risposta, di un output consistente in un'immissione, modifica, cancellazione di ordini di acquisto/vendita. Il ridottissimo tempo di risposta agli input, consente di realizzare migliaia di operazioni  (fino a 5000) al secondo (output) in un contesto di costante raffinamento dei dati acquisiti in tempo reale, volto ad adeguare le strategie operative all' incessante mutamento delle condizioni dei mercati. Dall'elevata operatività è possibile desumere un'altra caratteristica connotante l'universo dell'HFT: l'alto livello dell'order-to-trade ratio. Che cosa vuol dire? Poiché molti degli ordini immessi nelle trading venues sono cancellati dagli stessi operatori subito dopo (per una serie di motivi che andremo ad illustrare in altri posts), quelli effettivamente negoziati non sono che una frazione dei primi. Tutto ciò è possibile solo in presenza di hardware e software aventi un'elevata potenza di calcolo ed è proprio questa un'altra qualità che consente di differenziare l'HTF per lo meno dal trading retail, necessitante di un semplice pc, di una connessione ADSL comune e di un conto trading. L'alto Order to trade ratio, ci segnala un altro aspetto operativo interessante: gli HFTraders tendono ad operare quasi esclusivamente nel contesto del trading proprietario e su mercati altamente liquidi in grado di rispondere tempestivamente e positivamente ai loro buy/sell orders, le cui mole generano un turnover del portafoglio giornaliero sconosciuto sia ai traders retail che a quelli algoritmici non ad alta frequenza, variando il tempo di permanenza dei titoli nei conti degli HFTr da pochi secondi ad alcuni minuti. Questi, inoltre, realizzano profitti molto esigui per singola operazione, ma che moltiplicati per il numero totale delle stesse, assumono dimensioni notevoli. L' HFT non nasce all'improvviso, essendo viceversa possibile scorgere un precursore nel fenomeno dei SOES bandits sviluppatosi nella prima metà degli anni '90. Il SOES permetteva l'esecuzione automatica di piccoli ordini di acquisto/vendita e grazie ad esso i traders realizzavano qualche centinaia di operazioni al giorno, al fine di sfruttare minime oscillazioni di prezzi oppure i ritardi dei market makers nell'aggiornamento dei prezzi bid/ask relativamente al mercato azionario e nello specifico sul Nasdaq. L'HTF ne rappresenta in un certo senso l'espressione evolutiva, sviluppatasi in un ambiente tecnologico e regolamentare ad esso particolarmente favorevole. Dal 2007 in poi, centinaia di milioni di dollari cominciarono ad essere investiti negli USA per la costruzione di quelle infrastrutture da porre a servizio degli HFTr e per la posa di fibra ottica volta a collegare tutti i principali mercati, nel minor tempo possibile. Basti pensare alle grandi manovre e ai grandi scavi edili finalizzati a connettere uno dei più importanti data center finanziari presente nella parte sud di Chicago (e successivamente spostato ad Aurora, Illinois, fuori Chicago) con una mercato azionario posto sul versante nord del New Jersey. Per quale motivo? Perché tutta l'élite finanziaria sapeva bene quanto fosse straordinariamente profittevole il trading su futures quotati a Chicago contro i prezzi corrispondenti -a livello temporale- delle singole azioni negoziate a New York e New Jersey; in pratica sapevano quanto fosse profittevole porre in essere operazioni di arbitraggio tra i prezzi dei futures e delle azioni, sfruttando le migliaia di occasioni giornaliere in cui essi risultavano disallineati. In altri termini, potevano vendere i futures ad un prezzo maggiore rispetto a quello al quale venivano quotate le azioni sottostanti: per farlo, però, necessitavano di velocità e più precisamente necessitavano di essere i più veloci su entrambi i mercati. Prima del 2007, la velocità delle operazioni di trading era funzione della velocità con cui gli esseri umani presenti sui floors dei vari mercati riuscivano ad eseguirle. Dal 2007 in poi, non fu più cosi: la velocità di esecuzione non dipendeva più dalle capacità umane, ma da quanto velocemente potesse viaggiare il segnale elettronico tra Chicago e New York o, più precisamente, tra il data center presente in Chicago ed ospitante il Chicago Mercantile Exchange ed il data center posto di fianco a quello del Nasdaq Stock Exchange in Carteret, New Jersey. La velocità della luce avrebbe dovuto consentire ai dati di viaggiare tra le due località, andata e ritorno, in 12 millisecondi, ma nessuna delle linee di fibra ottica esistenti garantiva questi risultati: mediamente un pacchetto di dati veniva trasmetto ad una velocità di 16 millisecondi (solo utilizzando la linea di Verizon nota col nome di Gold Route si riusciva ad impiegare di meno, 14,6 millisecondi). L'obiettivo di creare delle reti di fibra ottica ancora più veloci fu -nel caso di specie- pienamente raggiunto dalla Spread Networks, la quale riuscì a scendere sotto la soglia dei 14 millisecondi (a 13 per la precisione) investendo centinaia di milioni di dollari al fine di posare la fibra ottica più dritta di tutte (l'assenza di curve e tornanti garantisce infatti una maggiore velocità del segnale) da locare alle grandi banche e ai vari hedge fund sempre più attivi nel settore dell' HFT, alla modica cifra di 300.000 dollari al mese oppure con contratti “all -in” pagati in anticipo su base quinquennale per circa 14 milioni di dollari, per singolo utente. A tanto ammontava -inizialmente- il prezzo che le grandi banche d'affari di Wall Street ed i grandi fondi di investimento erano disposte a pagare non solo per continuare a disporre del diritto di fare più soldi di quanti ne abbia fatto precedentemente chiunque altro, ma altresì per impedire che i potenziali competitors potessero accedere a quella risorsa scarsa: la velocità suprema. Un'ultima cosa, per adesso: secondo Larry Tab, autore di uno scritto intitolato “ The Value of a Millisecond”, se -all'epoca- una sola delle grandi banche di Wall Street avesse sfruttato le innumerevoli minuscole discrepanze presenti tra i prezzi del future sull' Azione X quotato a Chicago e quelli della medesima azione quotata a New York, avrebbe conseguito profitti nell'ordine dei 20 miliardi di dollari annui. Ma gli squali intenzionati a contendersi la preda erano ben 400, laddove la nuova fibra ottica ne ammetteva solo 200. La corsa o meglio l'asta per accaparrarsi un posto sul mezzo che viaggiava alla velocità della luce, era appena iniziata. 

Foto tratta da: http://www.thebureauinvestigates.com/

domenica 2 novembre 2014

STRUTTURE OFFSHORE: IL PUNTO DI VISTA DI STEPHEN E. SHAY, PROFESSOR OF PRACTICE, HARVARD LAW SCHOOL, SUL SISTEMA GIURIDICO AMERICANO

La combinazione tra il differimento delle imposte USA sugli utili conseguiti e reinvestiti ad aliquote estere basse e le correnti deduzioni consentite per le spese che contribuiscono alla realizzazione di detti redditi “differiti”, rappresenta un forte incentivo a traferire il reddito presso località offshore. Appena il reddito è differito, entrano in gioco una serie di regole che impediscono ad una CFC di rendere disponibili al proprio gruppo societario residente in America i proprio profitti offshore, attraverso la tassazione della distribuzione o il consolidamento del reddito estero. L'obiettivo di queste norme è quello di proteggere la base imponibile statunitense, impedendo che una multinazionale USA faccia uso dei profitti non tassati dalle autorità locali, nell'ambito del proprio business ivi localizzato. Esse, inoltre, dovrebbero ridurre il vantaggio che una multinazionale avrebbe competendo contro una realtà produttiva locale priva dell'opportunità di conseguire redditi in low tax jurisdictions. Le norme sul Transfer Pricing contenute nella Sezione 482, cercano di assicurare che i contribuenti riflettano chiaramente il reddito attribuibile alle controlled transactions e di prevenire l'elusione di imposte con riferimento a dette transazioni. Esse tentano di collocare le transazioni del contribuente controllato su di un piano di parità fiscale rispetto a quelle poste in essere dal non controllato.



Limitatamente la caso Microsoft, il Prof. Shay ha riassunto una serie di dati aggregati tratti dalla documentazione di informazione finanziaria parzialmente consolidata, inerente le società presenti in Irlanda, Singapore e Porto Rico. Nell'anno fiscale 2011, Microsoft presentava ricavi complessi pari a $ 69,9 miliardi, utili ante imposte pari a $ 28 miliardi, un numero di dipendenti pari a circa 90.000 unità ed un global tax rate contabilmente pari al 17,5%. In base quanto risulta dal suo bilancio consolidato, nello stesso anno le società residenti in Irlanda, Singapore e Porto Rico, hanno -combinatamente- conseguito utili ante imposte per circa $ 15,4 miliardi o circa il 55% del complessivo EBT. Il tax rate medio per queste società -almeno dal punto di vista della documentazione disponibile- risultava pari al 4%. Al fine di fornire un'indicazione significativa sul punto, si potrebbe osservare come la multinazionale occupava in questi Paesi circa 1.900 lavoratori sui 90.000 totali; i 1.914 dipendenti contribuirono a realizzare $ 15,4 miliardi di EBT (quindi circa $ 8 milioni a testa), comparati con la media complessiva dei restanti dipendenti Microsoft, pari a $ 312.000,00. Il docente dichiara di non avere informazioni così dettagliate da poter generare una visione in grado di dissipare i dubbi sulla conformità o meno della situazione descritta con le vigenti norme in materia di transfer pricing, ma sia nell'uno che nell'altra ipotesi i dati riportati nel presente scritto non sembrano essere coerenti con il senso comune della logica considerando “dove” veniva effettivamente condotta la reale attività economica dai restanti 90.000 dipendenti. La motivazione fiscale nella localizzazione del reddito in Irlanda, Singapore e Porto Rico è -secondo il docente- abbastanza evidente. L'incentivo per le multinazionali a trasferire all'estero il proprio reddito aumenta quando essere riescono ad usare gli utili “differiti” per investimenti realizzati negli USA. Le norme sul punto costituiscono un vero e proprio firewall: esse permettono di continuare a godere del beneficio del differimento quando i relativi utili offshore siano investiti in attività offshore o in un portafoglio di investimenti in attesa di reimpiego all'estero; nello stesso tempo esse sono strutturate in modo tale di evitare che le multinazionali prima beneficino del deferral legato al proprio business offshore e poi usino gli utili pre U.S. Tax nel business domestico.
Foto tratta da: it.123rf.com