quarta-feira, 29 de julho de 2009

Quando algoritmos de alta frequência viram editorial do New York Times

Paul Wilmott é um dos papas da aplicação de métodos quantitativos em finanças (isso não deveria ser de interesse de meia dúzia de especialistas? Pois é...), e escreve hoje um dos editoriais do New York Times dizendo que o próximo grande susto nos mercados financeiros pode vir de operações baseadas em algoritmos de alta frequência. Funciona assim: alguém monta um programa que identifica (baseado em dados históricos) certos padrões nos mercados (mesmo que esses padrões durem segundos), e o computador gera milhares de ordens de compra ou venda, lucrando caso esses padrões se repitam. Em tempos normais, esse tipo de transação representa uma fração relativamente pequena do total do volume operado diariamente; desde a crise do final do ano passado, porém, os algoritmos passaram a ocupar um espaço significativamente maior, consequentemente tendo mais poder de influenciar a dinâmica de preços.

O risco, para Wilmott, é de tais algoritmos criarem um espécie de efeito dominó -- tendências que se auto-alimentam -- que voltaria a desestabilizar fortemente os mercados e teria consequências danosas para o restante da economia. Ele cita, como exemplo, a grande queda das bolsas mundiais de outubro de 1987 (quando a bolsa americana perdeu 22,7%), que teria sido causada, em parte, por algumas estratégias baseadas em algoritmos.
Essa discussão já havia sido iniciada há algum tempo nos blogs e sites especializados em finanças (o editorial do New York Times chega atrasado e só confirma uma tendência). O argumento técnico faz sentido: quanto mais o mercado é dominado por estratégias quantitativas, maior a chance de os ativos passarem a adotar padrões de preços que têm pouco a ver com o "mundo real". Entretanto, acho que ela deixa escapar algo maior.
Como diria Bastiat, há o que se vê e o que se não vê, e, geralmente, o segundo é mais importante. O mundo pode se prevenir contra o que se vê e está estampado nos jornais, o invisível e imprevisível tem consequências mais perigosas. Neste caso, o que não está exatamente explícito é que o suposto domínio do mercado por computadores é um sinal de que os demais participantes, sejam eles poupadores, especuladores, empresas, investidores de longo prazo, governos, etc., perderam importância na formação de preços. A consequência é um mercado menos funcional, e, por isso, mais frágil e sujeito a rupturas. Essas rupturas, como o tal outubro de 1987 e tantos outros episódios, são de natureza mais estrutural do que pontual -- as explicações são sempre posteriores e geralmente contam apenas um lado da história (até hoje debate-se o que causou, por exemplo, a crise de 1929) . É natural do ser humano procurar culpados e responsáveis para tentar montar uma história, quando, na verdade, a complexidade de um sistema que envolve tantas interações entre pessoas exige mais estoicismo (aceitar as coisas como elas são) e reflexão. Os algoritmos de alta frequência, por si só, provavelmente não seriam capazes de provocar uma nova de onda de pânico em mercados líquidos; o fato de esta não ser a condição atual é sinal de que muito dinheiro deixou de procurar o mercado financeiro -- seja porque muito capital foi perdido, ou porque não há mais confiança nas regras do jogo, ou por qualquer outro motivo -- e isso é realmente preocupante para o futuro do capitalismo.

Nenhum comentário: