• |
  • |
  • Edición Impresa

La revista The Economist (abril 6, 2019) pregunta qué pueden hacer los economistas al toparse con resultados inesperados y, a veces, catastróficos que provienen de simples interacciones de mercado. En realidad, si hay algo evidente son las turbulencias financieras: amplias fluctuaciones de precios, colapsos empresariales, especuladores insaciables. La sabiduría convencional conoce estos resultados como excepciones a la regla, como sucesos exóticos, es decir, sucesos imprevistos de muy baja probabilidad de ocurrencia. Ejemplos fueron las crisis financieras y cambiarias de los años 90, el derrumbe del Dow Jones en octubre de 1987, el del Long Term Capital Management, el de la burbuja tecnológica. Pero el derrumbe más importante se dio en la crisis de 2007-08, que aún espera una explicación.

Ante tantas fallas de mercado es importante indagar los métodos que ha utilizado la industria financiera cuando elabora sus pronósticos. En términos generales, para explicar el mundo se han utilizado dos tipos de versiones, una es la versión del Jardín del Edén y la otra versión se conoce como la Caja Negra. En el Jardín del Edén todo está determinado, nada se mueve sin la voluntad de Dios, no hay margen para la incertidumbre. En la versión de la Caja Negra, el mundo es totalmente probabilístico, no hay nada seguro dado que las causas son siempre oscuras y la información es limitada. Al principio, la industria financiera usaba métodos deterministas, el primero se conoce como el de los fundamentos. Con este método se analizaba el desempeño de las empresas y el clima económico. Después se desarrolló el método técnico, que busca reconocer patrones de comportamiento mediante el análisis de precios, volúmenes y gráficos, eran los “chartistas”. El método unas veces funcionaba, otras veces no. Era muy riesgoso inve
rtir enormes cantidades de dinero en una especie de “astrología financiera”. Se sabía que el problema era la evaluación del riesgo y esos métodos no podrían ser la base de la construcción de un sistema global de riesgo. Aún en el Jardín del Edén nunca se previó el riesgo de la desobediencia.

De esta secuencia nacieron las finanzas modernas cuando se empezaron a utilizar las probabilidades. El concepto básico fue: los precios no son predecibles, pero sí lo son sus fluctuaciones. El formulador del riesgo fue Louis Bachelier, quien hizo famosa la idea de proceso o paso aleatorio. La idea postula que los precios suben y bajan con igual probabilidad, idea que más tarde formalizó Eugene Fama de la Universidad de Chicago dando nacimiento a la “hipótesis del mercado eficiente”. La hipótesis sostiene que en un mercado ideal toda la información relevante del pasado, del presente y del futuro se contiene en el precio de los activos financieros. Los cambios de precios son independientes y están “normalmente” distribuidos, o sea, su distribución es simétrica alrededor de una valor promedio conocido como la media. La información de cualquier activo solo requiere de dos variables: la media y la desviación estándar. La gráfica de los movimientos de precios presenta una forma de campana, que responde a las propie dades de la curva de Gauss, los numerosos cambios pequeños se agrupan en el centro de la campana, los cambios grandes y excepcionales se distribuyen en la cola de la campana.

Sin embargo, en un muestreo hecho por Duke University, en 1999, se descubrió que las grandes corporaciones estimaban su costo de capital utilizando un modelo que llamaban “Capital Asset Pricing Model”. Este modelo sostiene que el rendimiento de un activo compensa a los inversionistas por el riesgo de dicho activo en un portafolio perfectamente diversificado. Se trata entonces de medir el riesgo no de un activo sino de un stock en un portafolio. El problema era evaluar el riesgo de un stock, es decir, un paquete de activos financieros. La rentabilidad se predice estimando el flujo de dividendos y la varianza se podía predecir con la curva normal al analizar el desempeño del activo en el pasado. Sin embargo, el riesgo de un portafolio es más complicado. Correspondió a Harry Markowitz dar la respuesta y consistió en combinar un activo que subiera con otro que bajara. Al combinar activos no correlacionados se minimizaba el riesgo dando origen al concepto de “portafolio eficiente”. Markowitz, James Tobin y otros transformaron el acto de inversión en una ingeniería financiera, en la que se combinaba la media, la varianza y la aversión al riesgo.

No obstante, persistían los problemas. La curva normal no es muy segura para estimar el riesgo de mercado. Segundo, el diseño de portafolios eficientes requiere buenos pronósticos de ganancias, precios de activos y volatilidad para miles de activos. Finalmente, para cada activo hay que estimar la covarianza, es decir, cómo fluctúa un activo en relación a otro. Y como los precios cambian, el ejercicio hay que repetirlo constantemente, lo que estaba más allá del poder de computación. La respuesta la dio William Sharpe con la simplificación del portafolio. Con el modelo de Markowitz no habrían tantos portafolios eficientes como inversionistas, sino uno solo para todos. Si las fluctuaciones evidenciaban un portafolio más rentable los inversionistas lo seleccionarían abandonando el primero, así habría un solo portafolio de mercado. ¿Pero a qué se le va a llamar mercado, al Dow Jones con 30 activos industriales o al ‘estándar and poor’ con 500? También están los bonos del Tesoro cuyo riesgo es nulo. En el largo plazo, los T-Bills rentaban 3.8% y el mercado accionario pagaba 13%, pero con fuerte volatilidad, brecha conocida como premio al riesgo de mercado y es lo que hay que pagar para atraer a los inversionistas aversos al riesgo. La volatilidad de un activo respecto al mercado es su riesgo. Aún quedaba un último punto para formalizar una moderna teoría financiera: cómo evaluar el premio de mercado. Les correspondió a Black y Scholes la respuesta y también a Merton.

En 1973, se inauguró un nuevo mercado, el de las opciones que junto con los ‘swaps’ y los futuros forman el genérico de los derivados. La valoración de una opción requiere del tiempo, la volatilidad y la brecha entre el precio de compra de la opción y el precio corriente de mercado. El precio de la opción es más costoso a medida que la brecha es más reducida. Las opciones con un precio de compra por encima del precio de mercado son las más baratas, pero con una alta rentabilidad potencial, es decir, a mayor violencia en la volatilidad mayor es la ganancia esperada. El cálculo de la volatilidad es un ingrediente fundamental en los precios de la opción y se puede derivar del pasado de dichos precios. Y esta fue una de las fallas de la fórmula de Black y Scholes, ya que supusieron que la volatilidad de un activo era conocida y fija. El problema con las opciones es que son muy sensibles al desorden y a la aleatoriedad. Hay opciones que aumentan de valor con el desorden. Con todo y todo, la fórmula se convirtió en dogma en la industria financiera.

Como puede observarse se formó una cadena de razonamiento: la varianza es un buen indicador del riesgo si la curva normal describe correctamente el movimiento de precios, Sharpe y su costo de capital hacen sentido si Markowitz está en lo correcto e implica también la validez de Bachelier; y Black y Scholes son válidos dependiendo de si la curva normal es relevante y los precios se mueven en forma continua.

La gran recesión de 2008 llevó al convencimiento de que algo no funcionaba y de que se requerían nuevas ideas. En el próximo artículo se explorarán las fallas de la moderna industria financiera y el modelo alternativo que sale de las brumas de la teoría cuántica y de la teoría del caos.