Suerte o talento


La suerte es un factor muy importante en muchos ámbitos y habitualmente tendemos a minusvalorar la relevancia que tiene. Por supuesto que el talento importa, pero los datos muestran que la suerte es muy determinante a la hora de entender el éxito en cualquier actividad.

En este artículo vamos a analizar el caso del éxito inversor, que se presta muy bien a un análisis estadístico, ya que hay decenas de miles de gestores de fondos que aspiran a ser mejores inversores que el resto. En particular vamos a revisar el interesante artículo de Eugene Fama y Kenneth French, publicado en la prestigiosa revista académica Journal of Finance en el año 2010 titulado “Luck versus Skill in the Cross Section of Mutual Fund Returns”.

En este artículo los autores se hacen una pregunta muy relevante: “El número de gestores que tienen muy buenas (o muy malas) rentabilidades, ¿es consistente con la suerte?” Para analizarlo, utilizan datos de fondos de inversión de acciones del mercado estadounidense en el período 1984-2006 y comparan el valor que aporta cada gestor (el “alfa”) con una serie de simulaciones donde el “alfa” real de los fondos es cero.

De manera intuitiva: si se realiza una simulación bajo la hipótesis de que tu alfa real es cero, únicamente por suerte, podría darse el caso de que obtengas una rentabilidad muy positiva. En realidad, no tienes ningún talento, pero has tenido suerte.

El resultado que obtienen Fama y French es muy interesante: teniendo en cuenta las rentabilidades netas para los inversores, los fondos demuestran una falta de talento muy consistente. Esto es, incluso el número de fondos que obtienen rentabilidades espectaculares es menor del que se esperaría por puro azar.

Esto es lo que indica la gráfica a continuación. La lectura del gráfico es relativamente compleja y lo explicamos al final del artículo. Lo que importa es que si la curva de fondos reales (“Actual”) está a la izquierda de la curva de fondos simulados (“Simulated”) entonces los fondos reales tienen un comportamiento peor que el que se esperaría por suerte.


(gráfico neto de comisiones)

La siguiente pregunta es obvia: “¿Cómo es posible que la gran mayoría de los fondos se comporten peor que una simulación que asume que no hay ningún talento? Los lectores asiduos a este blog conocerán la respuesta: las comisiones. En las simulaciones se asume que no hay comisión de gestión (similar a la inversión en un fondo indexado en EEUU que cubre la pequeña comisión de gestión con el préstamo de títulos) y, por tanto, un grupo de gestores sin talento que no cobren comisiones lo van a hacer estadísticamente mejor que la industria de fondos estadounidense.  El aprendizaje es claro: hay que pagar pocas comisiones.

Dicho esto, surge la siguiente pregunta teórica: “Y si añadimos las comisiones, la rentabilidad bruta de los fondos, ¿es consistente con la suerte, o hay buenos y malos gestores? La pregunta es teórica porque a los inversores en fondos solo nos interesa la rentabilidad neta de comisiones, pero no deja de ser una pregunta muy interesante. La evidencia que dan los autores es sorprendente: con rentabilidades brutas (antes de comisiones), hay un mayor número de fondos con rentabilidades elevadas del que se obtendría por suerte, y también hay un mayor número de fondos con rentabilidades bajas del que se obtendría por suerte. Esto se puede observar en el gráfico a continuación:


(gráfico añadiendo las comisiones)

Por tanto, a posterior, se puede afirmar que sin tener en cuenta sus comisiones, hay gestores que aportan valor y otros que los restan. Por supuesto, esto no nos dice nada de como anticipar y poder elegir los que lo van a hacer bien de los que lo van a hacer mal.

Conclusión

La suerte es un factor incontrolable y no se puede contar con ella. En cambio, las altas comisiones son unas termitas que van progresivamente devorando tu patrimonio con toda seguridad y te dejan prácticamente sin opciones de obtener una alta rentabilidad a largo plazo. Por tanto, busca soluciones de inversión como Indexa que minimicen las comisiones para maximizar tu rentabilidad.

Explicación técnica de los gráficos

El gráfico muestra la función de distribución estimada del estadístico t de los alfas “t(α)”. Para medir la calidad de la gestión, se suele utilizar el alfa directamente, pero los autores explican que es mejor utilizar el estadístico t de la estimación del alfa ya que ofrece más robustez. Lo que se explica a continuación es básicamente una traducción del artículo de Fama y French.

El estadístico t(α) es la división entre una estimación del alfa de un fondo y el error estándar de la estimación. Se trata de una medida de la precisión o fiabilidad del alfa estimado de la inversión. Cuando la precisión es baja, el error estándar es alto y viceversa. Dividiendo cada estimación α por su error estándar se obtienen estimaciones ajustadas con precisión que permiten comparaciones significativas entre los fondos.

Por ejemplo, el percentil del 1% de la t(α) para los fondos reales es -3,87, lo que significa que el 1% de los 3.156 fondos de la muestra (32 fondos) tiene estimaciones de t(α) por debajo de -3,87. El percentil del 10% de t (α) para los fondos reales es -2,34, por lo que el 10% (316) de nuestros fondos tiene estimaciones de t(α) iguales o inferiores a -2,34. En el otro extremo de la distribución, el percentil 90% de t(α) para los rendimientos reales es 1,01 o equivalentemente, el 10% de los fondos (316) han obtenido un t(α) superior a 1,01.

Si se ignoran los efectos del azar, el rendimiento de los fondos con estimaciones altas de t(α) parece espectacular. Recuerda que t(α) es la relación entre una estimación α y su error estándar. El error estándar de las estimaciones de α en la muestra de los autores es de 0,28. Por tanto, un valor de t(α) de 1,01 se traduce de media en una estimación del alfa de alrededor de 0,28% por mes o alrededor de 3,36% por año, durante toda la vida del fondo. Los gestores que producen un alfa de 3,36% (316 en la muestra) anual o más por año son ungidos por la prensa y presentados como gestores estrellas. No obstante, esta conclusión es errónea: en la muestra aleatoria, un 16% de los fondos han obtenido un alfa superior al 3,36% (ver gráfico 1), muy superior al 10% de los fondos que lo han obtenido en la realidad.

El análisis técnico es, a todos los efectos, una patraña


El análisis técnico de los mercados financieros, de acuerdo con la Wikipedia, es “el estudio de la acción del mercado, principalmente a través del uso de gráficas, con el propósito de predecir futuras tendencias en el precio.” Una patraña, de acuerdo con la RAE, es una “invención urdida con propósito de engañar”.

Soy consciente que el título es categórico, pero es la realidad, como veremos a continuación. Por alguna razón, cuando se busca en Google el término “análisis técnico” los resultados que aparecen son bastante asépticos con esta “técnica”. Espero que este artículo aparezca en los primeros resultados de búsqueda para que los futuros interesados en esta información tengan otro punto de vista.

Análisis fundamental y análisis técnico

Se han generalizado y equiparado por error el “análisis fundamental” y el “análisis técnico”. El análisis fundamental observa los datos fundamentales de una empresa (ventas, beneficios, balances, etc.) para estimar su valor actual y, si el precio es diferente, identificar oportunidades de compra o venta. No creo que el análisis fundamental sirva para predecir el futuro (porque a futuro pueden pasar muchas cosas que hagan que el valor que has analizado hoy no sea relevante), pero al menos te da una idea de lo que debería valer hoy una inversión.

Cuando un empresario quiere vender su empresa familiar y habla con un banco de inversión para definir la estrategia de venta suelen realizar análisis fundamentales. Nunca he visto que dibujaran en un gráfico los precios históricos y, si el precio estaba subiendo, el banco le recomendara al cliente no vender, porque claro, está en tendencia alcista lo cual significa que va a seguir subiendo.

Por su parte, el análisis técnico dice que, si un activo está subiendo de precio, seguirá subiendo y, si está cayendo, seguirá cayendo. La tendencia es tu amiga (“The trend is your friend”). Mi sensación es que el análisis técnico se ha generalizado por el empuje que le han dado las casas de corretaje que se benefician cuando los clientes realizan operaciones a través de ellos. El análisis técnico tiene la ventaja de que es fácilmente comprensible y puede dar todas las señales de compra o venta que quieras. Si eres un corredor de bolsa es una buena excusa para llamar a tus clientes y recomendarles comprar porque una acción está “en tendencia alcista de acuerdo con el indicador xyz”. Si damos un paso atrás, ¿realmente creéis posible que alguien mirando un gráfico, como si de un lector de manos se tratara, puede predecir la evolución del precio?

Análisis técnico en mercados financieros

Tengo una anécdota muy ilustrativa en este sentido: un día me senté con unos vendedores de software de inversión que generaban señales de compra y venta. Les comenté que en Indexa éramos inversores de largo plazo y que no creíamos que el análisis técnico generara una rentabilidad corregida por riesgo superior a largo plazo. Me dijeron que la idea de sus señales no era esa: era conseguir que los clientes que hacían trading aguantaran más tiempo antes de “arruinarse”.  Me explicó todavía más, porque yo no acababa de entenderlo. Los portales de compraventa de CFDs tenían un problema muy grande ya que sus clientes se arruinaban demasiado pronto, y como la plataforma cobra por operación, arruinar a los clientes no era un buen negocio. Los algoritmos que proponía el software establecían stop-loss y stop-gain para incrementar el número de operaciones por cliente antes de que éste lo perdiera todo. Me pareció el colmo del cinismo, pero por fin había entendido una aplicación práctica del análisis técnico.

La eficiencia débil de los mercados y las anomalías

Hace tiempo que diversos estudios académicos han demostrado que el análisis técnico no vale para nada. En 1965, Eugene Fama fue el primero en mostrar con técnicas estadísticas que los precios de las acciones del Dow Jones fluctúan aleatoriamente y por tanto es imposible predecir la evolución futura en base a cualquier análisis de una serie de precios. El artículo se llama “The Behaviour of Stock Market Prices” y a pesar de tener ya más de 50 años es muy recomendable su lectura.

Está línea de investigación tiene hasta nombre propio: La eficiencia de los mercados (“Efficient market hypothesis“) y se estudia en todos los grados y masters de finanzas. Hay tres grados de eficiencia: débil, semifuerte y fuerte. Cuanto mayor es el grado de la eficiencia de un mercado más difícil es obtener rendimientos por encima del mercado.

Si un mercado de acciones es eficiente de forma débil (la forma menos restrictiva), significa que el precio actual de las acciones refleja toda la información relacionada con esta acción en el pasado. Esta información incluye los precios pasados y el volumen de negociación. Por tanto, en un mercado eficiente débil nadie puede batir al mercado analizando precios pasados y resulta imposible generar rendimientos por encima del mercado basándose en el análisis técnico. El nombre de débil se lo ganó porque los precios son la información más pública y fácilmente accesible que existe sobre una acción.

No obstante, la comunidad científica ha dedicado mucho tiempo, y recursos, en buscar fallos o excepciones en esta teoría con el objetivo de realizar publicaciones influyentes. Las escasas excepciones que se han documentado, o no eran rentables después de contar los costes de transacción, o eran efectos que rápidamente desaparecían.  A las excepciones a la teoría se les llama “anomalías”.

La discusión ha sido larga. Como comentábamos anteriormente Eugene Fama confirmó en 1965 la aleatoriedad de los precios siendo acuñando el concepto de la eficiencia de los mercados. En 1973 la discusión salió de la universidad cuando Burton Malkiel publicó su best-seller “Un paseo aleatorio por Wall Street”, libro que recomiendo a todo aquel que esté pensando en invertir. En los años ochenta el reinado de la teoría de la eficiencia de los mercados fue total, hasta que en los noventa empezaron a aparecer artículos que cuestionaban la eficiencia de los mercados hablando de anomalías como: el efecto Enero, efecto día de la semana, efecto del fin de semana, efecto del cambio de mes, efecto vacaciones, efecto final del día, el momentum o la sobre-reacción.

Todas estas anomalías dejan de ser relevantes tras tener en cuenta los costes de transacción o dejan de ser ciertas tras hacerse públicas y, por tanto, explotables por los inversores. Como concluye Malkiel en su artículo de 2003 “The Efficient Market Hypothesis and its Critics”, “nuestros mercados de acciones son mucho más eficientes y mucho menos predecibles de lo que muchos artículos académicos recientes nos pueden hacer creer”. Recomiendo la lectura este artículo de Malkiel, ya que hace un repaso por las mayores anomalías y su impacto.

Es cierto que no todos los mercados son igualmente eficientes. Algunos factores afectan a la eficiencia de los mercados, como por ejemplo, el tiempo de ajuste de los precios a la información y los costes de acceso a la información y de transacción. Si acceder a la información de un mercado te cuesta un 3% del valor de las acciones, entonces podrá haber oportunidades de ese orden de magnitud. Lo mismo es cierto si comprar acciones tiene un coste entre los precios de oferta y de demanda del 1% (bid y ask). Pero un mercado donde la información es fácilmente accesible y donde hacer trading es prácticamente gratis, va a ser seguramente muy eficiente.

Los premios Nobel, la eficiencia de mercado y el momentum

En el año 2013 recibieron el premio Nobel un firme defensor de la eficiencia de los mercados, Eugene Fama y uno de los mayores críticos de este modelo, Robert Shiller (también lo recibió Lars Peter Hansen por otras contribuciones). Sorprende que el comité de los Premios Nobel haya decidido premiar a los promotores de teorías contrapuestas. La razón es la siguiente: no queda duda que la teoría de la eficiencia de los mercados es la teoría base con la que debemos acercarnos a cualquier análisis financiero. Esto es, por defecto no debemos esperar que existan opciones de obtener rendimientos ponderados por riesgo superiores a la media. No obstante, esta aproximación a veces es cuestionada temporalmente por los datos en algunos aspectos (anomalías), cuya discusión también merece reconocimiento. Por ejemplo, uno de los artículos más famosos de Robert Shiller: “¿Se mueven los precios de los activos demasiado como para estar justificado por los cambios posteriores en los dividendos?” (“Do Stock Prices Move Too Much to Be Justified by Subsequent Changes in Dividends?”), cuestionaba que un inversor realmente racional pudiera cambiar tanto de opinión sobre el futuro de los dividendos (que es lo que fija el precio de las acciones), cuando luego uno comprueba que los dividendos realmente no varían tanto. Por supuesto, los defensores de la eficiencia de los mercados han encontrado una respuesta razonable a esta cuestión: no sólo se mueven las expectativas de dividendos futuros, sino también los factores de descuento de los dividendos esperados. Este ejemplo nos puede ilustrar la enriquecedora discusión que ha premiado el comité de los Nobel en 2013, premiando a la vez a Fama y a Schiller.

Volviendo a las anomalías: hay una que últimamente ha tenido bastante apoyo, incluso desde la academia, y que quería discutir en detalle: la existencia del momentum en la evolución del precio de las acciones. El momentum significa que las acciones que han estado subiendo tienden a seguir subiendo, mientras que las que están cayendo tienden a seguir cayendo. De esta manera se podría construir una estrategia de inversión que comprara las acciones que han subido los últimos 12 meses y vendiera en corto las que han caído los últimos 12, que obtendría unos rendimientos corregidos por riesgo superiores y, además, diversificados con el mercado. Tenéis una discusión muy interesante sobre este asunto en “Fama on Momentum”, escrito por Cliff Asness cofundador de la empresa de gestión AQR.

En ese artículo se contrapone la visión de Fama, que es un firme defensor de la irrelevancia de la anomalía del momentum, y de Cliff Asness, que es el dueño de una empresa que, entre otras cosas, gestiona en base a la existencia de esta anomalía. Fama indica que, en algunos mercados, como Japón, no existe esta anomalía lo cual invalidaría su universalidad y lo rebajaría a una mera casualidad de los datos, mientras que Asness riza el rizo indicando que, si se añade el factor “value” (las empresas value generan más rentabilidad a largo plazo pero porque son empresas con riesgo mayor), entonces también aparecería la anomalía en Japón. Mi conclusión sobre este debate es que, es un debate lícito y publicado en revistas de reconocida valía como “The Journal of Finance”, pero que en cualquier caso es dudosa la universalidad del efecto.

En definitiva, espero que este artículo haya servido para mostrar que el análisis técnico en general es una herramienta que aporta poco valor, algo que la academia ha validado desde hace tiempo haciendo frente a diversas anomalías que van surgiendo. Como conclusión, si realmente existiera un analista técnico ahí fuera que batiera sistemáticamente al mercado, podéis estar seguros que nunca buscaría tu dinero para evitar que se generalice la anomalía que ha encontrado y mucho menos se dedicaría a escribir artículos sobre el tema.