Primera edición: noviembre de 2021 isbn: 978-607-8674-53-4
Diseño: Guillermo Pelayo Olmos
Queda prohibida la reproducción parcial o total por cualquier medio del contenido de la presente obra, sin contar con autorización por escrito de los titulares de los derechos de autor.
El contenido de este libro, así como su estilo y las opiniones expresadas en él, son responsabilidad del autor y no necesariamente reflejan la opinión de la udlap.
Versión en pdf de libre acceso.
Finanzas en la encrucijada
Miguel Hakim Simón
Introducción
Capítulo único
Confluencia entre economía y finanzas: éxitos y fracasos
Los premios del Banco de Suecia a las Ciencias Económicas en memoria de Alfred Nobel
Premio de 1990
Harry M. Markowitz, Merton H. Miller y William F. Sharpe
«Por su trabajo pionero en la teoría de la economía financiera»
Premio de 1997
Robert C. Merton y Myron S. Scholes
«Por un nuevo método para determinar el valor de los derivados»
Premio de 2002
Daniel Kahneman
«Por haber integrado los conocimientos de la investigación psicológica en la ciencia económica, especialmente en lo relativo a juicios humanos y la toma de decisiones en condiciones de incertidumbre», y Vernon L. Smith
«Por haber establecido laboratorios experimentales como una herramienta para el análisis económico empírico, especialmente en el estudio alternativo de mecanismos de mercado»
Premio de 2013
Eugene F. Fama, Lars Peter Hansen y Robert J. Shiller
«Por su análisis empírico de los precios de los activos»
Premio de 2017
Richard H. Thaler
«Por su contribución a la economía conductual»
Portales electrónicos de base
Referencias bibliográficas
Segundo camino
Los sistemas complejos o la complejidad
La definición de los agentes
La interacción entre los agentes y el medio ambiente
La interacción entre los agentes
Software (programa) y hardware (equipo)
Los que abrazan completamente los modelos basados en los agentes (abm)
Un botón de muestra de los que consideran a los modelos (abm) como complementarios
Los de la corriente principal que rechazan los modelos (abm)
Tercer camino
La econofísica
Nuevos métodos de la física estadística
Los físicos retoman y mejoran a Mandelbrot desde una perspectiva diferente
La denominación de una nueva disciplina 1996-2000
El nuevo siglo con una nueva comunidad científica de físicos
¿Es la economía la siguiente ciencia física?
Portales electrónicos complementarios
Referencias bibliográficas
Cuarto camino
Los prácticos y las instituciones
Las leyes y sus aplicaciones
Regulación y supervisión de los grupos financieros en México
Información privilegiada en México
¿Regreso a lo básico?
Portales electrónicos complementarios
Referencias bibliográficas
Introducción
El «gran confinamiento» autoinfligido por los gobiernos y los hogares en 2020 y 2021, producto de la pandemia por covid-19, provocó una incertidumbre sin paralelo en la era reciente, lo que ha implicado cambios significativos en la forma de vivir y de pensar. Esto puede ser considerado como el cuarto momento crítico que ha vivido el mundo occidental en el siglo xxi. El primero fue el ataque terrorista del 11 de septiembre de 2001 en Estados Unidos con una causa fundamentalmente política; el segundo, fue la crisis financiera de 2007-2008 con un origen eminentemente económico; el tercero, la pandemia por la gripe A (h1n1) durante 20082009, y, finalmente, la covid-19 de 2020-2021, el más fuerte y global de todos. Los dos últimos son derivados de causas naturales, y la mayoría de las personas siguen pensando que cuando una crisis es causada por una pandemia se encuentra fuera de su responsabilidad directa, aunque una minoría considera que es consecuencia del sistema de vida que hemos construido desde la revolución industrial.
En el caso particular de las finanzas, se han planteado nuevos retos; destacan los economistas y sociólogos que abogan por complementar las teorías dominantes basadas en los conceptos cuantificables (riesgo) con otras que toman en cuenta los aspectos no cuantificables (incertidumbre). Parcialmente, esto es un regreso al pasado, en donde se retoman los conceptos de Frank H. Knight plasmados en su libro Riesgo, incertidumbre y utilidad publicado en 1921. Se trata de una revisión de los conceptos desarrolla-
dos hace exactamente cien años, que fueron hechos a un lado por la gran mayoría de los investigadores durante el siglo anterior. En general, esto también implica un regreso a las «finanzas descriptivas de la práctica» (enfoque institucional) que imperaban antes de la Segunda Guerra Mundial.
Estos economistas, que pueden ser considerados como conversos, no son los únicos que han tratado de llenar el vacío que dejó la crisis financiera de 2008 en los modelos macroeconómicos y en las finanzas. Los físicos, junto con los informáticos y otros investigadores sociales, también están participando activamente en la academia y en la investigación. Predominan los físicos que utilizaron, en primera instancia, las redes que plantearon los sociólogos a través de sociogramas y otros mecanismos. Con estos antecedentes, y tomando como base los «sistemas complejos», han incursionado para establecer un nuevo paradigma que relaja los supuestos de racionalidad, homogeneidad y equilibrio que utilizan los economistas, logrando crear modelos desarrollados a través de simulaciones computarizadas, que, en muchas ocasiones, se aproximan mejor a la realidad de las finanzas. Esto es alcanzado con una mente abierta en la que los físicos trabajan con los psicólogos, sociólogos, economistas e informáticos. Muchos consideran que éste es el mejor camino para entender, explicar y enseñar las finanzas.
Sin embargo, hay una pequeña comunidad de físicos que han empezado a sobresalir, que buscan explicar la economía y las finanzas aplicando procesos y métodos de las diferentes ramas de la física. No toman en cuenta las teorías desarrolladas por los economistas y otros científicos sociales, y prefieren empezar de cero sólo con la aplicación de procesos físicos y matemáticos basados fundamentalmente en las leyes de potencia. No son partidarios de un enfoque multidisciplinario para abordar los temas específicos, por lo que han creado sus propios seminarios y revistas especializadas donde publican sus investigaciones. Continúan en las facultades de física de las universidades desde donde también están formado a las nuevas generaciones. Incluso han creado el neologismo «econofísica» para denominar a esta nueva subdisci-
plina que estudia la economía usando la física estadística. Para los economistas esto se considera como una invasión de la física a sus terrenos, aunque se olvidan de que, en el pasado, ellos mismos han invadido otras disciplinas al extender su análisis microeconómico a la sociología y la política.
Es importante hacer mención del controvertido premio del Banco de Suecia de ciencias económicas en memoria de Alfred Nobel entregado en octubre de 2013 a Eugene F. Fama, Lars Peter Hansen y Robert J. Shiller, por su contribución al análisis empírico de los precios de los activos financieros. Unos lo interpretan como una gran confusión al entregar el premio a dos economistas que parecen decir cosas distintas. Por un lado, Fama afirma que los precios de los activos financieros, en especial de las acciones cotizadas en las bolsas de valores organizadas, son imposibles de predecir de manera consistente en el corto plazo de un día o una semana. Por el otro, Shiller sostiene que los precios de las acciones se pueden pronosticar en el largo plazo de tres a siete años, debido a que fluctúan mucho más que los dividendos corporativos, por lo que el cociente entre precios y dividendos tiende a bajar cuando se encuentra en un nivel alto, y a subir cuando es bajo. Fama llega a sus conclusiones suponiendo que los inversionistas son racionales y no acepta que existan las burbujas, ya que la nueva información es incorporada en los precios de las acciones de manera inmediata. Shiller trata de explicar cómo se forman las burbujas de los índices accionarios a través del tiempo. Lars Peter Hansen desarrolló un método estadístico para analizar la relación entre los precios de las acciones y los supuestos de racionalidad usando tasas de descuento variables, y encontró que los datos no pueden apoyar la tesis de Shiller. En resumen, Shiller y Hansen reciben sus premios por decir prácticamente lo contrario, y los resultados de Fama perdieron credibilidad dadas las causas que provocaron la crisis financiera de 2008. Todo esto se puede definir como una confusión de confusiones.
Otros interpretan el premio pseudo-Nobel como una decisión muy valiente por ayudar a la integración de la economía considerada «conductual» (Shiller) que sí puede determinar pre-
cios, con la «economía financiera» (Fama) y la econometría. Lo anterior es una señal de que la teoría dominante de la economía financiera, que tiene como uno de sus pilares a la econometría, finalmente ha terminado por aceptar a la economía conductual, con las condiciones de que pueda ser útil para la determinación de precios y sea elaborada por economistas (el lector podrá encontrar los detalles de éste y otros cuatro premios del Banco de Suecia [banco central] en el «Primer camino»). Aunque el premio a la economía no es considerado como un Nobel, se entrega con la misma parafernalia de la realeza sueca y con el mismo reconocimiento monetario que los demás.
Tres meses antes del anuncio del premio, Hakim (2013) ofreció un panorama de cómo la economía financiera fue «vestida» durante las últimas siete décadas por economistas, matemáticos y físicos, con base en los supuestos de racionalidad, maximización y eficiencia de los mercados financieros. Pero, más recientemente, los psicólogos, sociólogos, biólogos y médicos se han encargado de «alborotarlas» con los temas de la economía conductual que incluye a las neurofinanzas. El libro que tiene usted «entre manos» (2021) actualiza esta historia con los nuevos jugadores que han participado en los últimos ocho años, que desde el punto de vista de los economistas financieros son los nuevos «alborotadores». En esta ocasión se utiliza un enfoque y estilo de escribir completamente distinto al del pasado, ya que se basa esencialmente en la narrativa. Con algunas excepciones en el «Tercer camino», el lector no encontrará gráficas, tablas o fórmulas en este reporte, buscando así atraer la atención de un mayor número de personas.
Los inversionistas y universitarios que desean entrar a los mercados accionarios o estudiar finanzas, actualmente, encontrarán una gran gama de opciones de enfoques y universidades, por lo que su decisión final se puede equiparar a la de un conductor de auto que llega a una glorieta por primera vez y no sabe cuál de las cuatro salidas tomar. Estas cuatro alternativas se describen en los anexos, o «caminos», que siguen al capítulo único. Se espera que estas notas los ayuden a decidir adecuadamente en la encruci-
jada de las finanzas. En lo fundamental, las encrucijadas se hicieron para que todos los que tengan que tomar distintos senderos se encuentren, aunque sea temporalmente.
Capítulo único
Confluencia entre economía y finanzas: éxitos y fracasos
Las finanzas y la economía han estado relacionadas desde el inicio de nuestra civilización. La palabra finanzas se deriva del latín finis que da la idea de finiquitar (saldar) una operación (transacción) entre personas. Dado que el finiquito o saldo se paga con algún tipo de dinero, siempre se ha identificado a las finanzas con el dinero. La economía tiene ver con la producción de bienes y servicios para satisfacer las necesidades humanas. Si el dinero se utiliza para la compraventa de bienes y servicios, se habla de una relación entre una parte de las finanzas y la economía. Se dice una parte, ya que el dinero se utiliza como medio de pago en un momento dado del tiempo, pero también existen operaciones en las que se intercambia dinero hoy por el compromiso de más o menos dinero en el futuro. Se dice más o menos, ya que aproximadamente desde 1760 a. e. c., la ley 51 del Código Hammurabi que regulaba la actividad agrícola en la antigua Mesopotamia permitía el pago de intereses a la tasa de interés establecida por el rey en turno. Se dice menos, ya que, actualmente, los bancos centrales de Japón, Dinamarca, Suecia, Suiza y el Banco Central Europeo tienen tasas de interés negativas con los depósitos que reciben de los bancos comerciales. ¡Cómo ha cambiado el mundo!
Otra prueba de la relación entre las finanzas y la economía consta en las publicaciones de Adam Smith, considerado el padre de esta última disciplina. En 1776 publicó su libro Investigación de la naturaleza y causas de la riqueza de las naciones en donde divide el valor de la producción de un país en tres partes originales: los salarios derivados del trabajo, la renta de la tierra y las ganancias de los fondos. Este último rubro depende del nivel de competencia y de precios, de las tasas de interés del dinero (cuota de la usura), y de la buena o mala fortuna. Hace un recuento de la historia del dinero desde el truque, el uso del oro, las monedas y los billetes de banco, y deja muy claro que la riqueza de un país no está relacionada con las monedas en circulación.
Las finanzas y la economía han tenido relaciones de amistad con algunos desencuentros, pero decidieron formalizar su matrimonio en 1970. El matrimonio se realizó de manera civil en Chicago, Illinois, Estados Unidos, y nunca se formalizó por las religiones judía, católica o musulmana. Aunque la unión se haya realizado en el mundo occidental, se debe reconocer que ambas disciplinas tienen un carácter multicultural, como lo demuestran el caso mencionado de la antigua Mesopotamia y los orígenes del papel moneda en China. Además, el hecho de que no se haya formalizado por la Iglesia católica ha provocado que el Vaticano condene públicamente la usura, y el no hacerlo por el islam ha provocado que, aunque el matrimonio siga siendo ejemplo para la mayoría del mundo, las finanzas islámicas hayan tomado un camino separado. Este autor considera que, si el matrimonio se hubiera formalizado de manera religiosa, la primera opción sería la judía, ya que, desde el antiguo testamento, se propuso el no prestar con usura a sus hermanos, sino sólo a los extranjeros. Lo anterior se puede interpretar como un apoyo a la realización de préstamos, con la gran diferencia de que la tasa de interés entre hermanos judíos debería ser baja, y la correspondiente entre un judío y un extranjero podría ser muy alta (usura).
El matrimonio entre las finanzas y la economía no fue entre profesiones sino entre disciplinas académicas de educación superior. En el ámbito universitario las carreras de finanzas se
ofrecieron, en un principio, dentro de las escuelas de comercio y contabilidad. Con el correr del tiempo se ubicaron en las escuelas de administración de empresas, y se han transformado en las actuales escuelas de negocios. Por su lado, la economía se concentró, principalmente, en las facultades de las universidades, y en algunos casos se crearon unidades especializadas con mayor autonomía.
El mundo económico y financiero del siglo xx estuvo dominado por Occidente, destacando Reino Unido en la primera mitad y Estados Unidos en la segunda. Por lo mismo, los antecedentes de la boda se concentran en estos países, aunque su influencia se ha dejado sentir en prácticamente todo el mundo. Así, se habla también del caso de México tanto en este capítulo como en el segundo y cuarto camino.
El estudio de las finanzas de posgrado inició en 1900 con una maestría de comercio en la actual Escuela de Negocios Tuck de la Universidad de Dartmouth en New Hampshire, Estados Unidos. Curiosamente, en ese mismo año, pero en Inglaterra, se creó la Escuela de Economía de Londres (lse) adscrita a la Universidad de Londres. También en 1900, en Francia, Louis Jean-Baptiste Alphonse Bachelier presentó en la Facultad de Ciencias de la Academia de París su tesis doctoral sobre la «Teoría de la especulación» en donde estudió los cambios de precios de futuros y opciones de la deuda francesa. Concluyó que era imposible aspirar a su predicción matemática, pero que sí se podía estudiar el mercado en un momento dado del tiempo aplicando la teoría de probabilidades y el cálculo diferencial e integral.
En 1908, la Universidad de Harvard estableció la primera maestría en Administración de Empresas (mba, por sus siglas en inglés) en el mundo. La implementó a través de la Escuela de Graduados en Administración de Negocios con una duración de dos años. En las primeras generaciones, los cursos se llevaron a cabo de manera tradicional, ya que su famosa técnica del método de casos se implementó hasta 19241.
1. Se le recuerda al lector que esta escuela actualmente continúa con el uso del método de casos, pero ahora lo complementa con proyectos de campo, simulaciones tecnológicas y ejercicios introspectivos.
Se debe resaltar que, al final de la Segunda Guerra Mundial, los economistas tuvieron un papel muy importante tanto en la creación del Fondo Monetario Internacional como del actual Banco Mundial (instituciones de Bretton Woods). Se destaca aquí el papel fundamental de John M. Keynes en la definición final, debido a sus ideas, implementadas durante la Gran Depresión, como la sugerencia de que los gobiernos incrementaran sus gastos para compensar los pocos incentivos del sector privado para invertir y generar empleos. Los economistas también fueron determinantes en la construcción de la Organización de las Naciones Unidas (onu); en especial en la elaboración del sistema de cuentas nacionales, que tiene como protagonista al producto interno bruto (pib), cuya metodología ha sido actualizada y continúa vigente para prácticamente todos los países del mundo. En este caso, se distingue a John Richard Nicholas Stone, discípulo de Keynes, quien desde 1947 fue el coordinador del tema en la Liga de las Naciones y, posteriormente, en el primer manual de la onu de 1953. Probablemente, la única cosa buena derivada de la Segunda Guerra Mundial se refiere al proceso de formación de matemáticos, físicos, ingenieros y economistas, muchos de los cuales terminaron en las universidades o centros de pensamiento apoyados por el Gobierno de Estados Unidos. Los matemáticos contribuyeron con la aplicación de la teoría de juegos que originalmente se aplicó a estrategias militares y llegó a ser parte integral de la economía. John von Neumann (matemático) y Oskar Morgenstern (economista) publicaron Teoría de juegos y conducta económica en 1944 sentando las bases teóricas del tema. Paul A. Samuelson no sólo retomó el rigor matemático en sus análisis económicos, sino que también se basó en la termodinámica para escribir su disertación que fue publicada en la obra magna Fundamentos del análisis económico en 1947. M. F. M. Osborne, físico y astrónomo de la Armada americana, aplicó el movimiento browniano al mercado accionario y publicó su trabajo en la revista Investigación de Operaciones en 1959. Sin conocer la obra de Bachelier, llegó a conclusiones similares, pero hizo el análisis más realista al considerar cambios relativos en los precios, y no cambios
absolutos de los mismos. En resumen, se puede decir que el método de la narración combinado con el de gráficos de la economía fue sustituido por el uso de las matemáticas formales y aplicadas. Estas últimas tienen que ver con el uso de la probabilidad y estadística para el análisis de los datos, que terminó consolidándose en la rama denominada «econometría» en la década de 1950. Por lo mismo, la economía pasó de ser ubicada en los niveles bajos de la «jerarquía» de las ciencias sociales a ser considerada como la reina de las ciencias sociales.
Este proceso también afectó a las escuelas de administración de empresas, en donde se ubicaba el estudio y la investigación de las finanzas. No sólo los científicos preparados en la Segunda Guerra Mundial, sino también más doctores en economía se incorporaban a las escuelas de negocios. Se destaca el caso de la Escuela de Graduados de Administración Industrial del Instituto de Tecnología de Carnegie (hoy Escuela de Negocios David A. Tepper de la Universidad de Carnegie Mellon), la cual fue creada en 1949 con recursos de las fundaciones Ford y Andrew Mellon, lo que permitió reclutar científicos que trabajaron en la investigación de operaciones durante la Segunda Guerra Mundial. Este tema militar fue aplicado a las empresas con conceptos como la matriz de insumo-producto y la programación lineal, que trata de maximizar o minimizar un objetivo sujeto a algunas restricciones expresadas en términos lineales. Fue creada para oponerse a la «sabiduría convencional» de la Escuela de Negocios de Harvard en donde se usaba el método de casos. Su objetivo es el de utilizar el enfoque científico interdisciplinario para la toma de decisiones en los negocios. Logró reunir a Franco Modigliani y a Merton H. Miller que en 1958 escribieron sobre las finanzas de las empresas, y bajo una serie de supuestos, no todos realistas, mostraron que el valor de mercado de una empresa es independiente de su estructura de capital, es decir, el valor de la empresa está determinado por sus activos, no por los valores que emite. En este entorno, dejaron claro que el objetivo de los administradores de empresas es maximizar la riqueza de los accionistas.
La Escuela de Graduados de Administración Industrial también logró atraer los servicios de Herbert A. Simon, quien propuso una hipótesis distinta a la de racionalidad de la mayoría de los economistas. En 1947 publicó su libro El comportamiento administrativo, y diez años después, en la introducción a la segunda edición, consideró que «las ciencias sociales padecen esquizofrenia aguda en su tratamiento de la racionalidad. Tenemos, en un extremo, a los economistas, que atribuyen al hombre económico una racionalidad absurdamente omnisciente» (1962, p. xxi). «Al otro extremo tenemos las tendencias de psicología social que siguen las huellas de Freud y tratan de reducir todo conocimiento a afecto» (1962, p. xxii). En su libro argumenta que el comportamiento humano trata de ser racional, pero tiene limitaciones, por lo que se elige un punto en el que se da por satisfecho, al no tener la inteligencia necesaria para conseguir el máximo.
Imagine el lector que vive en Estados Unidos en 1953 y desea estudiar una maestría en Administración de Empresas. Usted cuenta con dos opciones: a) ir a la Escuela de Negocios de Harvard en Boston, Massachusetts, en donde aprenderá por el método de casos, lo que se considera como «sabiduría convencional», o b) ir a Pittsburg a la Escuela de Negocios David A. Tepper del Instituto de Tecnología de Carnegie, en donde tomará clases con una amplia gama de científicos de las ciencias sociales que en algunos temas no se ponen de acuerdo, ¿cuál elegiría? Independientemente de su respuesta —en la que evaluaría los costos, ventajas e inconvenientes— es importante saber cómo se resolvió el tema de la diferencia entre el supuesto de que el hombre económico usa la razón para la toma de decisiones, y que el hombre administrativo tiene limitaciones, por lo que decide con base en una opción que lo deja satisfecho. ¿Maximizar o satisfacer?, he ahí la pregunta. Se puede concluir que un grupo de economistas, en el que destaca John F. Muth, se pusieron de acuerdo en que la respuesta era la de usar el supuesto de la racionalidad para poder obtener el mejor resultado. Para ello, Herbert A. Simon fue trasladado al Departamento de Psicología. En términos coloquiales, podemos decir que «le echaron montón». Problema resuelto de manera temporal.
Lo curioso es que John F. Muth obtuvo un doctorado en Economía Matemática del Instituto de Tecnología de Carnegie (desde 1967 es la Universidad de Carnegie Mellon) y el asesor de su disertación fue Herbert A. Simon (¡auch!). Hoy, Muth es considerado el padre de las expectativas racionales por su artículo de 1961 en donde fundamenta que los industriales toman decisiones de forma óptima, utilizando toda la información disponible. Cada empresa tiene expectativas distintas del futuro, pero el promedio de las expectativas de la industria es racional, lo que es equivalente a las predicciones de la teoría económica. Deja claro que su hipótesis es exactamente lo opuesto al punto de vista de Herbert A. Simon, en el sentido de que los modelos económicos dinámicos no suponen una suficiente racionalidad. Con esto, los economistas complementaron el supuesto de racionalidad de los agentes en un momento dado del tiempo con las expectativas racionales aplicables a modelos dinámicos.
El primer decano de la Escuela de Negocios Tepper, Lee Back, así como Herbert A. Simon y el estadístico William Cooper eran egresados de la Universidad de Chicago. Lee Back continuó contratando graduados del doctorado en Economía de Chicago. El hecho de que el proyecto de formar una escuela interdisciplinaria de científicos sociales con resultados tan opuestos como los de Simon y Muth, combinado con cambios en la alta gerencia, llevó a la Universidad de Chicago a tomar un papel activo con el objeto de evitar estas disparidades en el pensamiento. Su proyecto no dejó de lado la diversidad de científicos sociales, pero trató de concentrar a aquellos con un pensamiento similar, tanto teórico como práctico (econometría) y de ahí derivar coherencia y unidad con su escuela de negocios. Adicionalmente, buscaba cambiar radicalmente los puntos de vista prevalecientes con respecto a la intervención del Gobierno en la economía a través de las regulaciones y su falta de eficiencia en crear mercados de competencia, dejando el poder en grandes empresas casi monopólicas en diversos segmentos. En el primer caso, la Universidad de Chicago fue anti-Tepper, en el sentido de hacer de la economía el punto focal, aislándola de otros científicos sociales con
pensamientos diferentes. En el segundo, anti-Harvard, ya que no estaba de acuerdo con las ideas poskeynesianas lideradas por Paul A. Samuelson en la Escuela de Economía de la Universidad de Harvard y tampoco le gustaba el método de casos de la Escuela de Negocios.
El proyecto de la Universidad de Chicago despegó en 1959 y tuvo una rápida implementación, en parte porque Milton Friedman, defensor del libre mercado, ya se encontraba en la Escuela de Economía desde 1946, y George J. Stigler, experto en los efectos de las regulaciones del Gobierno en la estructura de las industrias, regresó en 1958, y en 1961 Merton H. Miller dejó Carnegie para incorporarse a la Escuela de Graduados en Negocios (gsb). También fue fundamental el apoyo financiero de la Fundación Ford y otros donantes.
Después de varios cambios de nombre, la Escuela de Negocios (1932) de la Universidad de Chicago ofreció su primera maestría en Administración de Empresas (mba) en 1935. En 1959, con el objeto de sumarse al proyecto de libre comercio con participación mínima del Gobierno, mencionado en el párrafo anterior, cambió su nombre a Escuela de Graduados en Negocios (gsb, por sus siglas en inglés). Desde entonces, las visiones y los métodos son similares a los de la Facultad de Economía de la Universidad de Chicago. Como se mencionará más adelante, en 2008 fue renombrada una vez más como Escuela de Negocios Booth. En marzo 1960 la casa de bolsa Merrill Lynch donó a la Escuela de Graduados en Negocios 50,000 dólares para la construcción de una base de datos de los precios de las acciones cotizadas en la Bolsa de Valores de Nueva York (nyse) entre 1926 y 1960. Para ello se creó una compañía afiliada a gsb que se denominó Centro de Investigación para los Precios de los Valores (crsp, por sus siglas en inglés). Su construcción, aún con la mejor computadora del momento (univac), tardó tres años y medio en completarse y estuvo lista en diciembre de 1963. La combinación entre buenos investigadores y el uso temprano de esta base de datos convirtió a las finanzas en el principal tema de la escuela, dejando atrás a los relacionados con la teoría de empresa. Por lo mismo, la escuela
empezó a formar, no sólo gerentes o directores del sector privado, sino también a inversionistas de los mercados financieros. La información se empezó también a vender a las instituciones financieras, a otras universidades y a los Gobiernos, por lo que se diseminó no sólo en Estados Unidos sino en el mundo. crsp continúa actualizando y extendiendo la base de datos cuyo costo anual mínimo ronda los 25,000 dólares por usuario individual. El autor de este libro tuvo la fortuna de estudiar un doctorado en Administración de Empresas con especialidad en Finanzas en la Universidad de Claremont, California, y una de las herramientas indispensables era el uso de la base de datos del crsp
Esta nueva visión de construir modelos matemáticos deductivos, que se podían comprobar empíricamente aplicando econometría a la base de datos del crsp, fue denominada «enfoque de Chicago» para la educación de los negocios. El proyecto también se consolidó con la fácil colocación de los egresados de la maestría y el doctorado en otras escuelas e institutos, pero en especial en la Universidad de Rochester en Nueva York. Lo anterior debido a que W. Allen Wallis, quien fuera decano de gsb, fue nombrado presidente de la Universidad de Rochester, y no sólo se llevó a algunos profesores, sino que también contrataba a los egresados del doctorado de gsb. Por lo mismo, para efectos prácticos, las Universidades de Chicago y Rochester llegaron a ser consideradas como primas hermanas.
Seguramente el investigador que más provecho obtuvo de la base de datos fue Eugene F. Fama, ya que la utilizó para escribir y defender su disertación para obtener el grado de doctor en 1964 en la gsb. Además, publicó en 1965 en The Journal of Business, periódico de la casa, un artículo en donde describía el comportamiento de los precios de las acciones, y daba evidencia empírica de que la serie de cambios de precios no tenía memoria, dando a entender que el pasado no podía ser usado para predecir el futuro. Esta teoría de la caminata aleatoria de los cambios de precios ponía en evidencia el análisis técnico que se hacía en las casas de bolsa, al implicar que no tenía valor real alguno.
Esta revelación necesitaba complementarse con un modelo de equilibrio para explicar el comportamiento teórico de los precios de las acciones. Además, para que cualquier teoría sea aceptada por la mayoría de los economistas matemáticos, se requiere del supuesto de equilibrio. Esto ha sido así desde que los clásicos explicaron que los precios se obtienen cuando la oferta es igual a la demanda. William F. Sharpe, de la escuela de negocios de la Universidad de Washington con sede en Seattle (hoy Escuela de Negocios Foster), desarrolló este trabajo que fue publicado en 1964 y que hoy es conocido como el modelo de precios de los activos de capital (capm, por sus siglas en inglés) en donde explica que la tasa de rendimiento requerida de cualquier activo con riesgo es igual, en una forma lineal, a la tasa libre de riesgo (como la de los bonos gubernamentales de Estados Unidos) más un premio por el riesgo que va a tomar. Este premio tiene dos partes: a) la cantidad de riesgo medida por la sensibilidad que tiene con el mercado (la llamada beta), y b) el precio del riesgo que es determinado por la diferencia entre el rendimiento esperado por el mercado y la tasa libre de riesgo. Sharpe pudo desarrollar esta teoría usando los trabajos previos de Harry M. Markowitz sobre la selección de portafolios correspondientes a la década de 1950. En el desarrollo de este libro se mostrará que esta teoría de equilibrio no siempre refleja la realidad, por lo que se han propuesto otras alternativas. Sin embargo, ayudó para que se pudiera concretar el matrimonio entre la economía y las finanzas.
En 1970, Eugene F. Fama pudo publicar en The Journal of Finance, revista de la Asociación Americana de Finanzas (afa, por sus siglas en inglés). En su nuevo artículo, da evidencia de que los cambios de precios de las acciones no sólo reflejan la información pasada, sino también la información pública. Sus resultados apoyan la hipótesis de que los mercados son eficientes en el sentido de que reflejan completamente la información disponible. Este resultado también ponía en evidencia a los que hacían análisis fundamental en las casas de bolsa. ¡Qué ironía de la vida!, una casa de bolsa apoyó financieramente la construcción de la base de datos (crsp) y resulta que el profesor Fama la usa para demostrar que
no sirven para nada real los analistas que trabajan en las instituciones financieras.
Dos años antes de que Fama publicará la «prueba» de la eficiencia de los mercados accionarios, el Banco de Suecia, el más antiguo del mundo, cumplía el tricentenario de su fundación en 1668. Tenían que anunciar algo importante y se les ocurrió dar una donación a la Fundación Nobel para establecer el premio del Banco de Suecia de Ciencias Económicas en memoria de Alfred Nobel. Aunque ha intentado dejar claro que no se trata de un premio Nobel como los que se entregan desde 1901 (física, química, fisiología o medicina, literatura y otro para la paz), la mayor parte de la gente lo considera erróneamente como algo similar. Frente a este escenario, desde 1969 la economía se considera como una disciplina que, en cierto sentido, está al mismo nivel que las consideradas ciencias duras como la física y la química.
Matrimonio por conveniencia
Con todos estos acontecimientos, el autor de este libro estima que el matrimonio entre la economía y las finanzas se dio en 1970, en Chicago, lo que puso bajo una misma casa la forma de pensar y de actuar de dos disciplinas que habían tomado caminos propios en el pasado. Fue un matrimonio de conveniencia, ya que los financieros lograron ponerse al nivel científico de la economía y, por lo tanto, tenían la esperanza de que a través de los Premios Nobel podían llegar a las alturas de las ciencias duras. Por el lado de los economistas formados en Chicago, podían ahora encontrar trabajo muy fácilmente tanto en otras escuelas de negocios como en el sector financiero y con sueldos muy por arriba de lo que obtenían en el pasado y mucho más altos que lo que obtienen no sólo los psicólogos y sociólogos, sino también de lo que ganan los físicos.
William N. Goetzmann, en su libro El dinero lo cambia todo (2016), distingue dos dimensiones de las finanzas. Una que llama
la arquitectura financiera que es el equivalente al hardware de las finanzas. Otra que se refiere al software, que equipara como un sistema de análisis que incluye contar, registrar y computar con métodos matemáticos como el cálculo y la teoría de la probabilidad. «El hardware está constituido por cosas como los contratos financieros, empresas, bancos, mercados, así como por sistemas monetarios y legales» (Goetzmann, 2016, p. 11). El software es «un sistema de pensamiento; un medio para encuadrar y resolver problemas complejos relacionados con el dinero, el tiempo y el valor» (Goetzmann, 2016, p. 11).
El matrimonio entre las finanzas y la economía se refiere a lo que Goetzmann llama el software, es decir, al sistema de pensamiento para resolver problemas con el dinero, el tiempo y el valor. El matrimonio ya tenía todo menos el nombre de casados, y era conveniente que éste fuera puesto por alguien que no estuviera dentro de Chicago. Fue así como, en 1974, se creó el Journal of Financial Economics, publicado por la empresa Elsevier, pero editado por académicos de la Universidad de Rochester. Se trata una vez más de la prima hermana de la Universidad de Chicago. Su editor en jefe en los primeros cinco años fue Michael C. Jensen, egresado de Chicago, y entre 1979 y 2021 fue sustituido por William Schwert, profesor de la Escuela de Graduados William E. Simon de la Universidad de Rochester. A partir de julio de 2021, Schwert será reemplazado por Tony Whited de la Escuela de Negocios Ross de la Universidad de Michigan. Lo importante de todo esto es que, con los datos que ha podido rastrear el autor de este libro, el término de «economía financiera» apareció en la literatura por primera vez en la historia. En conclusión, el nombre de casada de la pareja matrimoniada en 1970 es «economía financiera». Esto desplaza los títulos del pasado que pueden ser englobados en el concepto de finanzas tradicionales, y también da a entender que éste es el nombre oficial, ya que muchos otros estudiosos la llaman finanzas neoclásicas por el hecho de que Chicago revivió a los economistas clásicos que defendieron el libre comercio. En este contexto también quedó claro que, en esta etapa de las escuelas de
negocios, la especialidad en finanzas ha sido la «joya de la corona».
Ahora que ya se sabe que el nombre de casado es el de «economía financiera», es importante resaltar que el apelativo de soltero de las finanzas, dicho por casi todos los investigadores que intervinieron desde 1952, fue el de «teoría moderna de las finanzas». Vale la pena recordar que Harry Markowitz comentó en una conversación con el historiador Peter L. Bernstein (1992) lo que le pasó cuando presentó su disertación en la Universidad de Chicago en 1955, en donde Milton Friedman, uno de sus jurados, le hizo pasar un terrible momento diciéndole: «Harry, aquí, no veo nada mal con las matemáticas, pero tengo un problema. Esta no es una disertación de economía, y no podemos concederte un doctorado (Ph. D.) en economía. No es matemáticas, no es economía, y ni siquiera es administración de negocios» (Bernstein, 1992, p. 60). Después de una hora y media de sufrimiento, el diploma fue otorgado, pero el hecho refleja lo que los economistas pensaban de la naciente teoría moderna de las finanzas. Y esto sucedía en la Universidad de Chicago, en el mismo lugar en que se llevó a cabo el matrimonio en 1970. El lector podrá encontrar detalles adicionales acerca de la teoría de portafolios de Markowitz en el «Primer camino».
El matrimonio de la economía financiera cumple su aniversario 51, y como casi todas las parejas, ha vivido momentos gloriosos y situaciones difíciles. Este libro explorará en el «Primer camino» la economía financiera que fue reconocida por los premios del Banco de Suecia (Nobel) desde el año de 1990. Los premios de economía iniciaron en 1969, pero no fue sino veintiún años después que se reconoció a la economía financiera. Este proceso ha dejado fuera a muchos otros científicos brillantes que no pudieron formar parte de la corriente dominante. A pesar de ello, algunos fueron galardonados por el seudo-Nobel, como son los casos de Herbert A. Simon, Maurice Félix Charles Allais y Friedrick A. von Hayek. Sin embargo, algunos otros como Frank H. Knight, George Shackle, Daniel Ellsberg y Hyman Minsky nunca fueron reconocidos y sólo son recordados en momentos de muy alta incertidumbre o ambigüedad como los que vivimos actualmente.
Primera etapa del matrimonio 1971-1991
En el primer quinquenio del matrimonio entre las finanzas y la economía, la ciudad de Chicago continuó siendo parte fundamental del software y del hardware. En relación con esto último, la Compañía de Comercio de Chicago (cbot, por sus siglas en inglés), originalmente concentrada en el mercado de futuros y opciones de productos agrícolas, fundó en 1973 la Bolsa de Opciones de Chicago (cboe) en donde, por primera vez, se negociaron contratos derivados de las acciones cotizadas en bolsa, de manera estandarizada. Hoy, la bolsa sigue en operación y forma parte del Grupo cme que se ha constituido en el mayor mercado de derivados, con la más diversa gama de productos: agrícolas, energéticos, accionarios, monetarios, de tasas de interés y metales.
Dos años antes, el mercado accionario nasdaq surgió como una plataforma electrónica de cotizaciones de la Asociación Nacional de Agentes de Valores (nasd). En una primera instancia sólo proveía las cotizaciones de valores para las acciones que se negociaban fuera de las bolsas de valores organizadas, también denominado mercado de mostrador (otc), pero con el tiempo se convirtió en el primer mercado de valores en el que se podían realizar transacciones electrónicas, y hoy es la segunda bolsa de valores de Estados Unidos, sólo superada por el grupo de la Bolsa de Valores de Nueva York (nyse).
En lo correspondiente al software, Myron S. Scholes, egresado del doctorado en Finanzas del gsb de la Universidad de Chicago, en colaboración con Fisher Black, así como Robert Merton, después de varios años de trabajo lograron, por separado, publicar dos artículos en 1973 donde plasmaron un nuevo mecanismo para determinar el precio de las opciones. Black y Scholes publicaron su artículo para determinar el precio de las opciones en el Journal of Political Economy, controlado por la Universidad de Chicago. Robert Merton lo hizo en el Bell Journal of Economics and Management Science, en donde deriva la misma fórmula para determinar los precios de las opciones de manera más elegante y también
generaliza su aplicación a otros campos. Hasta la fecha, la fórmula de Black-Scholes-Merton, con algunos ajustes, se continúa utilizando para valuar opciones tanto en las bolsas de derivados como en los mercados de mostrador (otc). Ian Steward (2015) la menciona como una de las 17 ecuaciones que cambiaron el mundo y le dedica un capítulo completo para explicar su importancia y el crecimiento exponencial que ha provocado en el medio financiero.
Todo iba muy bien en el matrimonio hasta que el lunes 19 de octubre de 1987, el índice accionario Dow Jones disminuyó 508 puntos, que representaban el 22.8% (su mayor caída diaria desde que se tiene registro). Las acciones cotizadas perdieron ese día cerca de quinientos billones de dólares. Esto es conocido hasta la fecha como el «lunes negro» y representa una caída más grande que la registrada el 28 de octubre de 1929 (-12.8%), fecha considerada como el inicio de la Gran Depresión. Ese mismo lunes, el presidente de Estados Unidos Ronald Reagan tuvo que salir a declarar que todos los indicadores estaban sólidos, y el presidente de la Reserva Federal Alan Greenspan, que el banco central estaba dispuesto a proveer fondos a los bancos comerciales para que a su vez auxiliaran a las casas de bolsa. Sus declaraciones parecen haber calmado los temores de una nueva recesión, ya que el martes 20 de octubre de 1987, el índice Dow Jones recuperó 102 puntos, pero tuvieron que pasar quince meses para que recobrara el nivel del viernes 16 de octubre.
¿Qué fue lo que pasó ese lunes negro? ¿Cuál fue la noticia principal que detonó esta caída? Las preguntas son más relevantes debido a que el fin de semana previo no existieron noticias a las que se pueda atribuir la caída del lunes negro. Algunos investigadores y periodistas lo adjudicaban al déficit comercial de Estados Unidos, otros, a los temores de mayor inflación, y muchos más, a las tensiones políticas y militares con Irán. Hasta el día de hoy, no se sabe bien cómo explicar un desplome diario mayor al 22% cuando no se puede identificar ninguna nueva información relevante. Esto le dio un fuerte golpe a la teoría de los mercados eficientes de Eugene F. Fama que
había afirmado que los mercados responden de manera inmediata a la información relevante, se trate de los precios pasados de las acciones o de la nueva información pública.
Cinco meses después, Cutler, Poterba y Summers publicaron un documento de trabajo en la National Bureau of Economic Research (nber) para tratar de dar una respuesta fundamentada. Lo titularon ¿Qué mueve a los precios de las acciones? Primero, exploraron el efecto de las noticias macroeconómicas en el rendimiento de las acciones entre 1926 y 1985. Usando econometría demostraron que la variancia total de los rendimientos sólo es explicada por los eventos macroeconómicos en aproximadamente un 33% del total de los casos. Después, con otra base de datos, tomaron en cuenta las noticias políticas, al considerar 49 eventos que impactaron el mundo entre 1941 y 1987, y midieron su efecto en los mercados accionarios con su correlato en el periódico New York Times (nyt). Mostraron que estos eventos sólo explicaban, en promedio, el 22% de la varianza total de los rendimientos de las acciones. Concluyen que sus «resultados sugieren la dificultad de explicar hasta el 50% de la varianza de los precios de las acciones sobre la base de la información pública disponible relacionada con sus valores fundamentales» (Cutler, Poterba y Summers, 1988, p. 14).
Esta investigación muestra que la teoría de los mercados eficientes pudiera estar planteada de un modo muy restringido al limitar los cambios de precios sólo a la información relevante. ¿Qué es lo que puede estar omitiendo? Una respuesta tiene que ver con que las finanzas y la economía no sólo cambian debido a los factores exógenos, sino que también se deben tomar en cuenta sus factores de funcionamiento interno, los factores intrínsecos o endógenos.
Para terminar esta sección, se habla un poco de geopolítica y se recuerda que desde el final de la Segunda Guerra Mundial predominó un mundo bipolar entre Estados Unidos y la Unión de Repúblicas Socialistas Soviéticas (urss), que fue denominado la «Guerra Fría», debido al hecho de que ambas potencias contaban con armas nucleares y existía un equilibrio de amenazas que,
afortunadamente, nunca se lograron concretar. El derrumbe del bloque socialista inició en 1989 con la caída del muro de Berlín y se materializó en 1991 con la desintegración de la urss. Es así como Estados Unidos se transformó en el país hegemónico, y el mundo, al menos hasta principios del siglo xxi , se convirtió en unipolar. Esto representó que el capitalismo obtuviera un triunfo importante, en el que las disciplinas económicas y financieras alcanzaron un nuevo despliegue mundial.
Segunda etapa 1992-2008
El modelo de precios de los activos de capital (capm) tiene resultados mixtos. En algunos países, y en determinados periodos, muestra bien la relación positiva entre el riesgo (la beta) y el rendimiento esperado de las acciones cotizadas en los mercados de valores. En otros casos, esto no sucede y muchos investigadores hablan de diferentes «anomalías», mientras algunos otros proponen alternativas distintas, como es el caso de la teoría de arbitraje de precios de Stephen A. Ross. En un intento por agrupar estos resultados, Eugene F. Fama y Kenneth R. French publicaron en 1992 un artículo en el Journal of Finance, para ampliar los factores que explican la tasa de rendimiento requerida por los activos con riesgo. Al igual que el capm original, continúan defendiendo una relación lineal para determinar los precios de manera racional, pero pasan de un escenario unidimensional a uno multidimensional. Para ello, además de la tasa de rendimiento del portafolio de mercado, agregan dos variables, relativamente fáciles de medir, para explicar el riesgo de las acciones. Uno de ellos es el tamaño de la empresa, cuyo valor de capitalización está negativamente correlacionado con el rendimiento promedio. El otro factor se refiere al cociente o la razón entre el precio contable y el precio de mercado de la acción correspondiente, el cual tiene una relación positiva con el rendimiento promedio de la misma. En su artículo concluyen que los tres factores ofrecen una simple y poderosa caracteri-
zación del comportamiento de los rendimientos promedio en Estados Unidos en el periodo comprendido entre 1963 y 1990.
Los psicólogos entran en escena, directamente en la economía y de forma indirecta en las finanzas. En el pasado ya habían participado en señalar algunas violaciones individuales de los supuestos de la utilidad esperada, pero ahora proponen una nueva teoría, dejando a un lado la racionalidad en la toma de decisiones de los agentes económicos. Dos psicólogos, Daniel Kahneman y Amos Tversky, propusieron la teoría de la perspectiva acumulada, tema en el que ya venían trabajando desde hace varios años. Publicaron su propuesta en el Journal of Risk and Uncertainty en 1992 de una manera descriptiva apoyada por las respuestas de estudiantes y profesores a cuestionarios específicos. Fundamentalmente, afirman que la gente no percibe los estados finales (niveles) de la riqueza, de los precios o del bienestar, como lo afirma la teoría de la utilidad esperada, sino que percibe los resultados finales en términos relativos de pérdidas y ganancias. Normalmente estos cambios son definidos respecto a un punto de referencia neutral, que frecuentemente corresponde a la posición actual de la riqueza o del activo en cuestión. Además, las ponderaciones que las personas asignan a los posibles resultados no coinciden con las probabilidades establecidas. En todo este proceso establecen que las personas tienen aversión al riesgo para el caso de las ganancias, pero muestran amor al riesgo en el caso de las pérdidas.
En su reporte de 1992, van más allá y muestran que su nuevo experimento arroja que son cuatro y no dos las diferentes actitudes de las personas al riesgo y la incertidumbre. Así, en el caso de prospectos (juegos) que tienen alta probabilidad para terminar con resultados positivos o negativos, se tiene aversión al riesgo para las ganancias, y amor al riesgo para las pérdidas. Por el otro lado, para prospectos de baja probabilidad, se tiene amor al riesgo para las ganancias, y aversión al riesgo para las pérdidas. Esto ayuda a explicar por qué las personas, por un lado, compran la lotería nacional y, por el otro, adquieren seguros de gastos médicos mayores. También muestran lo que denominan la aversión a las
pérdidas, que se aplica en el caso de juegos o propuestas mixtos.
Así, la gente no aceptaría el lanzamiento de una moneda en que se puede ganar o perder 100 pesos, pero sí jugaría en el caso de que al ganar obtuviera 250 pesos, y si perdiera pagaría 100 pesos.
Toda esta propuesta contradice las teorías de la economía financiera que consideran que los inversionistas siempre tienen aversión al riesgo y se concentran en los niveles de riqueza, no en sus cambios. La gente toma la mayoría de las decisiones no basadas en la razón sino en la intuición. Al final del día, parece ser que la teoría de la utilidad esperada (racionalidad normativa) como la teoría de la perspectiva acumulada («irracionalidad» descriptiva) son incompletas, ya que las personas parecen usar métodos no rigurosos (heurísticos o tanteos) para la toma de decisiones. Todo esto ha dado lugar a contrastar la economía financiera con las finanzas conductuales.
La neurociencia, comúnmente denominada en plural «las neurociencias», se refiere a un grupo de disciplinas —biología y psicología, así como medicina (neurología)— que estudian el sistema nervioso de los seres humanos, midiendo el flujo sanguíneo del cerebro, mediante técnicas invasivas como el electroencefalograma y la tomografía, obtenidas por inyecciones de partículas. En 1992 se aplicó por primera vez una técnica no invasiva con la formación de imágenes mediante resonancia magnética funcional (fmri, por sus siglas en inglés) que detecta y mide los cambios en el flujo sanguíneo en áreas particulares del cerebro, cuando desarrolla sus funciones. En este caso, los individuos son introducidos en un gran aparato para exponerlos ya sea a experimentos, a toma de decisiones, o a situaciones de placer o sufrimiento. Esta costosa máquina puede escanear el cerebro, rastreando en sus distintas regiones la respuesta de los sujetos, al medir el nivel de oxigenación en la sangre, suministrando tanto una visión anatómica como funcional del cerebro. Si todo esto lo aplicamos a la economía, se habla de la neuroeconomía y si lo relacionamos con las finanzas, llegamos a las neurofinanzas. Tomando como base un artículo de Hakim (2017), se proporciona un ejemplo aplicable tanto a la neuroeconomía como a las
neurofinanzas que se refiere a las decisiones que los individuos toman en relación con el tiempo (decisiones intertemporales). En específico, a la forma en que se eligen posibles resultados monetarios que ocurren en distintos periodos de tiempo. En muchas ocasiones se pueden considerar como una medida de la paciencia o impaciencia de los individuos. Una forma típica de medir las decisiones intertemporales es realizando las siguientes dos preguntas a una muestra representativa de personas: 1) ¿Qué prefiere usted, mil pesos ahora mismo o mil cien pesos el día de mañana?
2) ¿Qué seleccionaría, mil pesos dentro de un año o mil cien pesos dentro de un año y un día?
La economía financiera le diría que puede elegir cualquiera de las opciones a las dos preguntas, pero que debe ser consistente. Si decide por los mil ahora debería también seleccionarnos dentro de un año. Si opta por recibir mil cien pesos mañana, debería decidir por mil cien pesos dentro de un año y un día. Puede ser paciente o impaciente pero su preferencia no debería cambiar con el tiempo. Esto constituye la base del modelo de la utilidad descontada propuesto por Paul A. Samuelson (1937) con un carácter normativo basado en la maximización de las utilidades esperadas.
Los psicólogos o los financieros conductuales opinan que las personas son inconsistentes, ya que sus preferencias en el tiempo no son estables. En general, en el corto plazo las personas son impacientes, por lo que deben elegir los mil ahora en la primera pregunta, y en el largo plazo se vuelven más pacientes, por lo que deben seleccionar los mil cien pesos dentro de un año y un día. Richard H. Thaler (1981) utilizando un cuestionario con preguntas hipotéticas proporciona evidencia empírica de la inconsistencia dinámica, mostrando que las ganancias varían inversamente respecto al tamaño de la recompensa y el periodo de tiempo a esperar.
Las neurofinanzas parecen ofrecer un modelo más completo que los dos anteriores. Al aplicar la resonancia magnética funcional (fmri) a los participantes en este experimento, se obtiene no sólo un resultado final, sino también una medición de la actividad
mental, identificando las partes del cerebro que detonan cada decisión. Es decir, en este modelo se obtiene el qué y el cómo de las decisiones temporales. Los resultados de McClure, Laibson, Loewenstein y Cohen (2004) muestran que la inconsistencia dinámica proviene de distintos sistemas neurales que evalúan las recompensas monetarias. Una parte del sistema límbico, donde se originan las emociones, detonan las recompensas inmediatas, y regiones de la corteza prefrontal lateral, sede de la razón, determinan las recompensas diferidas. Esto explica las inconsistencias de elegir mil pesos ahora y los mil cien pesos dentro de un año y un día.
¿Quién considera usted que explica mejor sus decisiones económico-financieras en el tiempo? ¿La economía financiera pura y dura, las finanzas conductuales (economistas con ayuda de los psicólogos) o las neurofinanzas (economistas con ayuda de médicos y biólogos)? Probablemente, usted elegiría a las neurofinanzas, pero los representantes de la economía financiera argumentarían que ese proceso no es útil ya que no se determina el precio del dinero, y es la determinación de los precios de mercado lo que forma la parte fundamental de la economía y de las finanzas.
En esta segunda etapa, existieron otros dos eventos que afectaron significativamente al matrimonio de la economía con las finanzas. El primero se gestó a finales del siglo xx, cuando se empezó a hablar de las diferencias entre las empresas pertenecientes a la «nueva economía», relacionadas con el internet, y las firmas que eran parte de la «vieja economía», como las tres grandes automotrices de Estados Unidos. Se formaron expectativas de que las primeras tendrían utilidades mucho más grandes que las segundas, independientemente de los buenos fundamentos de estas últimas. Entre la disyuntiva del «crecimiento» o del «valor fundamental», la decisión de los inversionistas fue la de preferir las empresas del «crecimiento» sobre las del «valor fundamental». Esto se reflejó en incrementos muy grandes en el índice integrado del nasdaq entre 1997 y 2000. Para dar una idea de los niveles a los que llegaron estas empresas tecnológicas (nueva
economía), se menciona que la relación entre los precios de mercado y sus utilidades por acción (P/U) alcanzaron, en algunos casos, niveles mayores de cien veces, lo que reflejaba una diferencia abismal con el P/U de la «vieja economía» que estaba en niveles de dos dígitos en su parte baja. El 10 de marzo de 2000, el índice nasdaq llegó a su punto más alto, y treinta meses después había perdido el 78%. Hoy se conoce este proceso como la burbuja de las empresas puntocom, y ha puesto en entredicho a la teoría de los mercados eficientes. En especial al supuesto de racionalidad, ya que el proceso de alza de las empresas de la «nueva economía» estuvo fuertemente influenciado por el denominado «efecto manada», aunque en este caso mostró la cara de la «locura» de las masas y no la tradicional «sabiduría» de la que en un principio presumía la sociología.
El segundo evento se refiere a la crisis del sistema financiero de 2008-2009 que tuvo como epicentro a Estados Unidos y, en menor medida, regiones de Europa. En los años anteriores, la banca comercial otorgó una gran cantidad de préstamos hipotecarios a las personas que no tenían los ingresos necesarios para pagarlos en un entorno en donde el precio de la vivienda subía de manera continua y significativa. La mayoría de estos bancos conservaba una pequeña parte de estos préstamos y el resto lo transfería a otras instituciones vía mecanismos que fueron considerados innovadores. Vendían las hipotecas a fideicomisos poco capitalizados (spe) establecidos en paraísos fiscales, que emitían deuda con el respaldo de las hipotecas (cdo) que era colocada por casas de bolsa entre fondos e inversionistas. Estas emisiones ofrecían tasas de interés muy buenas en tramos (partes del portafolio) bien evaluados por las agencias calificadoras, y tasas muy atractivas para las partes que no eran muy bien calificadas. Además, algunas instituciones financieras empezaron a utilizar los denominados seguros por falta de pago (cds), comercializados en los derivados de mostrador, para transferir el riesgo de cualquier tipo de crédito. Con el tiempo, la oferta de vivienda creció más rápido que lo que exigía la demanda, lo que provocó que el precio bajara. La gran mayoría de las hipotecas (subprime o basura) llegaron a tener un valor mayor al del inmueble y todo el círculo virtuoso reventó.
La falta de pagos continuó con los embargos, las emisiones de cdo no se pudieron pagar a sus compradores y los que adquirieron cds no recibían su dinero ya que la contraparte también falló. Es así como se reventó la burbuja inmobiliaria, los bancos comerciales se metieron en más problemas al desaparecer el mercado interbancario, y algunos, como Lehman Brothers, se fueron a la bancarrota. El efecto se trasladó a la producción de bienes y servicios que a nivel global tuvo una contracción en 2009, también influida por la pandemia de la influenza a (h1n1). Tanto los bancos centrales como los gobiernos tuvieron que intervenir con planes de rescate que superaron el trillón de dólares.
Se identificaron una gran cantidad de culpables, como los administradores de las entidades financieras, los reguladores, supervisores y las agencias calificadoras de valores. Resulta claro que la economía y las finanzas fueron afectadas de manera significativa, pero en esta ocasión la causa no vino de un choque externo, sino que fue producto del abuso del sistema financiero para la especulación. Los mensajes para los creadores de teorías financieras y económicas, así como para los inversionistas fueron muy claros. El primero se refiere a que, salvo unas pocas excepciones, no lo vieron venir, no lo pronosticaron. Esto se puede ilustrar con lo que comentó la Reina Isabel ii del Reino Unido en su visita al London School of Economics (lse) en noviembre de 2008, para inaugurar un nuevo edificio académico. El discurso de apertura le tocó a Luis Garicano quien hablo de la crisis financiera y los problemas crediticios. Según comentó en su cuenta de Twitter, al terminar su exposición, la reina le preguntó que «si los economistas eran tan listos y el sistema financiero se encontraba mal, ¿por qué nadie dijo nada al respecto?». La respuesta fue que la crisis se originó como consecuencia de la excesiva confianza que resultó en la quiebra del sistema. La segunda advertencia se refiere al hecho de que no todas las crisis provienen de choques externos, ya que algunas, como ésta, son provocadas de manera interna. Es decir, se debe considerar que existen factores exógenos y endógenos que provocan desequilibrios que pueden durar mucho tiempo.
Es importante terminar esta sección con una gran paradoja. La crisis financiera de 2008 puso en entredicho las principales teorías desarrolladas por la Universidad de Chicago, lo cual ha afectado su credibilidad ante algunos sectores importantes de la sociedad. Sin embargo, en el mes de noviembre de 2008, David G. Booth, egresado de la maestría en Finanzas de la Escuela de Graduados de Negocios de la misma Universidad de Chicago, donó trescientos millones de dólares, la mayor cantidad que ha recibido esta institución. Esto permitió que se mantuviera y se reforzara la facultad, y se tuvieran mayores recursos para la investigación. David G. Booth ha dirigido un exitoso fondo de inversión (Dimensional Fund Advisors) siguiendo los consejos de Eugene F. Fama y otros de sus exprofesores. Hoy cuenta con una riqueza estimada en dos billones de dólares. Como resultado de dicha donación, se renombró la institución que hoy lleva el nombre de Escuela de Negocios Booth de la Universidad de Chicago. ¿Qué prefiere usted, ganar trescientos millones de dólares y perder un poco de credibilidad en un año?, o ¿ganar credibilidad y ver disminuido su capital contable? Este ejercicio de renombrar las escuelas de negocios con donaciones de exalumnos u otros benefactores tiene una larga historia en Estados Unidos, como han sido los casos de Tuck, Tepper, Foster, Simon y Ross, mencionados en este documento. No cabe duda de que algunas de las escuelas de negocios han sido buenas para hacer negocios. Es claro que éste también fue un factor para lograr el matrimonio.
Tercera etapa 2009-2019
La revista semanal británica The Economist, en su edición del 18 de julio de 2009, le dedicó su portada a la teoría económica moderna preguntando: «¿Qué es lo que no funcionó en la economía?», y «¿Cómo la disciplina debería de cambiar para evitar los errores del pasado?». Reconoce que, en términos académicos, la crisis de las hipotecas basura afectó primordialmente a la macroeconomía
y a la economía financiera, dejando intactas la validez de las otras ramas. En la introducción menciona tres críticas generales que son parcialmente ciertas: a) que los economistas de estas dos ramas ayudaron a causar la crisis de 2008, b) que no fueron capaces de advertirla, y c) que no tienen idea de cómo solucionar el problema. Termina esta primera reseña, reconociendo que han existido algunos avances parciales en las dos disciplinas «Pero es necesario un cambio más amplio en la forma de pensar. Los economistas necesitan acercarse en la especialización de sus silos: los macroeconomistas deben entender las finanzas, y los profesores de finanzas necesitan esforzarse más para entender el contexto en el que trabajan los mercados. Y todos necesitan trabajar con mayor ahínco para entender las burbujas de los activos y qué pasa cuando revientan. Ya que al final los economistas son científicos sociales que tratan de entender el mundo real. Y la crisis financiera ha cambiado ese mundo» (The Economist, 2009, p. 5).
Esta misma edición de la revista incluye dos grandes artículos adicionales para entender el problema. Uno dedicado a la macroeconomía, en el que se explican las diferencias entre los seguidores de usar políticas fiscales o monetarias, así como las de los teóricos y los prácticos. También explica cómo los bancos centrales utilizaban los modelos de equilibrio general dinámicos y estocásticos (dsge, por sus siglas en inglés) con los que pronosticaban los cambios económicos sin incluir dentro del mismo al sector financiero. Argumenta que estos modelos funcionaron entre 1982 y 2007 (época llamada «la gran moderación» debido a la falta de terremotos [cambios extremos en el producto interno bruto]). Pero ahora resulta obvio que no pudieron predecir el gran terremoto de la crisis financiera de 2008.
El segundo artículo está dedicado a la teoría de los mercados eficientes de Eugene F. Fama, en él se propone que hay que ir mucho más allá de la misma. No sólo incluyendo las ideas de psicólogos y economistas conductuales, sino también estudiando los aspectos institucionales del sistema financiero y sus regulaciones (ver «Cuarto camino»). Para lo primero destaca la teoría de los
mercados adaptables de Andrew Lo, como una buena alternativa, quien además propone crear un equivalente financiero del Consejo Nacional de Seguridad en el Transporte, que se encarga de investigar los desplomes de la aviación civil en Estados Unidos.
Sólo así podremos saber qué pasó realmente con los fracasos financieros, aprender de ellos y señalar a los culpables, así se trate de economistas financieros.
Resulta claro que no es fácil ir en contra de la corriente dominante en la economía ya que hay muchos intereses creados. En la edición del 8 de agosto de 2009, The Economist publicó un artículo escrito por Robert Lucas de la Universidad de Chicago, titulado «En defensa de la ciencia sombría» en donde se trató de refutar las críticas de que la crisis financiera de 2008 representaba alguna falla en la economía. Expresó su disgusto respecto a la forma en que se caricaturizó a los macroeconomistas y a los financieros en la edición del 18 de julio y dejó muy claro que los economistas no tienen ni tendrán un conjunto de modelos que puedan pronosticar caídas repentinas en el valor de los activos financieros, como las bajas que siguieron después de la quiebra de Lehman Brothers en el mes de septiembre de 2008.
Desde hace varias décadas los mercados de valores de Estados Unidos y las instituciones que los rodean (Wall Street) han atraído a matemáticos, físicos, programadores y hasta filósofos, algunos para trabajar con sueldos atractivos en las casas de bolsa, bancos y fondos de inversión, y otros para probar sus estrategias, casi siempre con dinero de los demás. Sin embargo, con algunas excepciones, las universidades y los institutos de estudios superiores muestran el panorama opuesto. La crisis de 2008 parece haber revertido esta tendencia ya que existe un vacío de conocimiento que se puede aprovechar. Este espacio ha sido ocupado, en gran parte, por el estudio de los sistemas complejos (ver «Segundo camino»), y en otra menor por el desarrollo de la econofísica (ver «Tercer camino»).
El estudio de los sistemas complejos fue iniciado formalmente por el Instituto Río Grande, fundado en 1984 como una organización sin fines de lucro en Santa Fe, Nuevo México, Estados Unidos.
Muy poco tiempo después fue renombrado como el Instituto Santa Fe con el objeto de estudiar sistemas complejos adaptables. Se intentaba realizar un ejercicio transdisciplinar en donde físicos, biólogos e informáticos abordaran temas sociales de interés. Hoy, estudia el tema de la pandemia y es considerado como uno de los líderes mundiales en materia de la complejidad, tanto por los resultados obtenidos en la investigación como por la educación de gran calidad. Esto se ha mantenido a través del apoyo económico de donaciones para su funcionamiento.
M. E. J. Newman (2011) considera que:
No hay una definición técnica precisa de un sistema complejo, pero la mayor parte de los investigadores de este campo probablemente estuvieran de acuerdo en que es un sistema compuesto de muchas partes que interactúan, de tal manera que la conducta colectiva es mayor que la suma de sus conductas individuales. Estas conductas colectivas algunas veces son llamadas conductas emergentes, y se puede decir, por lo tanto, que un sistema complejo es un sistema de partes que interactúan que exhiben una conducta emergente. (p. 1)
El término emergente se usa no en el sentido de que algo o alguien tiene que ser sustituido de manera imprevista, sino que se basa en el hecho de que muchas veces la acción de un colectivo nace o surge de las interacciones de sus participantes. Es claro que tanto la economía de un país como sus mercados financieros pueden ser considerados como un sistema emergente. Normalmente, se usan modelos basados en los agentes (abm, por sus siglas en inglés) en donde cada parte es diferente e interactúa con otros tomando decisiones con base en heurísticos. Se genera la conducta emergente a partir de simulaciones de computadora, que usan diferentes lenguajes, algunos de ellos de código abierto
como es el caso de NetLogo. Se muestra como ejemplo el abm desarrollado por Alfi, Cristelli, Pietronero y Zaccaria (2009) en donde hacen participar a un número finito de agentes que siguen los factores «fundamentales» (dan estabilidad) y a otros que se basan en los análisis «técnicos» (dan inestabilidad) para explorar si se podría producir una caminata al azar en el precio de las acciones, considerando la posibilidad de conductas en manada o de cambios de estrategia. Los resultados muestran que aún con agentes «técnicos» se puede obtener una caminata al azar (mercado eficiente). Además, los resultados pueden explicar tanto las caídas pronunciadas de los precios como su distribución de probabilidad con «colas anchas». No cabe duda de que estos modelos pueden ser muy útiles para explicar las conductas emergentes de los mercados financieros (el lector interesado en la complejidad financiera puede ver los detalles en el «Segundo camino»).
El prefacio del primer libro de texto sobre el «Tercer camino», Una introducción a la econofísica, escrito por Mantegna y Stanley (2000), explica que esta novedosa rama trata de «un neologismo que denota las actividades de los físicos que están trabajando en problemas económicos para probar una nueva variedad de enfoques conceptuales que se derivan de las ciencias físicas» (pp. viii y ix). Es decir, la econofísica se refiere a una parte de la física, en especial, a la estadística física aplicada a la economía. Se dice que es una parte de la física ya que en 2003 ya aparece como una subdisciplina de las ciencias físicas, al ser incluida en el esquema de clasificación de la física y la astrofísica (pacs). Actualmente, algunas universidades de Australia, Polonia y Estados Unidos ofrecen programas de posgrado, y muchas otras instituciones europeas ofrecen cursos individuales de la materia.
La gran mayoría de sus investigaciones estudian los mercados financieros usando algunas características de los fenómenos físicos que son descritos usando leyes de potencia, que generalmente, en el corto plazo, describen los cambios relativos de los precios de las acciones de mejor manera que la distribución normal en la que predominantemente se basa la economía financiera. En especial, explican empíricamente los temas relacionados con las distribuciones de los rendimientos de las acciones que son más pi-
cudas y con colas más gruesas que las normales (leptocúrticas), así como el de su memoria histórica y su volatilidad. Prácticamente todas sus investigaciones se continúan publicando en revistas de física y no han logrado penetrar las revistas económicas y financieras. Por todo ello, hoy los cambios relativos de los precios de las acciones pueden ser modelados usando como analogía lo que sucede con los ciclones tropicales. Es así como son descritos en la mayoría de las ocasiones, como pequeñas fluctuaciones características de una depresión tropical con bajos vientos y sin mareas, pero en algunos otros casos, como un huracán de categoría cinco, con velocidades del viento y mareas altas, en la escala de Saffir-Simpson. En otro contexto, también se pueden describir haciendo la comparación con la energía que libera un terremoto. Es así como se puede decir que en la mayoría de las veces los cambios en los precios relativos de las acciones se parecen a terremotos pequeños, que algunas veces son perceptibles pero rara vez provocan daños, y con menor frecuencia actúan como terremotos mayores que pueden causar serios estragos.
El veloz ascenso de la econofísica no sólo se debe a técnicas estadísticas más sofisticadas desarrolladas en la década de los setenta, sino también a la aparición de nuevas bases de datos intradía que se pueden obtener de los precios de las acciones desde la década de 1990. Los mercados financieros se han vuelto electrónicos, lo que permite no sólo darles seguimiento en tiempo real, sino obtener bases de datos con intervalos de tiempo nunca imaginados. Hoy, los físicos, los reguladores e investigadores analizan los cambios de precios de las acciones de manera que se puede llegar a las millonésimas de segundo (microsegundos = 0.000001 de un segundo). Estas nuevas bases almacenadas de manera electrónica aumentan de manera significativa la cantidad de datos que se tienen, por lo que muchos físicos consideran que es su campo natural de estudio. Por otra parte, lo que sucede en periodos de unos pocos minutos es realmente sorprendente, como lo que reporta Graham Bowley (2010) respecto a que más de una docena de acciones sufrieron desplomes relámpago (flash crashes) entre mayo y septiembre de 2010, provocados en su mayoría por las operaciones de alta frecuencia programadas con algoritmos, com-
binadas con retroalimentación positiva entre los agentes (efecto manada). A veces la tecnología provoca daños colaterales. Algunos investigadores argumentan que se ha llegado a velocidades que pueden provocar mayor volatilidad e inestabilidad en los precios de las acciones, y sugieren que, en este caso, «ir un poco más lento es más rápido». La respuesta de los reguladores ha sido la de establecer algunas reglas que van en esa dirección. Fue así como, en Estados Unidos, el regulador en la materia (sec) aprobó en 2016 que la bolsa de valores iex (Investors Exchange) utilizara una plataforma electrónica que retrasa cada orden de los clientes 350 microsegundos con el objeto de darle a los inversionistas de menudeo e institucionales una oportunidad de competir con los operadores de alta frecuencia. Al momento de escribir estas líneas, iex es una de las trece bolsas de valores registradas en la sec; opera aproximadamente el 2% del mercado nacional y ha decidido salirse del negocio de listar acciones, enfocándose en la operación «justa» de su plataforma (www.iextrading.com).
La econofísica está hecha por físicos, no por economistas. Los econofísicos no usan las teorías desarrolladas por siglos en la esfera económica y financiera, buscan un nuevo enfoque metodológico de la física aplicada a la economía. En este sentido, se trata de una «invasión» a la economía y a las finanzas. Los econofísicos argumentan que es un esfuerzo multidisciplinario, en el sentido de que están tratando de usar los métodos físicos para aplicarlos a la economía. Pero esto es completamente distinto al enfoque interdisciplinario de los sistemas complejos en donde físicos, biólogos e informáticos estudian temas económicos y sociales como pares, en un mismo nivel. Por su parte, los econofísicos han dejado claro que en esta vida «hay clases», y la jerarquía más alta corresponde a la física, la intermedia a la ciencia computacional y la más baja es ocupada por las ciencias sociales2.
2. El lector interesado en los detalles de la econofísica y en estudiar el funcionamiento de las leyes de potencia y las transiciones de fase, que pueden resolver algunas de las anomalías derivadas de la aplicación de la curva normal, pueden referirse al «Tercer camino».
Cuarta etapa: del covid-19 a mayo de 2021
El 20 de enero de 2020, un día antes de iniciar la reunión anual del Foro Económico Mundial (wef) en Davos, Suiza, Kristalina Georgieva, la directora gerente del Fondo Monetario Internacional (fmi), junto con Gita Gopinath, la economista principal del organismo, dieron a conocer la actualización de las perspectivas económicas mundiales. Anunciaron un crecimiento del 3.3% para 2020, lo que representaba una revisión a la baja de una décima porcentual con respecto a su previsión realizada en octubre de 2019. El siguiente día, 21 de enero, Tedros Adhanom Ghebreyesus, director general de la Organización Mundial de la Salud (oms), participó en una sesión del wef junto con Deepika Padukone para hablar del tema de la salud mental de las personas. Ni la directora gerente del fmi ni el director general de la oms hablaron una sola palabra del nuevo virus que se propagaba en China. El 23 de enero de 2020, cuando el wef continuaba con su tercer día de participaciones, el presidente de China Xi JinPing cerraba la ciudad de Wuham para tratar de evitar la propagación del nuevo coronavirus (sars-Cov-2) asociado a la enfermedad covid-19. Los primeros casos fueron conocidos en China en el mes de diciembre de 2019, pero no se tomaron medidas sino hasta el 23 de enero de 2020, lo que provocó que mucha gente que salió del país entre estas fechas lo llevara a otras naciones. No fue sino hasta el 11 de marzo de 2020, cuando se detectaron casos de covid-19 en 114 países, que el director general de la oms consideró esto como una pandemia y expresó su preocupación por los altos niveles de propagación acompañados de alarmantes niveles de inacción. Los focos de atención pasaron de China a Europa, las Américas y el resto del mundo. La crisis epidemiológica obligó, poco a poco, a que los gobiernos decidieran, de una forma u otra, confinar a la población en sus hogares, lo que también ocasionó una crisis económica. Como se dijo al inicio de este capítulo, muchos investigadores consideramos que esta crisis económica fue autoinfligida.
El fmi y el Banco Mundial (bm) realizaron de manera virtual su reunión de primavera en abril de 2020. El primero dio a conocer su nuevo pronóstico de la actividad económica mundial, que reflejaba un decrecimiento del producto interno bruto (pib) del 5.2%. ¿Cómo es posible que después de tres meses las estimaciones hayan cambiado más de ocho puntos porcentuales? Se podría hacer la misma pregunta que la reina Isabel ii hizo en el lse en 2008: «¿Por qué nadie dijo nada al respecto? ¿Por qué no lo vieron venir?» Para justificar este cambio radical en sus proyecciones, el fmi reconoció que sí había discutido internamente la posibilidad de una pandemia, pero que nadie dentro del organismo tuvo un sentido significativo de cómo aterrizarlo y lo que podría implicar en los números económicos. Mencionó que en este nuevo pronóstico puso a trabajar a sus macroeconomistas junto con epidemiólogos para presentar estimaciones con escenarios alternativos. Éste no es el único caso de pronósticos imprecisos por parte del fmi. The Economist (2016) realizó un estudio en el que evaluó estas predicciones en el periodo 1999-2014 y las comparó con métodos menos sofisticados. Normalmente, los pronósticos del siguiente año son dados a conocer por el fmi en el mes de octubre durante sus reuniones de otoño. Es decir, tres meses antes de que inicie el año a predecir. La diferencia entre el resultado y la predicción es, en promedio, de dos y medio puntos porcentuales. Esta estimación es realizada por un ejército de economistas con doctorados académicos, equipados con las mejores computadoras, utilizando modelos muy sofisticados, datos producidos por otros organismos, y con la experiencia de sus ejecutivos colocados en casi todos los rincones del mundo. The Economist comparó estos resultados con el pronóstico hecho por una sola persona que realiza su predicción del siguiente año y selecciona la misma tasa de crecimiento del año en curso. Resulta que el error promedio de esta persona (2.8%) es casi el mismo del fmi (2.5%). El estudio también enfatiza que durante el periodo de estudio existieron 220 casos de países que tuvieron alzas y bajas económicas en años sucesivos, y resulta que el fmi sólo pudo predecir el 50% de estas contracciones.
Esto despertó la atención sobre el trabajo que han hecho los meteorólogos en los últimos setenta años. En las primeras décadas después de la Segunda Guerra Mundial sus pronósticos del tiempo difícilmente llegaban a un nivel de acierto del 50%. Sin embargo, con la mejora de la medición a través de satélites, la inversión de más observatorios, el uso de supercomputadoras y la utilización de múltiples modelos, hoy sus predicciones de la temperatura en la superficie de la tierra son mayores al 90% y del nivel de precipitación (lluvias) superiores al 80%. Sin lugar a duda, es un ejemplo para seguir en las predicciones económicas, y debería ser objeto de un estudio serio el cómo se pueden lograr estos niveles de acierto. Muchos investigadores han opinado que la economía siempre ha tenido envidia de la física. El autor de este libro quiere ser más concreto para opinar que los economistas deberían tener envidia de los pronósticos meteorológicos, que son también parte de la física.
La crisis financiera de 2008, junto con la pandemia de gripe H1N1, llevó a una contracción de la economía mundial en 2009 del 0.1%. Los factores detonantes se ubican en el uso del sistema financiero para la especulación y no para facilitar las transacciones comerciales, es decir, sus causas originales fueron internas. En esta ocasión fueron 91 países afectados que vieron disminuir su producción de bienes y servicios, lo que alcanza para considerarla como una crisis global. Todo esto se diferencia de lo que sucedió en 2020 en donde la contracción reportada por el fmi es del 3.3% y ha sido consecuencia de la pandemia del coronavirus, considerada por los economistas como un choque externo que no está incluido en los modelos que utilizan. Usando los datos de las perspectivas económicas del fmi de abril de 2021, se puede deducir que 166 países y economías tuvieron una caída en su producto interno bruto de 2020. Esta crisis es la de mayor impacto y profundidad desde que se tienen registros derivados del sistema de cuentas nacionales administrado por la Organización de las Naciones Unidas (onu). Adicionalmente, en esta ocasión, el sistema financiero no ha sido el problema, como sucedió en 2008, sino que se considera parte de la solución; al menos, hasta la fecha de escribir estas líneas.
El hecho de que los economistas consideren que la crisis económica de 2020 fue causada por factores exógenos, combinada con el crecimiento en la actividad económica esperado en 2021 (+ 6.0%), le da validez, una vez más, a su planteamiento de que la economía estaba en equilibrio, y que éste fue impactado por el choque externo de la pandemia. Todo esto ha reaccionado rápidamente, como lo dicen sus modelos, y regresará, en el agregado, a un nuevo nivel de equilibrio. Por lo mismo, ya han propuesto volver a su base, y continuar con el uso de los modelos que dieron origen al matrimonio de las finanzas y la economía.
El único problema con lo anterior se debe a la percepción generalizada de que se viven momentos en los que nadie puede estar seguro de lo que va a pasar y menos poner fechas precisas a los escenarios alternativos. La incertidumbre se ha incrementado a niveles extremos, nunca vistos, lo que provoca una falta de orientación del futuro cercano. Esto ha llevado a considerar que los modelos de la economía financiera deben de ser modificados, cambiando el concepto de riesgo y su medición, a un nuevo paradigma que considere como base a la incertidumbre.
Desde hace cien años Frank H. Knight (1921) ya distinguía entre riesgo e incertidumbre. Desde entonces dejó claro que la teoría económica aspiraba a ser precisa o exacta a costa de una menor realidad. Ponía en un extremo a los economistas matemáticos y los teóricos puros (deductivos) y en otro a los que abogan por una ciencia completamente descriptiva (inductivos), y entre estos dos extremos ubicaba a todas las demás corrientes de opinión, para ubicarse en la mitad de éstas. Argumentaba que la diferencia entre riesgo e incertidumbre se debía a que el primero se podía medir y la segunda era de un tipo no cuantificable. El título de su libro deja claro que relaciona los términos de riesgo, incertidumbre y utilidades de los empresarios. Knight desafía el punto de vista convencional, que trata a las utilidades como una recompensa para los emprendedores por tomar riesgos. Considera que esto no es preciso y es mejor argumentar que primero se debe ubicar a los empresarios tomando decisiones con incertidumbre con la esperanza de obtener utilidades. «Es esta incerti-
dumbre real, y no el riesgo, como se ha argumentado, lo que forma las bases de una teoría válida de la utilidad, y explica la divergencia entre la competencia real y la teórica» (Knight, 1921, p. 20).
Menciona que existe una gran ambigüedad en los dos términos y que la gente normalmente asocia el riesgo con las pérdidas y la incertidumbre con las ganancias. La diferencia práctica entre riesgo e incertidumbre es que:
En la primera, la distribución de los resultados es conocida en un conjunto de instancias (ya sea a través de los cálculos a priori o por estadísticas de la experiencia pasada), mientras que en el caso de la incertidumbre esto no es verdad, siendo la razón general en que es imposible formar un grupo de casos, debido a que la situación con la que se enfrenta es única. El mejor ejemplo de la incertidumbre se da en conexión con el ejercicio del juicio o la formación de aquellas opiniones del curso de los eventos futuros, en donde son éstas (y no el conocimiento científico) las que guían realmente nuestra conducta. (Knight, 1921, p. 233)
En el fondo, el mensaje principal se refería a limitar el uso de las probabilidades a los juegos de azar y el uso de las opiniones (juicios) a los casos inciertos.
Este gran pensador consideraba la incertidumbre como un hecho fundamental de la vida que no era posible erradicar, ni en la toma de decisiones empresariales ni en otros campos. Sin embargo, su cantidad podía ser reducida, básicamente, evaluando costos y beneficios, de varias formas, entre las cuales destacan las siguientes: a) incrementando nuestro conocimiento del futuro con la investigación científica basada en datos, y b) realizando asociaciones con organizaciones de mayor escala.
John Kay y Mervin King (2020) explican de manera detallada cómo las ideas de Frank H. Knight, posteriormente apoyadas por otros como John M. Keynes, y George Schackle, que proponen limitar las distribuciones de probabilidad, subjetivas u objetivas, a los casos de riesgo, fueron cuestionadas por Frank Ramsey, Bruno de Finetti, Jimmie Savage, Milton Friedman y muchos otros. Esta batalla de ideas se extendió cerca de tres décadas, al final de las cuales se impuso el último grupo, en el sentido de que dejaron sin efecto las diferencias entre riesgo e incertidumbre, y aplicaron el uso de distribuciones de probabilidad en casi todos los temas de la economía y las finanzas. Fue así como el concepto de incertidumbre prácticamente desapareció de la literatura en la segunda parte del siglo anterior, y se usaba casi como sinónimo del riesgo. Se considera que el mejor ejemplo para demostrar el triunfo del riesgo sobre la incertidumbre se plasma en la teoría de portafolios de Harry Markowitz publicada en el Journal of Finance en 1952. Así, el objetivo de los inversionistas debería ser el de maximizar su tasa de rendimiento esperada, dado un nivel determinado de riesgo, medido por la varianza de dichos rendimientos. De manera alternativa, se debería minimizar el riesgo dado un nivel determinado de rendimiento esperado. En este ejemplo, queda clara la aplicación de las probabilidades en el ámbito financiero, además, cambió completamente la forma de pensar acerca de la manera de invertir. Antes de este documento, la gente no consideraba el riesgo, ni invertía en portafolios. Al contrario, en términos generales, se recomendaba poner «todos los huevos en una canasta» e invertir en las acciones de la empresa que ofreciera el mejor rendimiento posible.
Kay y King (2020), dos economistas británicos de prestigio, decidieron englobar los conceptos de riesgo e incertidumbre desarrollados por Knight y Keynes en un solo componente de incertidumbre que tiene dos vertientes: una parte que tiene solución (resoluble) que llaman incertidumbre resoluble, y otra parte que no se puede resolver (irresoluble) que denominan incertidumbre radical. En el primer caso, la incertidumbre se puede resolver encontrando la respuesta de algo (usando un diccionario, un bus-
cador digital o consultando a un «verdadero» experto) o bien sus resultados pueden ser representados por una distribución de probabilidad conocida (el juego de la ruleta). En el caso de la incertidumbre radical no hay forma de encontrar la solución, y concluyen que «simplemente no sabemos» (frase utilizada por Keynes en 1927).
La incertidumbre radical tiene muchas dimensiones: obscuridad, ignorancia, vaguedad, problemas mal definidos y falta de información, que en algunos casos podríamos esperar rectificar en una fecha futura. Estos aspectos de la incertidumbre son cosas de la experiencia diaria. La incertidumbre radical no puede ser descrita en los términos de probabilidad aplicables a los juegos de azar. No es solamente que no sepamos qué va a suceder. Muchas veces ni siquiera sabemos el tipo de cosas que pueden pasar. Cuando describimos la incertidumbre radical no estamos hablando de las colas gordas (eventos imaginables y bien definidos cuya baja probabilidad puede ser estimada, tales como una larga racha negativa en la ruleta). Y no sólo estamos hablando de los cisnes negros identificados por Nassim Nicholas Taleb (eventos sorpresivos que nadie pudo haber anticipado hasta que suceden, aunque estos cisnes negros son ejemplos de incertidumbre radical). Estamos enfatizando un rango muy amplio de posibilidades que se ubican entre el mundo de los eventos improbables, que a pesar de todo, pueden ser descritos con la ayuda de distribuciones de probabilidad y el mundo de lo inimaginable. Este es el mundo de los futuros inciertos y consecuencias impredecibles, para los cuales es necesaria la especulación y los desacuerdos inevitables (desacuerdos que muchas veces jamás serán resueltos). Y este es el mundo en el que nos encontramos la mayor parte del tiempo. (Kay y King, 2020, p. 14)
Con tales elementos, opinan que la economía debería ser más conocimiento práctico que teórico, y que hay formas de tomar decisiones más allá de los números, para lo cual es necesario usar narrativas. Todo esto lleva de manera parcial a un regreso a lo básico, por considerar vital lo práctico y descriptivo, tanto en la economía como en las finanzas3.
La encrucijada
La discusión de las diferencias se calmó parcialmente ya que entre 2010 y 2019 siempre hubo crecimiento económico mundial. Su promedio en estos diez años fue del 3.7%, iniciando con una tasa del 5.4% y terminando con una del 2.8%. Al final de este periodo, unos consideraban que el obtener tasas de crecimiento bajas en el producto interno constituía la nueva normalidad; otros las estimaban como un estancamiento secular. Sin embargo, todo cambió en 2020, una vez más con la recesión económica derivada del covid-19 y la incertidumbre que llegó a su punto más alto en el primer trimestre de 2020 y continúa hasta la fecha de escribir estas líneas, en una menor escala.
Desde antes de la era común, pasando por la Segunda Guerra Mundial, existen las finanzas descriptivas, y se tiene a la economía financiera matrimoniada en 1970. Después surgieron las finanzas conductuales que incluyen a la psicología, sociología, biología y las neurofinanzas. La crisis de 2008 ha provocado la entrada interdisciplinaria de los sistemas complejos y la dictadura de la econofísica, y el covid-19 ha hecho evidente que la inclusión de la incertidumbre como algo diferente al riesgo es necesaria tanto para los modelos de estudio como para la toma de decisiones.
¿Cuál será el futuro de las finanzas? ¿Habrá divorcio en la economía financiera? ¿Quién dejaría a quién? ¿Podrán los eco-
3. El lector que desee profundizar en el tema de las finanzas prácticas encontrará información adicional en el «Cuarto camino».
nofísicos formar la corriente dominante? ¿Habrá más economistas que dejen la posición dominante, para arropar a la incertidumbre? Aunque estas notas han proporcionado información relevante para que usted tome una decisión, es necesario hablar del número de investigadores involucrados en cada una de las diferentes visiones.
J. Doyne Farmer (2019), uno de los destacados representantes tanto de los sistemas complejos como de la econofísica, quien es director del programa de Complejidad Económica en el Instituto para el Nuevo Pensamiento Económico de la Escuela de Negocios Martin, de la Universidad de Oxford, estima que existen cerca de cuarenta mil economistas en el mundo que realizan investigación que es publicada por las revistas especializadas. También menciona que existen unas 350 revistas, de las cuales cinco tienen una influencia dominante, todas ellas se ubican en Estados Unidos y están asociadas con prestigiadas universidades como la Universidad de Chicago y el mit. Esta pequeña red ejerce un fuerte control sobre quién entra a estudiar, qué tema escoger en las disertaciones y qué es lo que se publica, lo que determina la puerta de entrada para seguir en la academia. Por lo mismo, se considera la corriente dominante. Éstos son los denominados economistas ortodoxos y representan el 98.75% (39,500) del total. Los quinientos restantes, que no están de acuerdo con esta visión del mundo, se denominan heterodoxos y representan el 1.25% del total. Se estima que probablemente cien de los economistas heterodoxos trabajan en el tema de la complejidad económica (que incluye a la econofísica) y como físico de origen se considera a quienes fueron educados en otras áreas distintas a la economía.
De lo anterior, se podría deducir que hay cerca de cuatrocientos economistas que defienden la economía conductual en todas sus vertientes. Este libro ha decidido incluir a las y los economistas conductuales dentro de la corriente dominante ya que algunos de sus investigadores han sido aceptados por la economía financiera y reconocidos por los premios Nobel. Una de las razones principales se refiere al hecho de que, a pesar de sus críticas de los supuestos de racionalidad y equilibrio general del mercado, ba-
san sus argumentos en la distribución normal de probabilidad, pilar fundamental de la economía en general, y de la economía financiera en particular.
Sólo resta considerar aquellos economistas y financieros que no publican y que son profesionales que laboran en el sistema financiero o en el sector empresarial, mismos que pueden defender total o parcialmente la economía o las finanzas descriptivas. En este grupo se incluye a los economistas actuales que defienden la incertidumbre radical. En este sentido, la oficina de estadísticas laborales de Estados Unidos (www.bls.gov) muestra que las actividades financieras ocupaban a 8.7 millones de personas en 2019, lo que representaba el 5.4% del total de empleos. Es obvio que no todas estas personas pasaron por una escuela de negocios, pero podemos hacer la hipótesis muy conservadora de que un 5% de ellos sí lo hicieron. Bajo este escenario 435,000 personas de alguna forma fueron influenciados en su educación por algunos de estos cuarenta mil economistas que publican sus investigaciones. El punto que se quiere resaltar es que los financieros prácticos son una cantidad mucho mayor que los profesores universitarios de finanzas y economía, y seguramente representan a los defensores del enfoque pragmático y descriptivo de las mismas. Esto también puede explicar, aunque sólo parcialmente, por qué el método de casos prácticos de Harvard, instituido en 1924, continúa teniendo un éxito sobresaliente. Otra parte tiene que ver con la actualización de los casos, como lo demuestra que la mba ya incluyó el tema del covid-19, y hoy discuten qué deben de hacer las empresas farmacéuticas en su competencia por las diferentes vacunas y el posible apoyo de los gobiernos.
Muchos de los financieros prácticos que no pasaron por una escuela de graduados de negocios eligieron el camino de las certificaciones profesionales entre las que destacan las otorgadas por el Instituto cfa con sede en Charlottesville, Virginia, Estados Unidos, pero con alcance global. Su programa, o marca más conocida, es el realizado a través de tres exámenes que aplica para otorgar un certificado de analista financiero (cfa, por sus siglas en inglés). El instituto es una organización sin fines de lucro que tie-
ne más de 670 empleados y genera grandes ingresos mediante el cobro de inscripciones, exámenes y cuotas de sus miembros, que actualmente superan las 186,000 personas en el mundo. Cuando usted conozca a una persona que en su tarjeta de presentación use cfa podrá deducir que tiene habilidades financieras prácticas, y cuando otra use mba podrá inferir que tiene competencias teóricas. Hoy muchos de los estudiantes que no tienen una carrera en negocios, y quieren entrar al mundo financiero, evalúan si obtener una cfa o una mba, para lo cual consideran sus costos, tiempos y posibles beneficios.
Bajo este escenario, un nuevo financiero o estudiante de finanzas que se encontrara ante distintos caminos a seguir (encrucijada), tendría como una primera opción al sistema financiero o sector empresarial, lo que lo llevaría a preferir las finanzas descriptivas. El resto de las opciones lo llevaría a la investigación y a la academia; y en esta senda, una segunda alternativa sería la de unirse al monopolio de la corriente dominante, y esperar que su control dure una generación más. Aquí se incluye tanto a la economía financiera como a las finanzas conductuales. Una tercera opción sería la complejidad financiera como una disciplina interdisciplinaria basada en simulaciones de computadora. Finalmente, si considera que la única ciencia dura de todas las aquí mencionadas es la física, debería de seguir el camino de la econofísica. Como lo dice Philip Mirowski (1989) en el subtítulo de su libro: La economía como física social, o la física como la economía natural.
En la práctica, la encrucijada con cuatro caminos será resuelta de distintas maneras, dependiendo de las visiones e intereses de las personas. Cada individuo es libre de tomar el camino que guste, sin embargo, este autor, influido por el tema de la diversificación, está de acuerdo en no poner todos los huevos en una canasta, lo que equivale a incluir en el viaje a los que tomen cualquier camino que ayude a que las finanzas sean multidisciplinarias. George A. Akerlof, premio Nobel de economía en 2001, habla del sesgo de la economía por favorecer las ciencias duras (modelos matemáticos y físicos) y desincentivar las ciencias suaves (sociales), lo que puede resultar en «pecados de omisión» en donde los
investigadores ignoran temas importantes que no pueden ser explicados por las ciencias duras. Esto puede resultar en sacrificar cosas importantes a expensas del uso de las ciencias duras, y concluye que «diferentes terrenos requieren de diferentes vehículos. Un barco de vela no es útil para cruzar un desierto (sin río); un camello no es útil para cruzar un mar» (Akerlof, 2020, p. 416). El autor de este libro está completamente de acuerdo con Akerlof en que la economía debe tener flexibilidad en sus normas. En este sentido, los pecados de omisión pueden provocar los mismos daños que los pecados de comisión.
En caso de que el lector desee obtener más información sobre los diferentes caminos existentes en la encrucijada, se ofrecen cuatro anexos, cuatro caminos, para detallar sus opciones. El primero de ellos usa cinco Premios Nobel otorgados a once economistas y psicólogos en 1990, 1997, 2002, 2013 y 2017, para explicar los desarrollos de la economía financiera y conductual. La economía conductual incluye a las finanzas conductuales que realizan esfuerzos conjuntos entre los neurólogos, biólogos, psicólogos y los financieros, para explicar mejor las decisiones a través de las neurofinanzas, de experimentos o encuestas. El «Segundo camino» incluye a los sistemas complejos que también requieren de la colaboración de físicos, informáticos e investigadores sociales. El «Tercer camino» describe la econofísica como una nueva disciplina que aplica tanto la teoría física como la estadística mecánica para estudiar las finanzas. Finalmente, el «Cuarto camino» describe cómo hay una tendencia a regresar parcialmente a lo básico con la alta incertidumbre que se está viviendo en el mundo. Si usted no requiere de esta información adicional que aparece en los cuatro anexos, y no es mexicano, se le invita a leer la siguiente sección para terminar de mejor humor. En el caso de ser mexicano o tener interés en el país, la última sección le describe brevemente la situación de la economía y finanzas en este país que, geográficamente, se encuentra entre Norteamérica y Mesoamérica.
Un poco de buen humor
Existe una lista muy completa de las frases jocosas que se han hecho sobre los economistas desde hace mucho tiempo. Esta lista fue administrada en una primera instancia por el danés Pasi Kuoppamaki y es ahora gestionada por el Dr. D. A. Dittrich. El inventario puede ser consultado electrónicamente de manera directa o a través del enlace de la asociación americana de economía (aea), ya que la considera como uno de los muchos recursos útiles en internet para sus miembros. Se han seleccionado diez bromas que serán complementadas por uno o varios comentarios del autor.
• Un economista es alguien que conoce el precio de todo y el valor de nada.
Esta mofa hace recordar al autor de este libro las notas de su primer curso serio de microeconomía, en donde se le enseñaba a distinguir entre el valor de uso y el valor de intercambio de las cosas. Esta diferencia se discutía alrededor de la paradoja de los economistas clásicos entre los diamantes (escasos) y el agua (abundante). Al menos en teoría, fueron los neoclásicos los que resolvieron esta paradoja argumentando que el precio de mercado (valor de intercambio) es determinado por la utilidad marginal del consumidor y el valor de uso por su utilidad total. Es decir, en términos totales, valoramos mucho más el agua que los diamantes, pero en términos marginales, un decímetro cúbico adicional de agua tiene menor valor de intercambio (precio de mercado) que un quilate más de diamantes.
Actualmente, los economistas presumen de poder explicar cómo se fijan los precios de mercado. Explican que son determinados por la interacción de la oferta y la demanda de productos y servicios. Esta interrelación provoca que los precios de mercado rápidamente se encuentren en equilibrio mientras no existan cambios en cualquiera de los dos factores. Con la suma de todos los precios de los bienes y servicios finales producidos en un país,
siguiendo las reglas contables de la Organización de las Naciones Unidas (onu), los contadores e informáticos han ayudado a los economistas a calcular el producto interno bruto (pib), que puede ser comparado de manera internacional. El pib encuentra problemas cuando no existen precios de mercado claros. Un ejemplo es la economía digital en donde existen servicios gratuitos, como el correo electrónico o las redes sociales. Por lo mismo, no incluye estas partidas, y dentro del pib sólo se calculan las transacciones que realizan las personas usando las plataformas electrónicas, el denominado comercio electrónico.
Erik Brynjolfsson (2019), director de la iniciativa para la economía digital del mit, ha encontrado una forma de «valuar» el internet. Desarrolló un pib -B en donde no mide la producción, sino los beneficios (B) que la gente obtiene por el uso del internet. Para ello, realiza una encuesta en donde le pregunta a las personas cuánto dispondrían para pagar por los servicios de las redes sociales como Facebook. Obtiene la mediana de las respuestas y concluye que, en Estados Unidos, un ciudadano promedio estaría dispuesto a pagar 48 dólares al mes. Su pib-B ajusta el pib contabilizado con las reglas de la onu para incluir situaciones en las que no es posible o no es claro obtener los precios de mercado.
Mariana Mazzucato (2018) titula su libro El valor de todo y argumenta que no es suficiente hacer ajustes o parches al pib tradicional. Explica que se ha perdido el camino en las discusiones relacionadas con el valor económico a través de los siglos. Recuerda que los mercantilistas del siglo xvii pensaban que el valor provenía del comercio y se interesaban por el tipo de cambio. Después vinieron los fisiócratas en el siglo xviii para opinar que el valor se originaba fundamentalmente en el trabajo agrícola. Los economistas clásicos del siglo xix argumentaban que el valor surgía de la mano de obra industrial y distinguía entre las utilidades de este proceso, de las rentas que no provenían de la producción. Todos estos pensadores describían las condiciones «objetivas» para poder determinar el valor de las cosas, que era lo que fijaba los precios de la mano de obra y de los productos y servicios. Ma-
zzucatto explica que todo cambió en el siglo xx con la llegada de los economistas neoclásicos que hicieron a un lado la teoría del valor y desarrollaron la teoría de precios a través de la oferta y la demanda. Desde entonces los precios determinan el valor. Recomienda hacer una pausa para retomar las discusiones del valor económico con el objeto de poder tener una teoría de precios más equitativa.
• El presidente Truman dijo una vez que quería un asesor económico que fuera manco. ¿Por qué? Porque normalmente los economistas que le daban consejo decían, mire, presidente, por un lado (on one hand) esto, y por el otro lado (on the other) aquello.
Es claro que Harry S. Truman, presidente de Estados Unidos entre 1945 y 1953, no se sentía cómodo con las respuestas poco concretas que le daban sus consejeros económicos, al recibir, cuando menos, dos alternativas; lo que resulta paradójico, dado que la economía diseña «modelos óptimos» para la toma de decisiones de los consumidores, productores, inversionistas y de los burócratas.
En ocasiones esto se puede llevar a cabo cuando los datos estadísticos son comparados con diferentes periodos de tiempo. Un ejemplo es el caso de la estimación oportuna del producto interno bruto (eopib) en México que el Instituto Nacional de Estadística y Geografía (inegi) publica treinta días después de finalizar cada trimestre. El 30 de abril de 2021 dio a conocer con cifras desestacionalizadas la eopib correspondiente al primer trimestre de 2021. Por un lado, la variación real del pib total fue del 0.4% respecto al trimestre previo. Por el otro, el cambio real del pib total fue de (-) 2.9% en relación con el mismo periodo de 2020.
• Todos los modelos están equivocados, pero algunos son útiles (George Box).
George E. P. Box (1919-2013) fue un gran estadístico británico que en 1976 publicó en el Journal of the American Statistical Association un artículo de «Ciencia y estadística» expresando que los científicos deberían usar los modelos más sencillos. Decía que «dado que todos los modelos están equivocados, el científico debe estar alerta a lo que está notablemente mal. No es apropiado estar preocupados por los ratones, cuando hay tigres afuera» (Box, 1976, p. 792). Dos años después lo reiteró, pero agregó que lo único importante es preguntarse si el modelo es útil.
Desde entonces, la discusión para determinar si hay modelos útiles se contesta muy fácilmente siguiendo al economista manco. Por un lado, están aquellos que dan una respuesta afirmativa, y la apoyan con ejemplos de los mapas de las ciudades en donde los turistas resuelven prácticamente todas sus dudas para ubicar las principales atracciones turísticas. Por otro lado, se ubican aquellos que consideran que los mapas nos pueden llevar a un lugar determinado, pero no muestran las características físicas de los lugares, y muchas veces no están actualizados. Estos últimos también hablan de otros mapas geográficos y advierten que no se debe confundir el mapa con el territorio. Al final del día, los modelos se deben probar empíricamente, por lo que se tienen que llegar a validar con los datos.
• Si torturas suficientemente a los datos, la naturaleza siempre confesará (Ronald Coase).
Ronald Coase, quien obtuvo el premio del Banco Central sueco a las Ciencias Económicas en 1991, dijo esta frase en una plática en la Universidad de Virginia a principios de la década de 1960. Posteriormente, fue alterada para afirmar que «si uno tortura los datos el tiempo suficiente, confesarán». Esto puede ser interpretado en el sentido de que los que usan las estadísticas o los econometristas pueden manipular los datos para obtener los resultados
que más les convengan para validar su forma de pensar o sus hipótesis. Desde 1954 hasta 2004 se han escrito algunos libros relacionados con este tema. Darrell Huff (1954) escribió Cómo mentir con estadísticas en donde ilustra con ejemplos sencillos la forma en que el uso de muestras, promedios, tendencias, gráficas y tablas puede ser engañoso. Las primeras líneas del libro de Huff hacen referencia a una frase atribuida al primer ministro británico Benjamin Disraeli, diciendo que «hay tres clases de mentiras: mentiras, mentirotas y estadísticas». Independientemente del origen de esta frase, fue Mark Twain quien se encargó de hacerla popular en Estados Unidos y se continúa utilizando como una forma de identificar a las estadísticas como las mentiras más grandes de todas, cuando se hacen sin honestidad alguna. Joel Best (2004) publicó Más mentirotas y estadísticas: cómo los números confunden los problemas públicos en donde advierte que hay que tener una actitud crítica ante los planteamientos estadísticos analizando minuciosamente el origen de los datos y del profesionalismo del autor. En cualquier escenario, vale la pena recordar la frase de Abraham Lincoln: «puedes engañar a todo el mundo algún tiempo. Puedes engañar a algunos todo el tiempo. Pero no puedes engañar a todo el mundo todo el tiempo». Es bueno saber que el engaño no es eterno, por lo que tarde o temprano es derrotado por la verdad.
• ¿Por qué creó Dios a los economistas? Para hacer que los pronósticos del tiempo se vieran bien.
En la sección de este capítulo, que detalla la cuarta etapa del matrimonio entre la economía y las finanzas, que va del covid-19 a mayo de 2021, se mencionó cómo los meteorólogos han avanzado en sus pronósticos de la temperatura sobre la superficie de la tierra, y hoy aciertan en niveles superiores al 90%. Esto contrasta con lo que sucede con las cuestiones económicas, que se han quedado rezagadas, como lo muestran las predicciones de la actividad económica realizadas por el fmi que difícilmente llegan al 50%. Sin embargo, también es necesario llevar esta comparación al terreno de las finanzas. Desde que Eugene F. Fama (1965), en la academia,
afirmó que no era posible predecir el cambio de precios de las acciones, ha existido un conflicto parcial entre los profesores y los asesores de inversión. Entre los académicos que apoyan la teoría de Fama, destaca Burton G. Malkiel (1973) que a través de varias ediciones de su libro Una caminata al azar en Wall Street mostraba que las personas con los ojos tapados que escogían acciones tirando dardos a las páginas financieras de los periódicos tenían un rendimiento tan bueno como el de un portafolio seleccionado por los expertos financieros. Desde entonces, muchas organizaciones continúan haciendo la competencia cada año, con variantes en las que también usan monos con los ojos tapados y resaltan que, muchas veces, los portafolios de los monos tienen rendimientos superiores a los de los expertos. En la segunda edición, Malkiel (1981) reconoce explícitamente su sesgo en contra de los analistas financieros técnicos (chartists) opinando que constituyen un «anatema del mundo académico» (p. 128). También menciona que estos hechos no sólo tienen evidencia científica, sino que son apoyados por concursos que realiza cada año la revista Forbes (p. 165).
Los analistas financieros se han defendido usando argumentos de que su trabajo es útil para adecuar los portafolios de inversión a las necesidades del cliente y a su tolerancia al riesgo. Además, han encontrado adeptos en el medio académico que muestran que los precios de las acciones no siguen una caminata aleatoria. Un par de ejemplos destacados son Andrew W. Lo y Craig Mackinlay (1999) quienes escribieron el libro Una caminata-no-al-azar en Wall Street, en donde evidencian que los mercados financieros de las acciones y los bonos cotizados en las bolsas de Estados Unidos tienen algunos componentes que son predecibles, aunque todo esto no es inconsistente con la hipótesis de los mercados eficientes. Lo que debe quedar claro al lector es que hay espacio en las finanzas para los académicos y para los trabajadores de Wall Street, así como de que predecir los cambios de precios de las acciones es parcialmente posible, pero es extremadamente difícil. Por todo lo anterior, los financieros quisieran tener los niveles de acierto en sus pronósticos que tienen los meteorólogos.
• ¿Por qué se inventó la astrología? Sólo para que la economía pudiera ser una ciencia exacta.
Se le recuerda al lector que la astrología es una actividad que trata de predecir los acontecimientos de la vida humana con base en la posición de los astros. No se debe confundir con la astronomía, que es parte de la física y utiliza el método científico para estudiar el universo, los movimientos de los astros y las leyes que los rigen. Los astrónomos son científicos y consideran a los astrólogos adivinos, charlatanes o folclóricos. Al llevar esta frase al terreno financiero, Eugene F. Fama (1965a) consideraba que los analistas financieros técnicos de las casas de bolsa eran hacedores y lectores de gráficas que no tenía ninguna validez real para los inversionistas, y su actividad podría ser considerada como un pasatiempo divertido. Concluía (1965b) que «si el modelo de la caminata al azar es una descripción válida de la realidad, el trabajo de los hacedores de gráficas, al igual que el de los astrólogos, no tiene un valor real en el análisis financiero» (p. 80).
• Los pronósticos económicos suponen todo, excepto responsabilidad.
Aunque los bolsones de predicción dependen del ámbito de estudio, de la distancia en el tiempo, de las circunstancias y de muchos otros factores, se menciona lo relativamente certeras que son las predicciones que realizan algunas de las grandes empresas tecnológicas. Cuando usted usa Google para buscar información, es muy común que antes de terminar su escrito, le presente las palabras que va a escribir. Después de comprar un libro en Amazon, recibirá muchas otras opciones que seguramente le interesarán por estar relacionadas con la compra original. En el otro extremo, se ubican los terremotos que, si bien son explicados por los físicos, no se pueden predecir a tiempo.
Entre estos ejemplos se encuentran los bolsones de predictibilidad aplicados a la economía y las finanzas, y aunque muchos no han tenido un buen antecedente en cuanto a su precisión, se
continúan elaborando, con el pretexto de que sirven de orientación o anclaje a la población en general. No se tiene la certeza de si estas predicciones realmente siguen produciéndose debido a que existe una demanda no satisfecha, ya que muchas veces se llevan a cabo con el objeto de influenciar en un tema determinado, o para modificar la conducta de las personas o las empresas (cambio climático), o para entretener mediante los medios de comunicación tradicionales o las redes sociales. El autor de este libro está de acuerdo en que algunos de los pronósticos que se realizan en economía y finanzas rayan en la irresponsabilidad.
• Un economista es un profesional entrenado para equivocarse acerca de la economía. Un econometrista es un profesional entrenado y pagado para usar computadoras para equivocarse acerca de la economía.
En este libro se ha discutido bastante de los economistas, por lo que en esta parte se hablará de los econometristas que se dedican al análisis de las series de tiempo y las relaciones entre variables (regresiones múltiples) teniendo como apoyo la probabilidad y la estadística clásica, con el creciente uso de computadoras cada vez más potentes. En relación con el software de las computadoras, se puede afirmar que, en la década de 1980, sólo se podía acceder al uso de paquetes estadísticos en los recintos universitarios de Estados Unidos y Europa Occidental, y destacaban el Time Series Processor (tsp, hoy eviews) y el Statistical Package for the Social Sciences (spss). Actualmente, no sólo se utilizan a través de las computadoras portátiles, sino que están acompañados por otros programas más amigables como el proyecto R para los cálculos estadísticos, así como el software Python. Por el lado del hardware, la velocidad con la que se realizan las operaciones se ha incrementado enormemente, como se demuestra en los algoritmos (inteligencia artificial o aprendizaje de máquinas) financieros de alta frecuencia que, desde hace algunos años, dominan las operaciones de los mercados organizados. En casos como el de Google ya se está experimentando con computadoras cuánticas que son aún
más rápidas que las actuales, pueden conectarse con las grandes bases de datos, facilitan las simulaciones y resuelven los problemas de maximización. Estos experimentos se están realizando con computadoras medianas, muy ruidosas que aún son inestables, pero algunos expertos estiman que estarán disponibles de manera comercial en el próximo lustro.
En resumen, los econometristas cuentan hoy con mejores condiciones para realizar su trabajo, tanto en software como en hardware. Si usted trata de leer alguna de sus publicaciones en sus revistas especializadas, como Econometrica, es casi seguro que no podrá seguir el hilo de sus desarrollos, debido a la complejidad de la aplicación de las matemáticas. Sin embargo, continúa existiendo cierto grado de flexibilidad en el uso de uno u otro procedimiento, así como en el manejo de los datos o insumos utilizados. Es decir, hay un cierto grado de subjetividad que, en algunos casos, justifica que puedan «usar computadoras para equivocarse acerca de la economía».
• La economía es la única disciplina en la que dos personas pueden obtener un Premio Nobel por decir exactamente la cosa contraria.
En la base de datos de las frases consultadas, aparece una extensión a la misma realizada por Roberto Alazar en donde se agrega «específicamente, el que compartieron Myrdal y Hayek». El autor de este libro ha analizado las conferencias que ambos otorgaron cuando obtuvieron el premio en 1974. Gunnar Myral ofrece un panorama sombrío del problema de la desigualdad y su relación con el desarrollo mundial. Sin embargo, se muestra esperanzado por el desarrollo de la ciencia económica. Por otro lado, Friedrich von Hayek habla de la simulación del conocimiento, mostrando cómo los economistas han fracasado en su diseño de políticas debido al error de tratar de imitar al máximo los procedimientos de las ciencias físicas. Considera que esto es definitivamente poco científico al aplicar sin crítica alguna y de manera mecánica formas de pensamiento ajenas a la economía. En resumen,
parecería ser que Myral quería que la economía fuera una ciencia, viendo bien que se copie a la física, y Hayek deseaba que no se copiaran los procedimientos físicos. Tratando de justificar los premios, otros investigadores opinan que tanto la economía como la física son ciencias, pero la primera es «dura» y la segunda es «suave».
En la introducción de este capítulo se habló de que el premio Nobel de 2013 también parecía contradecir lo que dos de los tres premiados postulaban. Eugene F. Fama consideraba que no se podía predecir los cambios de precios de los activos financieros en el corto plazo. Robert J. Shiller afirmaba que los cambios de precios sí se pueden pronosticar en el largo plazo. Resulta claro que estas posturas pueden ser consideradas contradictorias, máxime que el tercer galardonado, Lars Peter Hansen parece encontrar evidencia de que los resultados de Shiller no son válidos (todas estas ideas serán expuestas con detalle en el «Primer camino»).
A Benjamín Franklin se le atribuye el dicho de que «en este mundo no se puede estar seguro de nada, salvo de la muerte y de los impuestos». Con el correr del tiempo se ha incrementado la esperanza de vida promedio en el mundo, pero también se han creado los denominados «paraísos fiscales», algunos de ellos en islas paradisíacas, que permiten no sólo disfrutar de la naturaleza, sino también evitar el pago de impuestos. Bajo este escenario, sólo existe una cosa segura en nuestra vida y es que tarde o temprano vamos a morir. Si el resto de las cosas son inciertas o riesgosas, debemos saber cuándo la incertidumbre puede ser transformada en situaciones de riesgo y en qué ocasiones no es posible. Al final del día, lo importante es que debemos aprender a vivir con ellas.
• ¿Cuál es la diferencia entre un estudiante que se especializa en finanzas y otro que lo hace en economía?: El costo de oportunidad.
Dos estudiantes obtuvieron su licenciatura de la misma universidad pública de Puebla, México. Juan se graduó de la carrera de
Economía y Pedro de Finanzas. Los costos de los estudios fueron similares en los cinco años que cursaron. Pedro ha conseguido su primer trabajo profesional en una casa de bolsa con un sueldo mensual de 16,000 pesos, y Juan lo ha logrado en el Gobierno federal en donde percibe 10,000 al mes. Hoy son grandes amigos y conviven de manera frecuente, por lo que comparten información de sus condiciones de trabajo y de sus respectivos sueldos. Pedro tiene un ingreso mayor, pero las presiones que enfrenta en su trabajo son muy altas, ya que están en juego las inversiones de sus clientes. Juan percibe menos ingresos, pero sus condiciones de trabajo son más tranquilas, ya que sólo le toca realizar reportes periódicos relacionados con la situación de la Hacienda pública con datos que le son entregados con mucha anticipación.
Derivado de esta información y con el fin de continuar sus vidas laborales, han decidido estudiar maestrías distintas a las de sus licenciaturas. Juan desea una maestría en Administración de Empresas (mba) con especialidad en Finanzas y Pedro una maestría en Economía. Desafortunadamente el estudio de las dos maestrías requiere de tiempo completo por lo que tendrían que renunciar a sus respectivos trabajos. Pedro tendría que sacrificar su ingreso mensual de 16,000 (costo de oportunidad) para poder estudiar su maestría en Economía y Juan dejar de ganar 10,000 (costo de oportunidad) para completar su maestría en Finanzas. Esta disyuntiva ayuda explicar el enunciado de esta sección. En el fondo lo que nos está diciendo es que, en general, los financieros ganan más plata que los economistas, lo cual refleja la realidad de este momento, tanto en México como en Estados Unidos. Los datos mencionados no se encuentran muy alejados de la realidad. El Instituto Mexicano de la Competitividad (imco), organización privada sin fines de lucro y centro de investigación, realiza de manera periódica una comparación de carreras universitarias en México, en la que da a conocer los estudiantes inscritos, qué tan buena será su inversión en educación, cuánto ganan los egresados y dónde trabajan. Si el lector tiene interés en este tema, se le invita a leer la siguiente sección de este capítulo.
Panorama del caso mexicano
La mejor evidencia de que el matrimonio entre la economía y las finanzas ha sido oficialmente reconocido en México se muestra en el hecho de que el Instituto Nacional de Estadística y Geografía (inegi) publica cada año los datos de los economistas junto con los de los financieros. En México se celebra el día del economista el seis de noviembre de cada año y alrededor de esta fecha el inegi publica datos para celebrar este evento, que tienen como origen su encuesta nacional de ocupación y empleo (enoe). El comunicado de prensa 519/20 del 4 de noviembre de 2020 se titula «Estadísticas a propósito de las personas formadas en economía y finanzas, banca y seguros en México». Lo primero que hay que destacar es que en este caso los financieros son distinguidos en tres grupos: a) los que trabajan en los mercados de valores, b) los que laboran en la banca y c) los que prestan sus servicios en las compañías de seguros. El inegi calcula con datos del primer trimestre que el total de economistas y financieros llegó a 256,000 personas, de los cuales el 56% (143,360) son economistas y el 44% (112,640) están formados en finanzas, banca y seguros. Del gran total 44% son mujeres y el 56% son hombres.
Hay que observar que no todas ellas y ellos están empleados o activamente buscando trabajo. Sólo el 71% (182,000) forma parte de la población económicamente activa (pea); de este último total tienen empleo el 92% y el 8% restante se considera desocupada. La distribución porcentual de la población ocupada por sexo es de 59% hombres y 41% de mujeres. Para el caso de la población desocupada, el 21% son hombres y el 79% mujeres. Estos datos son diferentes de los expuestos al final del párrafo anterior, y muestran la gran inequidad de género existente en el mercado laboral. Esta situación representa uno de los grandes desafíos de las disciplinas matrimoniadas oficialmente en México. Se hará un paréntesis para complementar esta información con algunos datos que proporcionan dos de los principales reguladores del sistema financiero mexicano. La Comisión Nacional
Bancaria y de Valores (cnbv) corrobora que los bancos comerciales empleaban a más de 250,000 personas en 2020, aunque en esta cifra no sólo están incluidos los financieros, sino también los contadores, administradores e informáticos. Para el caso de las casas de bolsa se estima que existen más de 1,700 ejecutivos de cuenta (personal operativo) apoyados por más de 1,400 administrativos. La Comisión Nacional de Seguros y Fianzas (cnsf) reporta que el total de agentes vigentes, tanto internos como externos, asciende a una cantidad aproximada de 66,000 personas físicas y morales. Con todos estos datos, el autor quiere resaltar que el mayor número de los financieros en México laboran en los bancos comerciales, seguidos de los que están en las compañías de seguros y, finalmente, la minoría se encuentra en las casas de bolsa que operan con las dos bolsas de valores que existen en México. Lo mismo sucede con el número de cuentas de cada uno de estos subsectores. Es claro que en este sistema financiero se pueden ejercer, en teoría, desde las actividades más seguras (compañías de seguros) hasta las más riesgosas e inciertas (bolsas de valores). Todo esto no excluye que los financieros trabajen en otras instituciones del sistema financiero, así como también en las empresas del sector privado, persigan o no lucro.
Más de 1,600 financieros que trabajan en el sector formal están agrupados en el Instituto Mexicano de Ejecutivos de Finanzas (imef) que existe como una asociación civil desde 1961. Los recursos de operación del imef provienen de las cuotas de los asociados, del cobro de los eventos que organiza, de su convención nacional, de la venta de revistas y de algunos patrocinios.
Los economistas se agrupan y se financian de una manera distinta. Existe prácticamente un colegio de economistas por cada estado, los cuales se encuentran unidos en una federación con una membresía total no mayor de veinte mil profesionistas. Cada uno de estos colegios tiene una estructura legal independiente y normalmente es financiada por los Gobiernos correspondientes o por la universidad pública preponderante en la entidad federativa. Dado que sus miembros no pagan cuota alguna, normalmente no existe una participación y sus dirigentes se manejan con un enfo-
que político para apoyar las acciones del principal financiador. El autor de este libro presidió un colegio estatal y puede atestiguar que la aseveración anterior refleja la realidad. Dada la afirmación previa, corre el riesgo de ser juzgado como un político, más que como un académico. Sin embargo, le pide al lector que decida lo anterior, una vez que termine de leer este documento.
Se regresa al estudio del inegi para hablar nuevamente de la parte académica o de la formación de estos grupos. En el caso de los economistas, 95% cuentan con estudios de licenciatura y sólo el 5% tiene un posgrado. La situación es muy diferente para los financieros ya que el 58% posee una licenciatura y el 42% estudios de maestría o doctorado. ¿En dónde estudian sus posgrados los financieros mexicanos? Seguramente unos pocos estudian en el extranjero y hasta donde tiene conocimiento este autor, la primera maestría en Administración en México se inició hasta 1964 dentro de la Escuela de Graduados en Administración del Instituto Tecnológico de Estudios Superiores de Monterrey (itesm). En 1967 se creó el Instituto Panamericano de Alta Dirección (ipade Business School), emulando el método de casos de Harvard. En 1974 le siguió el Instituto Tecnológico Autónomo de México (itam) con el establecimiento de su maestría en Administración.
Ahumada y Butler (2009) ofrecen un magnífico documento en donde analizan la enseñanza de la economía en México tomando como base diferencias y similitudes entre tres universidades públicas y tres privadas. Es así como describen que, en 1935, se crearon tanto la Escuela Nacional de Economía de la Universidad Nacional Autónoma de México (unam), así como la licenciatura en Economía en la Universidad de Guadalajara (udg), en donde se ubican las mayores matrículas de estudiantes del país. También incluyeron a la Facultad de Economía de la Universidad Autónoma de Nuevo León (uanl) que inició en 1957 con el apoyo del Banco de México. En lo que respecta a las universidades privadas, incluyeron al Instituto Tecnológico Autónomo de México (itam), que fue la primera escuela privada de economía fundada en 1946, seguida por la Universidad Iberoamericana (uia) a mediados de la década de 1970, y al Instituto Tecnológico y de Estudios Supe-
riores de Monterrey, campus Ciudad de México (itesm-ccm) desde la década de 1990.
Ahumada y Butler (2009) comparan los perfiles de la carrera de Economía en las universidades y documentan la forma en que las instituciones públicas privilegiaron el enfoque del desarrollo basado en los trabajos de Keynes y la cepal, junto con una corriente alternativa basada en Marx, con la excepción de la unal En contraste, las universidades privadas desde su origen han basado su formación en el enfoque neoclásico. Concluyen que:
después de un largo proceso de transición todos los estudiantes de economía de México están expuestos de manera única o combinada a la economía neoclásica, dado que todos los planes de estudio contemplan materias obligatorias con este enfoque, en particular teoría microeconómica y macroeconómica. La diferencia estriba en que las universidades con formación neoclásica tienen un mayor número de materias avanzadas en estas áreas. Los libros de texto predominantes en los cursos básicos de microeconomía y macroeconomía en las diferentes instituciones son los libros estándar utilizados por las academias anglosajonas. (Ahumada y Butler, 2009, p. 51)
En resumen, el matrimonio entre la economía y las finanzas es oficial en México, aunque los datos mostrados en este apartado evidencian que su llegada se retrasó mucho tiempo con respecto al mundo anglosajón, tanto en la parte académica como en la laboral. También es claro que se necesita producir mucho más investigaciones y libros para adecuar la literatura existente a la realidad de México. Los retos que enfrenta este matrimonio son enormes, pero más grandes son las oportunidades que se están abriendo en la academia, en la escasa penetración del sistema financiero, y en las autorizaciones que la cnbv está haciendo de las
instituciones de tecnología financiera de acuerdo con la Ley Fintech, entre las que se encuentran el financiamiento colectivo y los pagos electrónicos (el lector interesado en entender con más detalle el funcionamiento del mercado accionario, deberá revisar el segundo y cuarto camino que hablan de la complejidad financiera aplicada al caso mexicano, y de las reglas y los jugadores en el sistema financiero de México).
Ahumada, I. y Butler, F. (2009). La enseñanza de la economía en México. Documento de trabajo 672. Washington, D. C.: Banco Interamericano de Desarrollo, Departamento de Investigación.
Akerlof, G. A. (2020). Sins of omission and the practice of economics. Journal of Economic Literature, 58(2), 405-418.
Alfi, V., Cristelli, M., Pietronero, L. y Zaccaria, A. (2009). Minimal agent based model for financial markets I: Origin and self-organization of stylized facts. The European Physical Journal B, 67(3), 385-397.
Bachelier, L. (1964). Theory of speculation (disertación doctoral). París. Traducido con permiso de Gauthier-Villars y reimpreso en Cootner.
Bernstein, P. L. (1992). Capital ideas: The improbable origins of modern Wall Street. Free Press.
Best, J. (2004). More damned lies and statistics: How numbers confuse public issues. The Regents of the University of California.
Black, F. y Scholes, M. (1973). The pricing of options and corporate liabilities. Journal of Political Economy, 81, 637-654.
Bowley, G. (2010). The flash crash, in miniature. New York Times.
Box, G. E. P. (1976). Science and statistics. Journal of the American Statistical Association, 71(356), 791-799.
Brynjolfsson, E. y Parker, C. (2019). An economist explains how to value internet. World Economic Forum.
Cutler, D., James, M., Porterba, M. y Summer, L. H. (1988). What moves stock prices? nber working paper no. 2538.
Fama, E. F. (1965a). The behavior of stock-market prices. The Journal of Business, 38(1), 34-105.
Fama, E. F. (1965b). Random walks in stock market prices. Financial Analyst Journal, 55-59.
Fama, E. F. (1970). Efficient capital markets: A review of theory and empirical work. The Journal of Finance, 25(2), 383-417.
Fama, E. F. y French, K. (1992). The cross-section of expected stock returns. Journal of Finance, xlvii(2), 427-465.
Farmer, J. D. (2019). How complexity can resolve the crisis in economics. Draft of the introduction to a forthcoming popular book.
Goetzmann, W. (2016). Money changes everthing: How finance made civilization possible. Princeton University Press.
Hakim, M. (2013). Finanzas: vestidas por unos y alborotadas por otros. México: udlap y edaf.
Hakim, M. (2017). Neurociencia y finanzas. Eduforics. Recuperado de www.eduforics.com
Hammurabi, rey de Babilonia. (1728). Código de Hammurabi. Fuente: Feedbooks. Recuperado de www.guao.org/ default/files/biblioteca/Código%20de%20Hammurabi.pdf
Huff, D. (1954). How to lie with statistics (Illustrated by Irving Geis). W. W. Norton & Company.
inegi (2020). Estadísticas a propósito de las personas formadas en economía y finanzas, banca y seguros en México. Comunicado de prensa número 519/20.
Kahneman, D. y Tversky, A. (1992). Advances in prospect theory: Cumulative representation of uncertainty. Journal of Risk and Uncertainty, 5, 297-323.
Kay, J. y Mervyn, K. (2020). Radical uncertainty: Decision-making beyond the numbers. W. W. Norton & Company.
Knight, F. H. (1921). Risk, uncertainty and profit. Edited by Martino Publishing in 2014.
Lo, A. W. y Craig Maclinlay, A. (1999). A non-random walk down Wall Street. Princenton University Press.
Malkiel, B. G. (1981). A random walk down Wall Street. Second College Edition. W.W. Norton & Company.
Mantegna, R. N. y Stanley, H. E. (2000). An introduction to econophysics: Correlations and complexity in finance. Cambridge University Press.
Markowitz, H. M. (1952). Portfolio selection. The Journal of Finance, vii(1), 77-91.
Mazzucato, M. (2018). The value of everything: Making and taking in the global economy. Allen Lane.
McClure, S. M., Laibson, D. I., Loewenstein, G. y Cohen, J. D. (2004). Separate neural systems value immediate and delayed rewards. Science 306, 503-507.
Merton, R. C. (1973). Theory of rational option pricing. Bell Journal of Economics and Management Science, 4, 141-183.
Mirowski, P. (1989). More heat than light: Economics as social physics, physics as nature´s economics. Cambridge University Press.
Modigliani, F. y Miller, M. H. (1958). The cost of capital, corporation finance, and the theory of investment. American Economic Review, 261-297.
Modigliani, F. y Miller, M. H. (1963). Corporate income taxes and the cost of capital: A correction. American Economic Review. 433-442.
Muth, J. F. (1961). Rational expectations and the theory of price movements. Econometrica, 29(3), 315-335.
Neumann, J. V. y Morgenstern, O. (1944). Theory of games and economic behavior. Princeton University Press.
Newman, M. E. J. (2011). Complex systems: A survey. American Journal of Physics, 79, 800-810.
Osborne, M. F. M. (1959). Brownian motion in the stock market. Operations Research, 7, 145-173.
Samuelson, P. A. (1937). A note on measurement of utility. The Review of Economic Studies, 4(2), 155-161.
Samuelson, P. A. (1947). Foundations of economics analysis Cambridge, Harvard University Press.
Sharpe, W. F. (1964). Capital asset prices: A theory of market equilibrium under condition of risk. The Journal of Finance, xix(3), 425-442.
Simon, H. A. (1962). El comportamiento administrativo: Estudio de los procesos decisorios en la organización administrativa. Madrid: Aguilar.
Smith, A. (1983). Investigación de la naturaleza y causas de la riqueza de las naciones. Barcelona: Orbis.
Stewart, I. (2015). 17 ecuaciones que cambiaron el mundo. México: Crítica.
Thaler, R. H. (1981). Some empirical evidence on dynamic inconsistency. Economic Letters, 8, 201-2017.
The Economist. (2009a). What went wrong with economics.
The Economist. (2009b). The other-worldly philosophers.
The Economist. (2009c). Efficiency and beyond.
The Economist. (2009d). In defense of the dismal science.
The Economist. (2016). «A Mean Feat» and Global Emerging Markets Team (2016), Tales from the Emerging World.
Universidad de las Américas Puebla
Primer camino
Los premios del Banco de Suecia a las Ciencias Económicas en memoria
de Alfred Nobel
Alfred Nobel (1833-1896) fue un exitoso industrial dedicado a la producción y venta de explosivos. Se convirtió en un verdadero cosmopolita ya que nació en Suecia, creció en Rusia, estudió química en Francia y en Estados Unidos, y vivió en Reino Unido e Italia. Unos años antes de su muerte, sin notario público de por medio, firmó su testamento en donde dejaba gran parte de su fortuna para el establecimiento de cinco premios en áreas que siempre fueron de su interés. Dejó establecido que su fortuna, que hoy equivale a un poco más de doscientos millones de dólares, fuera invertida en instrumentos financieros seguros que derivara intereses para otorgar los premios a aquellos que durante el año anterior más hayan beneficiado a la humanidad.
El interés tiene que ser dividido en cinco partes iguales y distribuido de la siguiente forma: una parte a la persona que haya hecho la invención o el descubrimiento más importante en el campo de la física; una parte al que
haya realizado el mejor descubrimiento o mejora en la química; una parte a la persona que haya hecho el descubrimiento más importante dentro del dominio de la fisiología o la medicina; una parte a la persona que en el área de la literatura haya producido el trabajo más sobresaliente con una dirección idealista, y una parte a la persona que haya hecho el mayor avance de compañerismo y amistad entre las naciones, la abolición o reducción de los ejércitos existentes y el establecimiento y la promoción de congresos para la paz. (Traducción del testamento de Alfred Nobel tomado de www.nobelprize. com/alfred-nobels-will)
En su testamento expresó su deseo de que los premios de física y química fueran seleccionados y entregados por la Academia Real de Ciencias de Suecia; el premio de fisiología o medicina fuera procesado por el Instituto Karolinska de Estocolmo; el de literatura por la Academia de Estocolmo y el correspondiente al campeón de la paz por un comité de cinco personas seleccionadas por el Parlamento de Noruega. Los primeros premios se entregaron en 1901, cinco años después de su muerte, debido a litigios y problemas familiares, dado que su testamento no se realizó ante un notario público. Desde entonces, y con algunas pausas derivadas de las guerras mundiales, se han entregado de manera anual, tal y como lo deseaba Alfred Nobel.
Un sexto compañero de estos premios surgió en 1968 cuando el banco central de Suecia, al celebrar el 300 aniversario de su establecimiento, decidió crear un premio para las ciencias económicas en memoria de Alfred Nobel. Con este fin, realizó una donación a la Fundación Nobel para que los entregara, a partir de 1969, por medio de la Academia Real de Ciencias de Suecia, siguiendo los mismos principios que los premios originales. Por lo mismo, se creó un comité de cinco personas dentro del banco central que, en combinación con los miembros de la Academia Real, realizan
invitaciones restringidas para las postulaciones. Para ello, envían formatos a profesores permanentes en las materias relevantes de las universidades de Suecia, Dinamarca, Finlandia, Islandia y Noruega, así como a decanos de cuando menos seis universidades escogidas por la academia. También los premiados con anterioridad pueden nominar, así como otros científicos invitados por la academia, que es la responsable de seleccionar a los nominados finalistas escogidos por el comité. Los estatutos originales marcan que los premios se entregan sin hacer distinción alguna a la nacionalidad de las personas, y en 1974 se decidió que los premiados deben estar vivos. Los galardonados reciben un diploma, una medalla y el equivalente a un millón doscientos mil dólares, cifra que se va actualizando con el correr del tiempo. En caso de que existan dos o un máximo de tres premiados, se divide esta cantidad de manera proporcional.
La página electrónica de la fundación www.nobelprize.com contiene toda la información relativa, no sólo a la vida y el testamento de Alfred Nobel, sino también los detalles de cada uno de los ganadores, así como los artículos base de sus conferencias y, más recientemente, videos de los eventos. También describe los procesos de nominación de cada premio y ha desarrollado una red educacional para promover los temas de los premios otorgados, así como los eventos de la fundación. El interés particular de este anexo es el de resumir una parte de los premios del Banco de Suecia concedidos desde 1969; se dice una parte ya que sólo considera aquellos que han sido otorgados en la economía financiera y que posteriormente fueron acompañados por los de economía conductual, que forman la parte dominante de las finanzas actualmente. Todo esto es combinado con algunos comentarios y opiniones del autor de este anexo.
Por lo mismo, se concentrará en cinco premios (1990, 1997, 2002, 2013 y 2017) en los que han sido galardonados once personas, todas del sexo masculino. Esta desigualdad es un reto pendiente tanto para las universidades como para el banco central y la Fundación Nobel. Del total de los once premios, cuando menos seis se han otorgado a personas vinculadas directa o indirecta-
mente con la Universidad de Chicago, por lo que un desafío adicional de los entes mencionados es el de una mayor apertura a otras universidades dentro y fuera de los Estados Unidos. En los siguientes párrafos se harán algunas citas textuales de los artículos base que los galardonados usaron un día antes de la recepción del premio en su conferencia en la Universidad de Estocolmo. Se le advierte al lector que la fuente de dichas citas proviene de documentos o videos que se encuentran en el sitio web de la Fundación Nobel, por lo que este anexo prácticamente no cuenta con otras referencias bibliográficas.
Premio de 1990
Harry M. Markowitz, Merton H. Miller y
William F. Sharpe
«Por su trabajo pionero en la teoría de la economía financiera»
Los premios del Banco de Suecia iniciaron en 1969 y tuvieron que pasar veintiún años para que se reconociera por primera vez a la economía financiera. Aunque el matrimonio por conveniencia entre la economía y las finanzas se llevó a cabo en 1970 en la Universidad de Chicago, y el término de economía financiera se reconoció por primera vez en 1974 en la revista Journal of Financial Economics, editada por la Universidad de Rochester, el que el Banco de Suecia también haya reconocido este hecho, consolidó su relación de manera importante. No es para sorprenderse, pero dos de los tres galardonados en 1990, estuvieron relacionados con la Universidad de Chicago. A continuación, se realizará un resumen de las conferencias Nobel, junto con algunas menciones adicionales. Los premios del banco central sueco listan a los galardonados en orden alfabético, pero en esta ocasión el autor ha cambiado parcialmente el orden para dar una secuencia de temas relacionados.
de las Américas Puebla
harry m. markowitz (1/3) (1927 - p.) fundamentos de la teoría de portafolios
En su conferencia Nobel deja claro que su trabajo es parte de la microeconomía, y viene a acompañar a las teorías de la empresa y del consumidor que se basan en procesos de optimización. Su desarrollo se refiere a la conducta de los inversionistas en los mercados de acciones organizados lo que es diferente a la de los productores de bienes o de los consumidores. Resalta que en la toma de decisiones óptimas de un conjunto de acciones (cartera) existe incertidumbre que tiene que ser considerada. Si un inversionista conociera con certeza los rendimientos esperados de una cartera de acciones, invertiría todo su dinero en aquella que le ofrezca la mayor tasa, y si existen tres acciones que brindan el mismo rendimiento porcentual, sería indiferente entre las tres o entre cualquier combinación de ellas. Es decir, en un mundo cierto no existiría la diversificación de portafolios, y se elegiría la acción con el mayor rendimiento, poniendo todos los recursos en una sola «canasta». Al existir incertidumbre en la práctica, su teoría recomienda la diversificación del portafolio lo que implica no poner todos los huevos (dinero) en una misma canasta (acción). Esta teoría, a diferencia de muchas otras, puede ser comprobada directamente con datos reales, al menos por los inversionistas con grandes recursos financieros, bases de datos y computadoras potentes. Markowitz se refiere a los llamados inversionistas institucionales, hoy representados por los administradores de fondos, sociedades financieras y bancarias.
Cuando Markowitz habla de incertidumbre, se refiere a situaciones en las que los inversionistas conocen las distribuciones de probabilidad de los rendimientos, ya sea de manera objetiva o subjetiva (creencias). Esto equivale a reducir la incertidumbre a casos que pueden ser medidos por los inversionistas racionales. Es así como afirma que para la toma de decisiones se requiere de cuando menos los dos primeros momentos de la distribución de probabilidad; los rendimientos promedio de los valores y su varianza (o equivalentemente, su desviación estándar), que se
considera como la medida del riesgo financiero. Cuando el inversionista tiene que elegir entre un número grande de alternativas, deberá considerar que el riesgo de su portafolio incluye la suma ponderada de las varianzas de cada uno de sus miembros, así como de las covarianzas existentes entre cada una de las acciones que la componen. Con toda esta información se pueden llevar a cabo los cálculos para que cada inversionista, dependiendo de sus preferencias, pueda maximizar su valor esperado dado un nivel determinado de riesgo. Esto lo puede hacer a través de lo que se conoce con el nombre de la frontera eficiente, de donde escoge entre los portafolios que también se denominan eficientes.
Este ejercicio puede ser aplicado a un modelo dinámico en el tiempo, pero esto implica que, en cada periodo individual, los inversionistas deben maximizar su utilidad esperada. Esto es equivalente a saber si con toda la información recabada de la distribución de probabilidad de los rendimientos esperados y sus varianzas, se puede estimar las preferencias (utilidad total) de los inversionistas. Menciona una gran cantidad de investigaciones que muestran una alta correlación entre los portafolios eficientes y la utilidad total de los inversionistas, pero también algunos casos en donde hay inconsistencias. La definición de la utilidad total de los inversionistas es un asunto pendiente, ya que en muchas ocasiones la teoría de portafolios es una buena aproximación de la realidad, pero en algunas otras parece ser que es necesario analizar también la simetría (asimetría) y lo chato (picudo) de la distribución, también conocido como su curtosis o cuarto momento. Alternativamente, se puede explorar si existe una medida alternativa al riesgo del portafolio que sirva en el análisis, tal como el caso de la semivarianza que sólo incluye a las desviaciones negativas con respecto al rendimiento esperado. Markowitz fue muy sincero y realista al reconocer que su teoría reflejaba la realidad en algunas ocasiones, por lo que también existían preguntas abiertas para más investigaciones y experimentos. En cualquier escenario, Markowitz cambió radicalmente la forma de pensar y de actuar de los inversionistas con riesgo, así como de los economistas neoclásicos; es un gran precursor de la
economía financiera, y hoy, a sus 94 años, continúa parcialmente activo dando entrevistas, consultoría y escribiendo libros, desde el sur de California, Estados Unidos. Se termina esta sección reproduciendo el último párrafo de su conferencia Nobel del 7 de diciembre de 1990.
Finalmente, me gustaría añadir un comentario relacionado con la teoría de portafolios como parte de la microeconomía en acción bajo condiciones de incertidumbre. No siempre ha sido considerado de esta forma. Por ejemplo, cuando defendí mi disertación como estudiante en el Departamento de Economía de la Universidad de Chicago, el profesor Milton Friedman argumentó que la teoría de portafolio no era economía, y que ellos no podían otorgarme un doctorado en economía por una disertación que no era parte de la economía. Supuse que no estaba hablando completamente en serio, ya que después de un largo debate me entregaron la titulación. En cuanto a los méritos de su argumento, a estas alturas, estoy dispuesto a admitir que: en la fecha en que defendí mi disertación, la teoría de portafolio no era parte de la economía. Pero ahora sí lo es. (Markowitz, 1990, p. 286)
william f. sharpe (1/3) (1934 - p.)
precios de los activos de capital con y sin posiciones negativas
Resulta importante mencionar que Sharpe y Markowitz fueron compañeros de trabajo en la Corporación rand en la segunda parte de la década de 1950. Sharpe tenía que elaborar su diserta-
ción para poder doctorarse de economía en la ucla, y fue Markowitz quien lo convenció de escoger temas relacionados con la teoría de portafolios.
En su conferencia Nobel, Sharpe mencionó que su modelo de precios para activos de capital (capm) tiene una estructura descriptiva ya que su objetivo es explicar la determinación de precios de equilibrio en un mercado competitivo. Esto complementa la teoría de portafolios de Markowitz que constituye un modelo normativo que determina cómo los inversionistas deberían seleccionar portafolios de manera óptima. El capm supone que los inversionistas siguen las prescripciones de la teoría de Markowitz, con sus funciones de utilidad (preferencias) y la intervención de una gran cantidad de participantes que tienen acceso a la misma información.
En el desarrollo del capítulo único ya se mencionó que el capm se utiliza para explicar que la tasa de rendimiento requerida de cualquier activo con riesgo es igual, en una forma lineal, a la tasa libre de riesgo (como la de los bonos gubernamentales de Estados Unidos) más un premio por el riesgo que se va a tomar. Este premio tiene dos partes: a) la cantidad de riesgo medida por la sensibilidad que tiene con el mercado (la llamada beta), y b) el precio del riesgo que es determinado por la diferencia entre el rendimiento esperado por el mercado y la tasa libre de riesgo. En este caso la definición del riesgo ya no es la varianza o la desviación estándar que usó Markowitz, sino la denominada beta, que se obtiene dividiendo la covarianza entre los rendimientos de una acción y la del portafolio de mercado, entre la varianza del portafolio de mercado. El capm se deriva con los supuestos que no existen costos de transacciones ni restricciones para que los valores sean completamente divisibles. Es decir, supone que los mercados de capital no tienen fricción alguna para poder operar.
En su conferencia Nobel, explicó que las posiciones que pueden tomar los inversionistas son positivas, cero o negativas. Estas últimas, aplicadas a los activos con riesgo, se refieren a la posibilidad de realizar ventas en corto. Si las aplicamos a la tasa libre de
riesgo, se refieren a que los inversionistas también pueden pedir dinero prestado. Se ofrece una pequeña explicación para el lector que no esté familiarizado con las ventas en corto. La operación tradicional en el mercado accionario al alza inicia con una compra para su posterior venta y obtención de la ganancia. Pero cuando un inversionista considera que los precios de una acción van a bajar, se puede revertir el proceso, primero vende una acción que obtiene mediante un préstamo y luego la compra a un precio menor, para obtener la ganancia. Este último proceso se conoce con el nombre de venta en corto. La operación se lleva a cabo en las bolsas de valores, y son las casas de bolsa las que intervienen entre el prestamista de los títulos accionarios y el vendedor en corto (prestatario).
En el caso de que no puedan tomar posiciones negativas, el capm puede arrojar que el portafolio de mercado no sea eficiente y que no se mantenga la relación lineal entre los rendimientos esperados y la beta. Sharpe aboga por tener mercados de capital lo más completos posible, o con la menor cantidad de fricciones para operar, y concluye que las innovaciones financieras y los avances tecnológicos han ayudado mucho para este efecto, destacando la posibilidad de que ya existen contratos de futuros de los índices accionarios. Todo esto, combinado con la reducción de los costos de operación, hacen que existan menos restricciones, por lo que los mercados de capital se están moviendo más cerca de las teorías financieras más sencillas. Considera que la economía financiera, más que ninguna otra ciencia, no sólo analiza la realidad, sino también la altera. ¿Será? Se puede resumir que los trabajos complementarios de Markowitz (comportamiento óptimo de los inversionistas) y Sharpe (equilibrio económico) han establecido las bases de la economía financiera. Sin embargo, tal y como lo afirma Sharpe en su conferencia Nobel, más allá de estos enfoques basados en la utilidad de los inversionistas, existen modelos basados en el arbitraje de precios que también son parte integral de la economía financiera.
merton h. miller (1/3). (1923 - 2000)
apalancamiento
En la introducción de su conferencia Nobel, Merton H. Miller reconoció que obtuvo este premio como consecuencia de los trabajos que realizó con Franco Modigliani, denominados como proposiciones M&M, en donde afirman que el valor de una empresa es independiente de su estructura de capital. Resalta que estas proposiciones se pueden considerar como descubrimientos importantes, pero que de ninguna forma se trata de un invento. Deja muy claro que no es un coinventor de las compras apalancadas que tuvieron lugar en Estados Unidos en la década de 1980, en donde los nuevos dueños de las empresas aportaban muy poco capital y las endeudaban al máximo posible. Su preocupación era tal que en lugar de hablar de las proposiciones M&M (1958) y su revisión 30 años después (jep, 1988), decidió concentrar su aplicación a las compras apalancadas mencionadas, en particular a los denominados bonos basura, el riesgo para la economía y el costo de la angustia financiera. Debido a lo anterior, el autor de este anexo ha decidido utilizar este espacio para explicar brevemente las proposiciones de M&M, y terminar con una hipótesis de por qué el premio se otorgó en 1985 a Franco Modigliani, y de manera compartida a Merton H. Miller en 1990.
La primera proposición de M&M (American Economic Review, 1958) se realizó bajo el supuesto de que los mercados financieros funcionan de manera perfecta (no existen impuestos ni costos de quiebras) y se encuentran en equilibrio. Definen el valor de mercado de una empresa como la suma de los precios de sus acciones y deuda, y consideran que se pueden calcular como el valor presente de los flujos de efectivo esperados antes del pago de intereses. Es decir, el valor de una empresa es completamente determinado por la tasa de descuento, así como por el rendimiento de los activos existentes, y es independiente de cómo son financiados estos activos. En resumen, encuentran que bajo estas condiciones el valor de la empresa está determinado por sus activos reales, no por los valores que emite. Consideran que los inversio-
nistas pueden prestar o pedir prestado por su cuenta en las mismas condiciones que las empresas, por lo que pueden duplicar o deshacer los efectos de cualquier cambio en la estructura de capital.
La segunda proposición de M&M se deriva de la primera y obtiene la tasa de rendimiento de las acciones de una empresa cuya estructura de capital incluye deuda. En este caso particular encuentran que el rendimiento esperado de las acciones es una función lineal del porcentaje de deuda a capital. Cuando una empresa no tiene deuda, el rendimiento esperado de sus activos es igual al de sus acciones. Pero cuando se endeuda, el rendimiento de sus acciones supera al de los activos, y de manera lineal, entre mayor es el porcentaje de deuda, mayor será el rendimiento de sus acciones. No existe ninguna contradicción entre las dos proposiciones, ya que el incremento en el rendimiento esperado de la acción de una empresa apalancada es compensado con un aumento similar en el riesgo y, por lo tanto, en la tasa de rendimiento requerida por los accionistas.
M&M (The Journal of Business, 1961) usan básicamente los mismos supuestos para llegar a la conclusión de que si las decisiones de inversión se consideran como dadas, el valor de la empresa es también independiente de su política de dividendos. Es así como un incremento en el pago de dividendos incrementa el ingreso del accionista, pero al mismo tiempo es compensado por una reducción en el precio de mercado de la acción.
El enfoque de M&M es muy diferente a los análisis que se realizaban anteriormente en las finanzas y ha dado lugar a una gran cantidad de investigaciones en las cuales se relajan muchos de los supuestos. Su contribución ayuda a entender de mejor manera el uso de la deuda, con sus ventajas e inconvenientes4.
4. Si el lector tiene interés en profundizar en este tema, puede recurrir directamente a los artículos publicados por M&M que aparecen en las referencias bibliográficas de este anexo, o, más fácil, consultar cualquier libro de finanzas corporativas, en donde podrá encontrar el desarrollo de los tres temas que corresponden al premio del Banco de Suecia en 1990.
Franco Modigliani obtuvo el premio en 1985 «por su trabajo pionero en el análisis del ahorro y los mercados financieros». Por lo mismo, en su conferencia Nobel se concentró en el ahorro individual y nacional, que ha llegado a ser conocido como la hipótesis de los ahorros durante el ciclo de vida. Habló de sus bases, extensiones y aplicaciones de política pública. Sin embargo, el profesor Ragnar Bentzel, en la presentación de la conferencia, detalló que el premio se le otorgaba a Modigliani tanto por la hipótesis del ciclo de vida, como por su contribución a la formulación de las proposiciones M&M. ¿Por qué no le entregaron a Merton H. Miller el premio en 1985 junto con su compañero? Dado que la respuesta no es conocida públicamente, el autor de este anexo se atreve a postular la hipótesis de que los responsables de la Academia Real de Ciencias y del Banco de Suecia se dieron cuenta de este grave error, y rectificaron en 1990. Es así como se puede argumentar que mediante las proposiciones M&M, las finanzas corporativas también pueden ser consideradas como parte de la economía financiera.
Premio de 1997
Robert C. Merton y Myron S. Scholes
«Por un nuevo método para determinar el valor de los derivados»
Después de siete años de la aparición del término «economía financiera», los premios fortalecen a la disciplina con un proyecto innovador en donde las matemáticas son pieza fundamental. Además, para seguir con el matrimonio que inició en Chicago en 1970, se continúa galardonando a otro egresado de la Universidad de Chicago.
Se le recuerda al lector que los derivados se refieren a aquellos instrumentos financieros que derivan su valor de un activo original (base), que puede ser una acción, una tasa de interés, una moneda u otro instrumento. Los más usados son los futuros, los swaps y las opciones. El premio se entregó básicamente porque los galardonados desarrollaron un método para calcular el precio de los derivados en general y de las opciones de acciones, en particular. Las dos opciones financieras básicas otorgan el derecho de comprar (call) o vender (put) un activo a un precio determinado por un periodo de tiempo específico. Para obtener este derecho hay que pagar al emisor de dicha opción, quien tiene la obligación, al menos en términos legales, de cumplir.
El lunes 1 de febrero de 2021 el precio de apertura de Amazon (amzn) era de 3,206 dólares por acción en el mercado nasdaq. Usted considera que el precio de la acción va a subir en el resto del año, pero no tiene el dinero suficiente, por lo que, en su lugar, decide comprar una opción, que tiene un precio mucho más accesible. En ese momento, las opciones con vencimiento del 17 de diciembre de 2021 muestran un precio de mercado de 400 dólares por acción con un precio de ejercicio de 3,400 dólares. Esta opción de compra (call) le dará el derecho de comprar un lote de acciones de amzn a un precio de ejercicio de 3,400 dólares desde ahora y hasta el 17 de diciembre de 2021. Usted puede perder toda su «inversión» en caso de que el precio de contado del valor base nunca supere los 3,400 dólares, pero en caso contrario, puede obtener utilidades ilimitadas. En esta última situación, puede ejercer su opción y luego vender el valor base, o alternativamente puede vender su derecho en el mercado de valores organizado. Para determinar el valor teórico de la opción, los galardonados desarrollaron un modelo que usa dos estrategias equivalentes para derivar su correspondiente fórmula. Los factores que determinan este valor dependen del precio de mercado de la acción, del precio de ejercicio de la opción, del tiempo que falte para el vencimiento de la opción, de la tasa de interés y de la volatilidad del valor base. Todos los factores se pueden obtener fácilmente con datos públicos, con la excepción de la volatilidad futura del
valor base. Esta variabilidad se puede considerar una medida del precio del riesgo de la opción y es el elemento fundamental en la toma de decisiones. Tanto Fisher Black y Myron S. Scholes (1972 y 1973) como Robert C. Merton la obtienen mediante operaciones que mantienen la fórmula en equilibrio y estiman la volatilidad implícita. Para el caso de la opción de compra de amzn los operadores estiman que la volatilidad implícita es del 38.3% medida a través de la desviación estándar de los rendimientos de la acción base. Además, los inversionistas estiman la volatilidad con datos históricos de amzn y la comparan con la implícita para tomar una decisión. En cualquier escenario, el uso de la fórmula para valuar opciones sigue siendo un referente útil para evaluar los derivados, ya sea que se negocien en los mercados de mostrador (contratos hechos a la medida de necesidades particulares) o en las bolsas de valores organizadas (contratos estándares).
robert c. merton (1/2) (1944 - p.) aplicaciones de la teoría de precios de las opciones: 25 años después
Merton inicia su conferencia recordando que fue Bachelier en su disertación de 1900 quien aplicó las matemáticas para la determinación de los precios de las opciones. Este importante trabajo fue hecho a un lado ya que durante más de la mitad del siglo xx las finanzas se desarrollaron fundamentalmente de manera práctica. La «teoría financiera era un poco más que un conjunto de anécdotas, reglas de dedo y la mezcla de datos contables» (Merton, 1997, p. 86). Reconoce que esto cambió con los estudios de Samuelson, Litner y los galardonados con el premio del Banco de Suecia en 1990. Aunque estos trabajos han tenido un impacto significativo en la práctica de las finanzas,
el desarrollo más importante en términos de impacto en la práctica financiera fue el modelo para valuar opciones de Black y Scholes. No obstante, paradójicamente, el
modelo matemático fue desarrollado completamente de manera teórica, sin esencialmente hacer referencia a los datos empíricos de los precios de las opciones como una motivación para su formulación. (Merton, 1997, p. 86)
Considera que este modelo ha ayudado a reducir significativamente los costos de operación y que lo seguirá haciendo conforme los usuarios de los derivados continúen en la curva de aprendizaje.
Su principal contribución fue complementar la teoría de precios prescrita por Black y Scholes. En especial, mostró que existe una estrategia de negociación dinámica para compensar la exposición al riesgo de una opción que proporciona una protección perfecta en el límite de la negociación continua. Es decir, un inversionista puede replicar exactamente los resultados de una opción usando el activo base en combinación con una tasa libre de riesgo. En un ambiente de negociación continua el precio de la opción debe ser igual al precio determinado por la fórmula de Black y Scholes, y si esto no se da, existirán oportunidades para obtener ganancias mediante las operaciones de arbitraje. Dedica más de doce páginas de su artículo de la conferencia para derivar matemáticamente el precio de los derivados, pero no es resumida aquí, con el objeto de cumplir la promesa de minimizar el uso de fórmulas o gráficas en este libro.
Merton opina que lo logrado se puede considerar una «tecnología» y describe muchos ejemplos de aplicaciones del método de valuaciones de opciones tanto en el sector financiero como en el mundo «real». Para el primer caso, destaca la posibilidad de usarla para valuar contratos de las compañías aseguradoras; para el segundo, para decisiones relacionadas con la industria del cine. Se dedican los dos siguientes párrafos para detallar cada uno de estos ejemplos seleccionados arbitrariamente por el autor de este anexo.
El que paga por una opción de venta (put) tiene el derecho de vender un instrumento financiero base por un periodo de tiempo determinado (expiración) a un precio determinado (precio de ejercicio). Cuando esta opción se combina con la compra del valor base es funcionalmente equivalente a un seguro que protege a su dueño contra cualquier pérdida en el valor del activo base por debajo del precio de ejercicio de la opción, cualquiera que sea la causa de la caída, y en donde los términos del contrato de seguro corresponden a la fecha en que vence la opción.
En el mundo «real» (no financiero) de la industria del entretenimiento se pueden aplicar las opciones para decidir si se realiza sólo una película para presentarla en el futuro inmediato, o si de manera simultánea se filma la segunda parte para ser exhibida en el futuro intermedio. Es decir, las alternativas son: a) filmar la película, exhibirla y, si tiene éxito, llevar a cabo la filmación de la segunda parte, o b) producir la película original y la segunda parte al mismo tiempo. Uno no tiene que ser experto en la materia para adivinar que el costo incremental de producir la segunda parte será menor en b que en a. Sin embargo, típicamente la alternativa a es preferida, especialmente con películas muy costosas. La razón económica de escoger a es que brinda la «opción» de no realizar la segunda parte si la original fracasa rotundamente. Si el productor supiera con un alto grado de certeza que la segunda parte será producida, entonces el valor de la «opción» de esperar por más información es pequeño, y el costo de producir la segunda parte por separado seguramente excedería su beneficio. Esto refleja que la incertidumbre (riesgo) es crítica para la toma de decisiones y que el modelo de valuación de opciones es un instrumento para ponderar los costos y beneficios de las alternativas. Merton veía el futuro de las aplicaciones de la «tecnología» para valuar opciones cambiando de aplicaciones tácticas como las mencionadas anteriormente, a aplicaciones estratégicas. Específicamente menciona ejemplos relacionados con las compañías eléctricas y de energía (refinerías sintéticas con el uso de derivados como lo fue Enron) que son fundamentales para todas las economías del mundo. Termina con un llamado de cautela en el
uso y aplicación práctica de las matemáticas a la economía, y en especial a su teoría de valuación de opciones.
A veces, podemos perder de vista el objetivo final de los modelos cuando sus matemáticas llegan a ser muy interesantes. Las matemáticas de los modelos financieros pueden ser aplicadas con precisión, pero los modelos no son del todo exactos en sus aplicaciones a un mundo real complejo. Su fidelidad es una aproximación útil a un mundo que cambia significativamente a través del tiempo y de los lugares. Los modelos deben ser aplicados en la práctica solo tentativamente, con una evaluación cuidadosa de las limitaciones en cada aplicación. (Merton, 1997, p. 112)
myron s. scholes (1/2) (1941 - p.) los derivados en un medio ambiente dinámico
En la primera parte de su documento para la exposición de la conferencia Nobel, Scholes aclaró que ni Merton ni Black, quien falleció en 1995, ni él fueron los que inventaron los derivados. Las opciones ya eran negociadas al final del siglo xvii en la bolsa de valores de Ámsterdam y en la Compañía de Comercio de Chicago (cbot) a principios de 1930. También mencionó la investigación realizada por Bachelier en 1900 para entender el mecanismo de precios de las opciones, hasta llegar al modelo desarrollado por los galardonados en la década de 1970.
Scholes no aclara cuál es la diferencia entre sus «inventos» (tecnología) y los estudios de Bachelier, por lo que se hará una pequeña pausa para tratar de explicar sus diferencias. La tesis de Bachelier explicó que el cálculo de probabilidades difícilmente puede ser aplicado para entender los cambios en los precios de los instrumentos financieros y que la dinámica de la bolsa de valores
pueda ser considerada como una ciencia exacta. Sin embargo, comprobó que es posible estudiar matemáticamente el mercado en un momento dado del tiempo. Es decir, si el mercado, en efecto, no puede predecir las fluctuaciones de precios, puede estimarlas como más o menos probables, y esta probabilidad puede ser evaluada matemáticamente. Su objetivo era el de encontrar, por primera vez, una fórmula que expresara la probabilidad de un cambio en los precios del mercado. El lector podrá entender que no es fácil seguir el desarrollo del trabajo de Bachelier por tratarse de un magnífico matemático que no tuvo el reconocimiento de sus investigaciones. Descubrió la probabilidad de que el precio de una opción se llegara a dar en un momento del tiempo determinado, o alternativamente en un intervalo de tiempo. Con ejemplos y demostraciones resolvió la mayoría de los problemas en el estudio de la especulación (finanzas) mediante el cálculo de probabilidades, y concluyó que el mercado, sin saberlo, obedece a una ley que lo gobierna, que es la ley de probabilidad. Los trabajos de Black, Scholes y Merton usan la ley de probabilidad para obtener el precio teórico de las opciones utilizando estrategias de inversión equivalentes. Por ejemplo, los flujos de caja derivados de la opción de compra (call) de Amazon son equivalentes a los derivados de pedir prestado dinero al banco para comprar acciones de Amazon. Primero, se tiene que determinar el número de acciones que son necesarias para imitar una opción de compra, mediante la división entre los rangos de precios de la acción y la opción, denominada como razón de arbitraje, razón compensatoria o delta. Segundo, si las dos estrategias tienen el mismo rendimiento esperado, deberían tener el mismo precio. Así es como Black, Scholes y Merton logran determinar el valor teórico de la opción de compra que puede ser comparada con el precio de mercado actual para tomar decisiones. Todo este proceso lo hacen a través de considerar que los rendimientos de los valores pueden tomar cualquier porcentaje y no sólo algunos números discretos.
Scholes resalta el éxito que han tenido tres «industrias» relacionadas. En primera instancia, la industria académica que a raíz
de su teoría ha generado una gran cantidad de investigaciones y nuevas posiciones para enseñar estos temas. En segundo lugar, la industria de las bolsas de derivados, desde el inicio de la bolsa de opciones de Chicago (cboe), en 1973, y sus equivalentes en Europa y Asia. Aquí se tendría que agregar que este efecto también llegó a América Latina con el establecimiento de la bolsa de derivados de México que desde 1998 ofrece contratos de futuros, opciones y swaps. Finalmente, la industria de los mercados de mostrador (otc, por sus siglas en inglés) explotó desde mediados de la década de 1980, y continúa ofreciendo productos personalizados, con trajes a la medida para sus clientes a costos de operación cada vez menores.
Para describir los derivados en un ambiente dinámico, Scholes habla de su pasado, presente y futuro. El primero inicia con sus trabajos desde 1973 hasta principios de la década de 1980 y le llama la edad de la inocencia. Aquí habla de la influencia que la economía financiera ha ejercido sobre su trabajo, sobre todo las teorías de arbitraje, el capm y la hipótesis del mercado eficiente.
También muestra cómo junto con Black llegaron a considerar estrategias de inversión equivalentes y derivaron la ecuación diferencial que resultó en la valuación de las opciones de compra o warrants (opciones a largo plazo emitidas por las empresas sobre sus propios bonos o acciones) de manera continua. Menciona que existió una competencia amistosa con Samuelson y Merton que habían escrito un modelo de equilibrio para valuar warrants, pero estaba restringido a valores discretos. Al aplicar sus modelos se dieron cuenta de que los costos de operar en el mercado de mostrador (otc) eran extremadamente altos, por lo que limitaba su crecimiento de manera importante. Sin embargo, su tecnología ayudó para que bajaran de manera significativa.
Comparte la anécdota de que, en 1977, Texas Instruments empezó a vender una calculadora de mano que producía los valores de la razón de arbitraje (delta) y otros valores del modelo. Scholes pidió regalías y le contestaron que todo era del dominio público; entonces solicitó que le regalaran una calculadora y le sugirieron que comprara una, cosa que nunca hizo. También men-
ciona que fue compañero de Merton cuando eran consultores de la firma Donaldson, Lufkin y Jenrette. Fue aquí donde, en colaboración con Mathew Gladstein, diseñó un fondo que pudiera disfrutar de las tendencias positivas del mercado, limitando los posibles riesgos. Para ello, invertían el 90% de los recursos en bonos del tesoro de Estados Unidos y el 10% restante lo utilizaban para formar un portafolio diversificado de opciones de compra. Como era de esperarse en épocas calmadas, las ganancias fueron menores a las del mercado accionario, pero las pérdidas fueron limitadas. El presente lo encuadra entre la segunda parte de la década de 1980 hasta 1997, y lo denomina la edad del entendimiento, el crecimiento y la madurez. Aquí describe lo fragmentados que están los servicios financieros, pero destaca cómo la innovación financiera ha estado acompañada de una revolución en las tecnologías de la información y la comunicación, para lograr una reducción significativa en los costos de operación. Los clientes del sistema financiero obtienen mejores soluciones a sus problemas, a menores costos, y de manera más eficiente. En todo este proceso el matrimonio entre las escuelas de negocios y los departamentos de economía, con ingenieros, matemáticos, físicos y científicos de la computación ha sido parte fundamental. «Hasta la fecha, el mayor crecimiento en el uso de los derivados ha sido impulsado por una tendencia a la titulación y el mayor entendimiento del papel que los derivados pueden desempeñar en la desagregación, empaquetado y transferencia de riesgos» (Scholes, 1997, p. 141).
Scholes muestra estadísticas que indican que los derivados negociados en los mercados de mostrador (otc) han crecido mucho más que los operados en las bolsas organizadas. Una de las causas de este diferencial se refiere al hecho de que las bolsas organizadas de derivados exigen fijar garantías de manera diaria a sus participantes, mientras que los mercados de mostrador, dominados por bancos, grandes empresas e inversionistas institucionales, normalmente llevan a cabo las operaciones sin estos márgenes y dependen del riesgo de su contraparte en cada transacción. A pesar de que Scholes considera que todos estos servicios dan un valor agregado para los usuarios, reconoce que los
comentaristas, los reguladores y el público tienen una mala opinión de los derivados y los consideran culpables de caídas de los mercados accionarios, quiebras de empresas, y de cualquier otro mal. Explica que en parte se debe a la novedad de éstos, pero que también existen intereses creados para que las instituciones no cambien. Al igual que Miller lo hizo en su conferencia Nobel de 1990, Scholes argumenta que muchas de las críticas no están bien fundamentadas. En sus palabras: «la gran mayoría, si no es que todos los diagnósticos de las graves enfermedades (patologías) son erróneos» (Scholes, 1997, p. 145).
Al futuro le asigna el título de la edad de la emoción o del entusiasmo y considera que será una continuación del presente, en donde el crecimiento seguirá, debido a que tanto los inversionistas como las empresas incrementarán la demanda del uso de derivados con el objeto de decidir los riesgos que desean transferir a terceros. Concluye que, así como ninguna de las tres «industrias» mencionadas en esta sección han mantenido sus formas originales, se atreve a pronosticar que ninguna de ellas retendrá su forma actual. Es decir, su conclusión es que los derivados seguirán su camino ascendente, pero con formas e instituciones que serán diferentes a las actuales.
casi todo cambió en ocho meses
Tanto Merton como Scholes se presentaron en la ceremonia de entrega de los premios de diciembre de 1997, no sólo como profesores de Harvard y Stanford, respectivamente, sino también como socios del fondo de inversión denominado Long-Term Capital Management (ltcm) L. P. Este mecanismo de inversión iniciado en 1994 dio magníficos resultados a sus participantes en los primeros años de operación. Su estrategia estaba basada, principalmente, en operaciones de arbitraje de precios de bonos y era considerado un fondo muy grande al manejar capitales cercanos a siete billones de dólares.
Todo cambió en agosto de 1998, ocho meses después de la entrega del premio del Banco de Suecia, debido, fundamentalmente,
al impago de los bonos gubernamentales de Rusia, que provocó que ltcm obtuviera pérdidas importantes debido al miedo a posibles contagios, ya que muchos otros fondos imitaban sus estrategias de inversión. Muchos inversionistas empezaron a demandar su dinero, y la consecuente venta masiva de bonos que era difícil de procesar simultáneamente, resultó en graves problemas de liquidez y mayor disminución de los precios de los bonos. Por el alto monto del fondo, y seguramente por la influencia de tener dos premios Nobel al frente, el banco central de Estados Unidos, a través del Banco de Reserva de Nueva York, coordinó el rescate del ltcm para evitar un desastre mayor.
Esto fue un golpe duro, no sólo para los que perdieron una parte importante de su dinero, sino para la credibilidad del premio y los premiados, e indirectamente para el uso excesivo de la aplicación de las matemáticas a la práctica de las finanzas. Muchos cuestionaban la arrogancia de los modelos matemáticos y de sus creadores, como Merton y Scholes, pero otros los defendían argumentando que la causa del declive originada en el impago del Gobierno ruso se encontraba fuera del control tanto de los modelos como de los premiados. Independientemente de la opinión del lector, el autor de este libro considera que los organizadores del premio en el Banco de Suecia y de la Academia Real de Ciencias decidieron que, en el futuro, tendrían que matizar su énfasis en la economía financiera, incluyendo otros autores que pudieran explicar la falta de resultados prácticos de sus fundamentos matemáticos. Y así sucedió en 2002.
Premio de 2002
Daniel Kahneman
«Por haber integrado los conocimientos de la investigación psicológica a la ciencia económica, especialmente en lo relativo a juicios humanos y la toma de decisiones en condiciones de incertidumbre»
y Vernon L. Smith
«Por haber establecido laboratorios experimentales como una herramienta para el análisis económico empírico, especialmente en el estudio alternativo de mecanismos de mercado»
Ambas conferencias se llevaron a cabo el 8 de diciembre en el aula magna de la Universidad de Estocolmo. En esta ocasión, la fundación Nobel mantiene en su sitio web los videos de las presentaciones, que duran aproximadamente 37 minutos cada uno. Esto contrasta con los artículos base que elaboraron los galardonados, que son muy largos y el lector tardaría muchísimo más tiempo en revisar y entender.
Estos premios son entregados por primera vez a un psicólogo (Kahneman) y a un economista experimental (Smith), lo cual representa un gran contraste con lo sucedido en 1990 y 1997 en donde se privilegió la relación de la economía financiera con las denominadas ciencias «duras». El tiempo le ha mostrado al Banco de Suecia y a la Academia Real de Ciencias que se les pasó la mano, y que la economía también debe tomar en cuenta las investigaciones de las ciencias «suaves», en este caso de la psicología. Kahneman ha colaborado para establecer las bases de la economía conductual y Smith para la economía experimental.
daniel kahneman (1/2) (1934 - p.)
mapas de racionalidad limitada
Inicia su conferencia reconociendo que el premio se refiere al trabajo que realizó de manera conjunta por varias décadas con su compañero Amos Tversky (1937-1996), en el que exploraron la psicología de la racionalidad limitada en los dominios del juicio (criterio) humano y las decisiones en condiciones de incertidumbre. El título de su exposición surge porque el concepto de la racionalidad limitada tiene significados distintos para las diferentes personas. Todas estas interpretaciones pueden ser vistas como mapas geográficos de un mismo territorio, y Kahneman, junto con Tversky, ofrecen una interpretación diferente de cómo los individuos toman decisiones en condiciones de incertidumbre, al ofrecer una perspectiva evolucionaria que, probablemente, inicia con las percepciones, pasa por los pensamientos intuitivos y llega, en algunos casos, al razonamiento.
Kahneman distingue entre dos formas genéricas de la función cognitiva. Un modo es intuitivo, en donde los juicios y las elecciones son llevadas a cabo de manera rápida, automática, asociativa, sin esfuerzo, y son difíciles de controlar o modificar. Sus características son similares a los procesos derivados de la percepción humana. La otra forma es razonada y se procesa lentamente, en serie, con esfuerzos y deliberadamente controlada. Esta última es relativamente flexible y potencialmente gobernada mediante reglas. Estos dos procesos cognitivos han sido denominados sistema 1 (intuición) y sistema 2 (razón) desde los trabajos de Stanovich y West en 2000.
La gran mayoría de las decisiones humanas son tomadas con base en la intuición. Sin embargo, el pensamiento intuitivo es propenso a errores y a sesgos sistemáticos, que pocas veces son corregidos por la razón. Lo anterior resulta en que el supuesto económico de racionalidad sí se aplica, pero en la minoría de los casos. La teoría de la utilidad esperada es usada en la economía desde que Daniel Bernoulli (1738) la utilizó para evaluar juegos o alternativas con riesgo. Antes de este valor psicológico (utilidad
esperada), se usaba el valor monetario de los posibles resultados ponderados por su probabilidad de ocurrencia. En el modelo de Bernoulli las pérdidas o ganancias derivadas de los juegos eran transformadas para ser expresadas en términos de la riqueza de cada uno de los tomadores de decisiones. Desde entonces, se considera que los portadores de la utilidad esperada son los niveles de riqueza, no sus cambios. Kahneman considera que esto es un error, ya que las respuestas de las pérdidas y ganancias no son las mismas que las relativas a la riqueza. No fue sino hasta 1952 en que Markowitz, en su teoría de portafolios, bosquejó una teoría del riesgo en donde los portadores de la utilidad esperada son cambios en relación con el punto inicial (statu quo). Pero fueron Kahneman y Tversky los que desarrollaron de manera completa la teoría de la perspectiva para las decisiones en condiciones de certeza e incertidumbre.
Kahneman trata de fundamentar que los cambios en la riqueza o en el bienestar, no sus estados finales, son compatibles con los principios básicos de la percepción, en donde los atributos de las cosas provienen de los sentidos. Uno de los ejemplos que utiliza es el experimento en el que le hacen poner su mano derecha en un recipiente con agua muy caliente y su mano izquierda en otro con agua muy fría. Después de mantener esa posición por algunos minutos, le hacen poner sus dos manos en un tercer recipiente con agua templada (tibia). Seguramente sentirá relativamente fría su mano derecha, y relativamente caliente su mano izquierda. Es claro que dichas sensaciones provienen de distintas referencias o puntos de partida. Como se dice coloquialmente, todo es relativo.
La teoría de la perspectiva original de 1979 se derivó al aplicar a estudiantes y profesores universitarios una serie de preguntas hipotéticas, cuyas respuestas sirvieron para indagar sobre la toma de decisiones, juegos o prospectos, que tienen dos resultados monetarios y probabilidades establecidas. La teoría distingue una primera fase de revisión o edición y una segunda etapa de evaluación. En esta última, el objetivo de las personas continúa siendo el de maximización, pero ahora utilizan el concepto de va-
lor que sustituye al de la utilidad esperada. Este valor depende de los cambios y no de los niveles de la riqueza o el bienestar, es decir, depende de las ganancias o de las pérdidas de los prospectos. Además, en lugar de usar las probabilidades usan el concepto de las ponderaciones, mismas que también son importantes en la determinación del valor, que se expresa mediante un número que el decisor asigna a cada posible resultado. En el fondo se parece al concepto de utilidad cardinal, pero no es denominado utilidad, sino valor (subjetivo). Asimismo, las ponderaciones no necesariamente son una medida de las probabilidades, no son una función lineal y frecuentemente su suma es menor a la unidad.
Kahneman y Tversky proponen una función del valor que es definida en términos de las desviaciones de un punto de referencia y tiene dos características básicas. La primera refleja el resultado de que las personas tienen aversión al riesgo en las decisiones que contienen ganancias ciertas o seguras, pero también tienen amor al riesgo en las que incluyen pérdidas. La segunda se refiere a que las personas proyectan las pérdidas más ampliamente que las ganancias. Esto se deriva de que normalmente la irritación que experimentan al perder una determinada suma de dinero parece ser mayor que el placer asociado al ganar la misma cantidad. En la conferencia Nobel, Kahneman pregunta si usted participaría en el juego del lanzamiento de una moneda en que tiene 50% de probabilidad para ganar quince mil dólares y 50% de perder diez mil. Estima que la mayoría rechazaría este prospecto, y considera que sólo sería atractivo si la posible ganancia fuera de cuando menos el doble de la posible pérdida. La aversión a las pérdidas debería ser cuando menos dos veces las ganancias esperadas.
En 1992, Tversky y Kahneman actualizaron su teoría mostrando evidencia de que las distintas formas en que se presentan los juegos o los prospectos (efectos de presentación o estructuración) pueden llevar a preferencias que no son consistentes, lo que viola uno de los principios fundamentales de la teoría de la utilidad esperada. No es lo mismo plantear un problema del coronavirus en una versión de salvar vidas que en otra de evitar muertes.
La elección de las personas sería distinta, lo que viola el principio de invarianza de la utilidad esperada que dice que la relación entre preferencias no debe depender de la forma de presentación de las opciones o del procedimiento utilizado.
La plática Nobel de Kahneman resalta las diferencias fundamentales entre usar promedios o sumas en la toma de decisiones. Explica que la representación básica de un conjunto de bienes, observaciones, categorías o episodios incluye valores típicos como la media, valores extremos y grandes rasgos de sus frecuencias relativas. Sin embargo, no incluye estadísticas más complejas como es el caso de las sumas de las observaciones. Muchos de los juicios y las elecciones requieren de las sumas, las cuales generalmente son sustituidas por un promedio de éstas, lo que introduce sesgos en la toma de decisiones. En especial, el sesgo de la representatividad, en donde las personas toman decisiones más fáciles usando similitudes o estereotipos, en comparación con lo difícil de estimar sus probabilidades.
Concluye que, en lo particular, dos de las reglas que aplica nuestra percepción gobiernan el juicio y la elección en la toma de decisiones en condiciones de incertidumbre. La primera tiene que ver con la miopía o la exclusión de los cambios en la riqueza para la toma de decisiones. La segunda se refiere a que, en muchas ocasiones, los juicios y elecciones seleccionadas están sesgadas en la dirección del promedio, a expensas de considerar las sumas de las opciones. Lo anterior se puede expresar en términos generales, concluyendo que la psicología, a diferencia de la economía, no está basada en una teoría formal unificada (utilidad esperada). Sin embargo, unos pocos principios generales de la percepción y de la función cognitiva pueden predecir y explicar una gran cantidad de fenómenos de la racionalidad limitada.
vernon l. smith (1/2) (1927 - p.)
racionalidad constructivista y ecológica en economía
Smith identifica a la racionalidad constructivista o conceptual con el modelo estándar de las ciencias socioeconómicas (sssm, por sus siglas en inglés) que proviene de las ideas del siglo xvii, principalmente de René Descartes, y continuadas por Jeremy Bentham y los utilitaristas del siglo xix. Se trata de un proceso deductivo en el que los agentes poseen la información completa para tomar decisiones, y de manera consciente y deliberada tratan de maximizar el valor de su objetivo. Esta corriente aplica la razón para el diseño de reglas para la acción individual, así como para el de instituciones que producen resultados óptimos desde el punto de vista social. Este modelo toma como dadas las estructuras sociales generadas por instituciones emergentes que observamos en el mundo y procede a modelarlo de manera formal o conceptual. La distingue de la racionalidad ecológica que emerge de manera automática de los procesos culturales y biológicos. Este proceso no es deliberativo, no requiere de la atención consciente y muchas veces surge de la prueba y error. Incluye los principios de acción que aprendemos en casa desde pequeños, así como las normas, tradiciones y moralidad de nuestro medio ambiente, que son la base de los derechos de propiedad en nuestros intercambios impersonales (mercados) y la cohesión social en los intercambios personales. Se puede decir que la racionalidad ecológica ha surgido como consecuencia de las contradicciones del sssm. Su estudio se basa en reconstrucciones que examinan la conducta individual dentro del orden emergente de la cultura humana y sus instituciones, así como su desarrollo y diversidad a través del tiempo.
Estos dos órdenes de racionalidad, con características diferentes, coexisten en nuestras realidades y son esenciales para entender y unificar la vida socioeconómica, para lo cual el diseño y la interpretación de los experimentos económicos son de vital importancia. Sin embargo, la mayor parte de nuestro conocimiento
operativo y de nuestra habilidad para decidir provienen de la racionalidad ecológica. En la entrega de su premio se destacó que muchos de los avances de la economía experimental de la segunda mitad del siglo xx se deben a las visiones y aportes de Vernon L. Smith. Para un mejor entendimiento, el lector puede realizar una comparación con los dos sistemas cognitivos propuestos por Kahneman en la exposición anterior. La racionalidad ecológica sería el equivalente de la intuición (sistema 1) y la racionalidad constructivista puede ser equiparada a la razón (sistema 2).
De manera primordial, los economistas han descansado en bases de datos para probar sus teorías y modelos. Estas fuentes pueden provenir de estadísticas públicas, privadas o de estudios particulares. Esto contrasta con los psicólogos y economistas conductuales que normalmente utilizan las respuestas a cuestionarios que aplican a los diversos actores. Hasta antes de los estudios de Vernon L. Smith existían muy pocos trabajos relacionados con la economía experimental. Pero esto ha cambiado desde la década de 1960 con sus investigaciones relacionadas con el funcionamiento de los mercados y de las subastas, así como con una nueva metodología aplicada. Smith se ha desviado de los experimentos tradicionales de la psicología en su enfoque y en su forma. En el primer caso, su interés no es la conducta individual de las personas, sino la conducta general que emerge en su interacción como es el caso de los mercados de producción y consumo. En el segundo, se asegura de que los participantes tengan los suficientes incentivos monetarios para evitar distorsiones y se concentra en la repetición de ensayos para que los sujetos entiendan perfectamente la situación experimental.
Las investigaciones de los psicólogos y economistas conductuales muestran, casi de manera uniforme, resultados contrarios a la teoría racional estándar (sssm). Algunos han concentrado sus estudios en detallar las desviaciones (anomalías) del modelo clásico. Otros han tratado de construir mejores modelos para explicar la realidad. Tal es el caso de Kahneman y Tversky que han propuesto modificaciones al modelo de la utilidad esperada. Su contribución más importante es la teoría de la prospectiva y sus
pruebas empíricas, que demuestran la relevancia de dos ideas sugeridas por Markowitz en 1952: a) la noción de que la teoría se aplica a cambios en la riqueza o el ingreso en relación con su situación actual, y b) las personas son adversas al riesgo en las ganancias y aman el riesgo en las pérdidas. Todo esto es consistente con la teoría de la utilidad esperada que sólo requiere que los resultados de las elecciones puedan ser ordenados y, por lo tanto, se aplica por igual a la riqueza y al ingreso. Existe información importante tanto en las investigaciones que detallan los errores o anomalías del modelo clásico y los que proponen modelos modificados. Los primeros pueden ayudar a entender parcialmente las representaciones populares, y los segundos pueden tener mayor éxito en la predicción de las teorías.
Las investigaciones de la economía conductual (psicología económica) han reportado algunos ejemplos en donde consideraciones relacionadas con la justicia en la toma de decisiones contradicen los supuestos de racionalidad del modelo estándar (sssm). Un ejemplo clásico de estos dilemas éticos o morales son los juegos de ultimátum, en donde, en muchas situaciones, la gente no preferiría ganar nada antes que aceptar un acuerdo injusto en el que gane poco y otra persona gane mucho. Aunque no es mencionado en el artículo, otro ejemplo es el dilema del tren (the trolley problem), en el cual la mayoría de los decisores estarían dispuestos a matar (indirectamente) a una persona con el objetivo de salvar la vida de otras cinco.
Sin embargo, la economía experimental ha reportado resultados mixtos en el tema de la racionalidad. En algunas ocasiones, como en el caso de las interacciones anónimas entre dos personas, los resultados son aún mejores que el modelo estándar y se puede hablar de súper racionalidad. En otras, como es el caso de los flujos derivados de la oferta y demanda de los mercados de producción y consumo (intercambios impersonales), los resultados están de acuerdo con la teoría estándar. Finalmente, la teoría produce resultados peores en la compraventa en los mercados de activos o de capital, en donde existe riesgo o incertidumbre. Es aquí, en donde los trabajos de Vernon L. Smith coinciden con los
de Daniel Kahneman, por lo que obtuvieron este premio en 2002. Smith considera que sus resultados modifican la teoría racional prevaleciente (sssm) que ofrece guías inadecuadas para la toma de decisiones.
Smith ha dejado muy claro que, para entender cómo tomamos decisiones, se requiere de conocimientos que van más allá de las fronteras tradicionales de la economía. Hoy, esto es evidente en el nuevo campo llamado neuroeconomía, en el que mediante técnicas no invasivas como las imágenes derivadas de las resonancias magnéticas funcionales (fmri) se pueden medir las correlaciones que existen entre la activación de neuronas y la toma de decisiones. El último párrafo del artículo de apoyo a su plática habla una vez más de este enfoque de la neuroeconomía y concluye que «estamos solo en el inicio de este emprendimiento, pero su promesa sugiere un cambio fundamental en como pensamos, observamos y modelamos las decisiones en todos los contextos» (Smith, 2002, p. 554).
Premio de 2013
Eugene F. Fama, Lars Peter Hansen y Robert J. Shiller
«Por su análisis empírico de los precios de los activos»
Dos de los tres galardonados pertenecen a la Universidad de Chicago. Fama (economista) y Hansen (econometrista) representan la continuidad del matrimonio entre las finanzas y la economía; Shiller, el otro premiado, es economista, profesor de la Universidad de Yale, y se inclina por la rama de las finanzas conductuales. Una vez más, con el objeto de poder hilar las teorías involucradas, se ha decidido no seguir el orden alfabético y de presentación que sigue el Banco de Suecia, la Academia Real
de Ciencias y la Fundación Nobel tanto al anunciar los premios como las conferencias que se realizan el 8 de diciembre en la Universidad de Estocolmo.
eugene f. fama (1/3) (1939 - p.) dos pilares para la determinación de precios de los activos
Se puede decir que los dos pilares para la fijación de precios de las acciones son gemelos siameses o que constituyen una hipótesis conjunta. Se trata de la eficiencia de los mercados de capital combinada con un modelo de equilibrio que especifique, de manera racional, las características de los rendimientos esperados de los activos financieros.
La hipótesis del mercado eficiente establece que el precio de las acciones refleja toda la información «relevante» en un momento dado del tiempo y responde de manera «instantánea» a nueva información. La información «relevante» se puede referir a los precios históricos de las acciones que constituyen la forma débil de eficiencia. Si a lo anterior se le agrega la información pública disponible para los inversionistas, como es el caso de los anuncios de utilidades o pérdidas, dividendos y planes de expansión de la empresa, se llega a la forma semidébil. Y si a todo lo anterior se le aumenta la información privilegiada, como es la que poseen los altos directivos de las empresas, se pudiera obtener la forma de eficiencia considerada como fuerte. En un mercado eficiente los inversionistas no podrán obtener una ganancia mayor a la que es consistente con el riesgo determinado por el modelo de equilibrio.
En su disertación de 1964, Fama concluyó que los cambios de precios de las acciones no pueden ser pronosticados. Calculó las autocorrelaciones entre los logaritmos de los cambios de precios entre días sucesivos de las treinta acciones que componían el índice industrial Dow Jones entre 1957 y 1962. Las autocorrelaciones no son otra cosa más que el coeficiente de correlación entre la misma variable desfasada en el tiempo, y en este caso particular
se rezagó en un día, por lo que se conocen como autocorrelaciones diarias. Encontró una autocorrelación diaria promedio positiva, pero muy pequeña, y cercana a cero. Esto lo llevó a concluir que no existía información relevante en la serie histórica de los logaritmos de precios que ayudara a predecir el futuro, y esto se corroboraba tanto desde el punto de vista estadístico como de su aplicación real para los inversionistas. Es decir, los mercados accionarios funcionan eficientemente ya que los cambios de precios no pueden ser pronosticados, por lo que se considera que siguen una caminata al azar, misma que puede ser equiparada a los resultados del experimento repetido muchas veces de echar una moneda al aire y contabilizar la suma de las diferencias entre sus dos posibles resultados.
Este estudio tuvo un gran impacto en Estados Unidos en donde muchos otros investigadores la duplicaron en distintos periodos de tiempo y en diversos instrumentos financieros como los bonos. Todos obtenían resultados similares y llegaban a la misma conclusión de que los mercados financieros eran eficientes. Su impacto se extendió a muchos otros países del mundo. El autor de este libro realizó su disertación en la década de 1980 al aplicar esta teoría al mercado accionario mexicano entre 1972 y 1981.
Aunque encontró autocorrelaciones semanales negativas en las tasas de rendimiento que eran estadísticamente significativas, cuando se trataba de implementar una regla de negociación en la práctica, las comisiones de entrada y salida eran tan altas que se comían las ganancias derivadas de las operaciones, por lo que después de estos costos de operación, concluyó que el mercado accionario mexicano también era eficiente en ese periodo.
En 1969, Fama, en colaboración con Fisher, Jensen y Roll extendieron sus estudios para analizar los ajustes de las acciones a los anuncios de las empresas relacionados con eventos en los que subdivide sus acciones, intercambiando las antiguas por un número determinado de nuevas acciones. Este intercambio denominado split, normalmente se hace cuando el precio de mercado es muy alto, y cada acción existente se intercambia por un número mayor con el objeto de que el precio ajustado por el split sea más
accesible a los inversionistas. Si el split fue de tres nuevas acciones por una antigua, el precio ajustado será igual al precio actual por tres. Los split no cambian la riqueza de los inversionistas, sino su composición. Antes usted tenía una acción con un precio de 18 pesos y ahora tiene tres acciones con un precio de seis pesos cada una. Fama y sus compañeros utilizaron regresiones para obtener sus residuales y explorar su comportamiento unos días antes y después del anuncio del split. Sus resultados muestran que la nueva información relacionada con el anuncio del split es incorporada de manera instantánea en el precio de mercado lo que es evidencia de la eficiencia del mercado en su forma semidébil.
El que los mercados accionarios sean eficientes tanto en su forma débil como en su forma semidébil significa que no se pueden predecir los precios futuros. Esto es válido tanto en los cambios positivos como en los negativos. Por lo mismo, Fama argumenta que lo que muchos llaman burbuja es un concepto impreciso y no tiene cabida en la eficiencia de los mercados de capital. Deduce que no existe evidencia estadística confiable de que los rendimientos esperados sean negativos en algunas ocasiones. Es decir, argumenta que lo que parece ser una subida en los precios de las acciones fuerte e irracional, no implica de manera predecible una caída drástica.
La eficiencia siempre es probada junto con un modelo de equilibrio del mercado, pero lo contrario también es verdad. Las teorías para determinar los precios de las acciones como el modelo de precios para los activos de capital, tanto en su forma discreta (capm) como en su versión intertemporal (icapm), y el capm calculado usando el consumo, suponen implícita o explícitamente que toda la información está disponible, sin costo alguno, para los participantes, quienes la usan de manera racional para sus decisiones de portafolio. Esto representa la forma fuerte de la eficiencia del mercado y, por lo tanto, las pruebas estadísticas de estos modelos son también pruebas de la eficiencia del mercado. Asimismo, implica que las pruebas de la forma débil o semidébil se deben realizar con base en las tasas de rendimiento en exceso definidas como la diferencia entre las tasas históricas realmente
obtenidas y la tasa de rendimiento requerida por el modelo de equilibrio.
Los dos estudios anteriores de Fama se realizaron con datos de corto plazo ya que usaron los cambios de precios diarios, semanales o mensuales. En un periodo de tiempo pequeño se pudiera suponer que los mismos son constantes en el tiempo. Esto implica que se puede dejar a un lado los modelos de equilibrio que estiman el riesgo de cada una de las acciones. La situación cambia en los análisis de largo plazo, por lo que es indispensable tomarlos en cuenta. Sin embargo, Fama argumenta que la hipótesis conjunta es obvia en retrospectiva y para probarla se puede ir de la eficiencia de los mercados a los modelos de equilibrio, o al revés, se puede iniciar con los modelos para llegar a la eficiencia. En este sentido, dado que el modelo de precios de activos de capital (capm) no era confirmado debido a que su medida del riesgo (beta) no podía ser explicada por un solo factor (el rendimiento del portafolio del mercado); Fama y French (1993) diseñaron el modelo de tres factores en el que agregaron al factor fundamental del capm dos elementos más. El primero de ellos se refiere a la capitalización de las empresas (grandes y pequeñas) y el segundo al cociente entre sus valores en libros y sus precios de mercado. Este modelo es empírico en el sentido de que inicia con los datos y después propone un modelo que capture sus características. Es decir, es exactamente lo contrario del capm que comenzó con supuestos, desarrolló un modelo (teoría) de cómo se deberían de medir los riesgos y comportar los inversionistas. Fama concluye que las finanzas son la rama más exitosa de la economía en términos de la riqueza de su teoría, de sus múltiples investigaciones empíricas, y de su penetración en aplicaciones de la vida real. En la macroeconomía, su hermana es la teoría de las expectativas racionales, iniciada por Muth de la Universidad de Chicago en 1961, la cual también ha tenido resultados muy positivos. Concluye presumiendo que, actualmente, el modelo de tres factores desarrollado con French en 1993 es el modelo de valuación más exitoso para realizar pruebas empíricas, por lo que pregunta si alguna otra rama de la economía puede reclamar un impacto académico y aplicado similar.
robert j. shiller (1/3) (1946 - p.)
precios especulativos de los activos
Antes de iniciar con el breve resumen de la conferencia Nobel, se aclara al lector que el término «especulativo» normalmente en la vida cotidiana del mundo occidental es usado en sentido peyorativo, sin embargo, en términos gramaticales se refiere a efectuar operaciones comerciales o financieras con la esperanza de obtener beneficios aprovechando los cambios de precios. Es en este sentido que Shiller considera el invertir en activos especulativos como una actividad entre personas y, por lo tanto, sus precios están influenciados por consideraciones sociales y psicológicas. Desde el principio de su charla, especifica que su estudio se refiere a los determinantes de los precios de largo plazo de las acciones y de la vivienda. He aquí la primera diferencia con los trabajos de Fama que se concentran en el corto plazo y sólo en los mercados de acciones y bonos.
Asocia la especulación con las burbujas y las considera como un concepto que muchas veces es usado y aplicado de manera irresponsable. A pesar de que existen ejemplos de burbujas financieras desde hace siglos, no se cuenta actualmente con una definición que de forma general sea aceptada, para lo cual ofrece la siguiente propuesta. La burbuja es «una situación en la que la noticia del incremento de precios fomenta el entusiasmo de los inversionistas que la difunden a través del contagio psicológico de persona a persona amplificando historias que pueden justificar el incremento de precios y atraer más y más inversionistas, que, a pesar de tener dudas del valor real de las inversiones, son convencidos en parte por la envidia del éxito de otros, así como por la emoción del jugador» (Shiller, 2013, pp. 460-461).
Existe la creencia de que las burbujas siempre revientan de manera repentina, para lo cual se evoca lo que sucede con las burbujas de agua y jabón, pero no necesariamente es cierto. Pone el ejemplo de James E. Rothman, uno de los tres ganadores del premio Nobel de fisiología o medicina en 2013, que en su conferencia utilizó un pequeño video que mostraba lo que sucedía al juntar
dos burbujas de jabón. Cada una de las manos de una persona contenía un dispensador con una burbuja y al juntarlas no se reventaron, sino que se fusionaron y formaron una sola burbuja mucho más grande. Shiller menciona que ha pensado que las burbujas del mercado accionario y del mercado de la vivienda a principios de este siglo se juntaron en una sola que creó la crisis financiera que reventó en 2008.
Es de todos conocido que las acciones no tienen fecha de vencimiento (expiración) ya que, en principio, la vida de la empresa se puede extender, en teoría, hasta el infinito. Por lo mismo, si un accionista tiene la intención de conservar dicho título en lo que resta de su vida, podrá tener una ganancia o pérdida de capital desde el punto de vista contable, que tendrá que heredar a sus familiares, amigos o fundaciones, pero el único ingreso que recibirá mientras viva son los dividendos en efectivo que decida pagar la empresa, que generalmente provienen de las utilidades después de impuestos. Bajo este escenario, el precio de mercado de una acción es igual a la suma del valor presente de los dividendos futuros utilizando una tasa de descuento.
Los defensores de la eficiencia de los mercados de capital normalmente estiman una regresión entre la tasa de rendimiento de una acción y alguna de la información pública, como puede ser el anuncio del cambio de la política de dividendos o de utilidades. Si los coeficientes considerados de dichos estimados no son significativamente distintos de cero, uno puede aceptar que las tasas de rendimiento son completamente aleatorias y no pueden ser pronosticadas.
La segunda diferencia de Shiller es que decide utilizar una técnica estadística distinta al método de regresión. Propone una clase alternativa de pruebas basadas en la volatilidad (varianza) en el exceso de los cambios de precios de las acciones sobre los dividendos en efectivo. En 1981, Stephen Leroy y Richard Porter, por un lado, y Shiller, por el otro, usaron estas técnicas para rechazar la hipótesis del mercado eficiente.
En su conferencia Nobel, Shiller presentó una gráfica de los precios y los dividendos que va de 1871 hasta 2013. Mostró
los datos anuales, en términos logarítmicos, del índice accionario que hoy es el Standard & Poor´s 500 en términos reales, es decir, deflactado por la inflación medida a través del índice de precios al consumidor. Probablemente la mejor forma de describir el comportamiento de esta serie es la de equipararla a un electrocardiograma, en el que sobresale una muy alta volatilidad, acompañada con una tendencia ascendente en el tiempo. Esta serie es acompañada con los dividendos pagados descontados a una tasa del 7.6% anual que corresponde al promedio histórico real de la tasa de rendimiento del índice desde 1871. Esta serie logarítmica es muy suave ya que su varianza es pequeña y parece ser el camino de una curva con características exponenciales.
La serie del índice accionario en la mayoría de los periodos se encuentra por arriba de los dividendos, y el resto del tiempo por abajo. Shiller interpreta que estos resultados no son consistentes con la teoría de los mercados eficientes. De la gráfica deduce que cuando los precios de mercado son mayores que los dividendos, se puede inferir que las tasas de rendimiento bajarán en los siguientes tres a siete años. Hace una analogía de su gráfica con aspectos relacionados con la meteorología. Equipara la serie del índice accionario con el pronóstico del tiempo de un meteorólogo y a la de los dividendos con la temperatura real del aire. En el periodo analizado el meteorólogo casi siempre falló en sus pronósticos, por lo que puede ser considerado como insensato o loco.
Se puede resumir que Shiller encontró en su análisis de largo plazo (142 años) que los precios de los activos son mucho más volátiles que sus fundamentales (los dividendos en efectivo). Debido a que los precios han oscilado por arriba y por abajo de sus fundamentales, puede deducir que los cambios de precios del mercado accionario agregado fueron predecibles en un horizonte que va de los tres a los siete años. Shiller ha dejado claro con el correr del tiempo que no le gusta hacer predicciones, lo que él afirma es que, históricamente, sí se puede vencer al mercado en el largo plazo.
Una de las principales críticas que recibió el trabajo de Shiller se refiere al hecho de que utilizó una tasa de descuento única para
traer a valor presente los dividendos, cuando en realidad las tasas de descuento cambian año con año. Para ello, presentó dos series adicionales que incluyeran estas observaciones. Calculó una nueva serie de dividendos, pero las descontó a la tasa de interés vigente en cada uno de los años de la serie. También estimó otra serie de dividendos usando como factor de descuento la tasa marginal de sustitución del consumo entre dos periodos de tiempo sucesivos. Los resultados de incluir la serie de dividendos descontada a tasas de interés diferente cada año muestran características muy similares a la serie original con una tasa única. Es decir, se mantienen las características explicadas en el párrafo anterior. La serie que utiliza el consumo muestra mayor volatilidad, pero en la mayor parte del tiempo se encuentra por abajo del índice accionario. Desde entonces existen intentos de modificar el modelo del consumo, uno de los cuales fue realizado por Lars Peter Hansen del cual se hablará en la próxima sección. Sin embargo, de acuerdo con Shiller ninguna de las tres series de dividendos presentadas puede reivindicar la teoría de los mercados eficientes. Las conclusiones derivadas del índice Standard & Poor’s no se trasladan completamente a las acciones individuales. Esto implica que el conocimiento particular (idiosincrático) de la empresa es muy importante y hace que la teoría de la eficiencia sea una representación útil de la realidad para cada una de ellas. Por lo mismo, se puede decir que para el caso de los agregados accionarios el mercado es ineficiente, y para el caso de las acciones individuales es eficiente. Por todo lo anterior, Shiller considera que la hipótesis del mercado eficiente aplicada al agregado accionario está equivocada ya que no refleja sus fundamentos (dividendos), sino las cuestiones psicológicas y sociales. La situación es diferente para las acciones individuales, por lo que se termina con un panorama mixto. Shiller ha reconocido posteriormente que la teoría de los mercados eficientes no está totalmente equivocada, pero fue demasiado lejos con los temas de los mercados perfectos y la racionalidad del hombre económico.
En el penúltimo párrafo del artículo base de su conferencia, concluye que «los patrones de conducta que se han observado en
los precios especulativos de los activos son consistentes con el punto de vista de la eficiencia del mercado como una verdad a medias en la actualidad, y al mismo tiempo, con una visión de que hay complejidades conductuales en estos mercados que deberían conocerse con el desarrollo de innovaciones y regulaciones financieras» (Shiller, 2013, p. 492). En relación con la verdad a medias, depende del lector decidir si el vaso está medio lleno o se encuentra medio vacío.
lars peter hansen (1/3) (1952 - p.) incertidumbre fuera y dentro de los modelos económicos
Al igual que todos los econometristas, Hansen combina en su presentación las matemáticas y la estadística. Considera que no es lo mismo hablar del comportamiento de los agentes económicos dentro de un modelo determinado que de la conducta de los actores reales. No es lo mismo ser un econometrista fuera del modelo que un inversionista dentro del mismo. El título de su exposición deja muy claro que existe incertidumbre desde los dos puntos de vista. El econometrista tiene incertidumbre en cuanto a la selección del modelo correcto a escoger entre una gran variedad de alternativas. También puede suceder que una vez que elija el modelo, pueda tener inconsistencias (mala especificación). Por todo lo anterior se habla de dos tipos de incertidumbre. A uno lo llama riesgo y lo identifica con la distribución de probabilidad que usan los inversionistas del modelo utilizado, y al otro lo denomina ambigüedad y lo relaciona con la familia de modelos que puede utilizar el econometrista.
La incertidumbre de los inversionistas dentro del modelo dinámico está relacionada con su toma de decisiones ante distintos niveles de riesgo. Probablemente el modelo más usado en las últimas cuatro décadas proviene de la teoría de las expectativas racionales usado por Muth en 1961, y extendido por Lucas en 1972. Este modelo define cómo los inversionistas toman decisiones de manera óptima (racional) utilizando toda la información pública disponible. Es decir, aunque las expectativas de los individuos no necesariamente son iguales, en el promedio son similares a las
decisiones de un inversionista racional. Estas expectativas son determinadas dentro del modelo, pero se requiere definir toda la información disponible, lo cual no es muy fácil de conseguir. Hansen logra hacer algo sin tener que hacer todo y a través del modelo generalizado de momentos logra la estimación de los parámetros. Estudia parcialmente modelos específicos que enlazan los mercados financieros con la macroeconomía.
Su modelo para determinar precios se aplica por igual a las inversiones con riesgo, sean financieras o de activos fijos tangibles. En el mismo, los precios son iguales al valor esperado (expectativas) de los posibles rendimientos traídos a valor presente con tasas de descuentos estocásticas (que cambian cada periodo).
Todo este proceso se lleva a cabo considerando la información específica de su modelo propuesto. Las tasas de descuento reflejan la evaluación que los inversionistas hacen del futuro como los ajustes correspondientes al riesgo de cada una de las alternativas. Hansen deriva las tasas de descuento de esta igualdad, las cuales dependen de los datos usados y de los parámetros estimados en cada caso. Los factores que determinan las tasas de descuento estocásticas son considerados como el precio del riesgo ya que cifran las compensaciones por asumir su exposición al riesgo. Los resultados del modelo de Hansen muestran que el precio del riesgo explica una buena parte de las variaciones observadas en los precios de las acciones. En concreto, demuestra que las tasas de descuento tienen una alta volatilidad que está condicionada en la información pertinente a los inversionistas.
Utiliza un modelo alternativo para explorar qué pasaría en el caso de que los inversionistas tuvieran creencias distorsionadas (expectativas incorrectas o distintas a las racionales) que son representadas por un proceso en el que los cambios de precios son estadísticamente independientes (martingala). Al comparar los resultados de las tasas de descuento de su modelo de expectativas racionales con éste de las expectativas distorsionadas, encuentra que cuando el número de observaciones es muy grande, el econometrista batallará para poder diferenciar los dos modelos.
Aunque los mercados financieros pueden diversificar el riesgo de una acción al mantener portafolios eficientes, no pueden diversificar la incertidumbre que proviene de la macroeconomía; tampoco pueden evitar ni pronosticar los choques externos. Esto constituye una fuente de distorsiones en las expectativas ex post e incertidumbre en los precios a través del tiempo en formas interesantes. Por otro lado, representa incertidumbre que se encuentra fuera de los modelos econométricos.
Se puede resumir que Hansen considera que es muy difícil aterrizar la teoría de las expectativas racionales aplicada a los mercados accionarios, debido a que se tendría que incluir toda la información pública. Usa el modelo generalizado de momentos para explicar los cambios en la aversión al riesgo en el tiempo o el riesgo estocástico, y sus resultados muestran que los precios bajos de las acciones pueden ser explicados porque los inversionistas perciben un riesgo alto, y los rendimientos positivos siguientes son la compensación de haber tomado ese riesgo. Sin embargo, ofrece un par de razones para ser escépticos de los modelos económicos. Por un lado, aunque algunas características de los modelos se pueden inferir de la evidencia pasada, se mantiene la ambigüedad anterior. Por el otro, las variaciones futuras de algunos de los modelos no se pueden inferir de la evidencia pasada.
En su artículo, y en su conferencia Nobel, es muy cuidadoso en no intervenir en las diferencias de enfoques entre Fama (no predictibilidad en el corto plazo) y Shiller (predictibilidad en el largo plazo). Este cuidado se plasma en la nota de prensa de la Academia Real de Ciencias del 14 de octubre de 2013 cuando dio a conocer el premio para los tres galardonados. En el caso de Lars Peter Hansen el premio se entregó ya que:
Desarrolló un método estadístico que es particularmente adecuado para probar las teorías racionales en la determinación de precios. Usando este método, Hansen y otros colaboradores han encontrado que las modificaciones de estas teorías ayudan mucho para explicar los precios de los activos.
Parte de lo anterior es corroborado por Hansen que, en su conferencia, habla de sus aplicaciones a las finanzas empíricas con Singleton (1982 y 1983), Jagannathan (1991), Cochrane (1992) y muchos otros.
Sin embargo, en la misma conferencia en que se anunció el premio, Per Stromberg, uno de los diez miembros del comité, llevó a cabo una presentación de los trabajos de los premiados. Aunque reconoció que probar de manera estadística los resultados de Fama en el corto plazo y de Shiller en el largo plazo no era nada fácil, el método desarrollado de Hansen era de gran ayuda para probar modelos no lineales. Mencionó que, en términos generales, los resultados de las pruebas de Hansen eran mixtos, aunque explicó que, de manera específica, el modelo generalizado de momentos que usó Hansen para probar el modelo estándar del riesgo no podía explicar los resultados de Shiller. Este último lo dejó plasmado en la sexta lámina de su presentación ante los periodistas. Es así como, en el mes de diciembre, cuando los premiados acudieron a Estocolmo a dar su plática y recibir su premio, este antecedente se repetía en varias ocasiones.
La conferencia de Hansen de diciembre y la rueda de prensa de la Academia del 14 de octubre enfatizan resultados diferentes y dan algunas advertencias en el uso de los modelos. De esta manera, la Academia y el Banco de Suecia se concentran en destacar en particular uno de los resultados que, en teoría, resuelve los diferentes puntos de vista de Fama y Shiller, a favor del primero. Para muchos es difícil entender por qué le entregaron el premio a Shiller y a Hansen, si los resultados de este último contradicen los datos del primero. Parece ser que éste es el ejemplo típico de por qué mucha gente considera en tono de broma que la economía es la única disciplina en la que dos personas pueden obtener un premio Nobel por decir exactamente la cosa contraria.
En su artículo de la conferencia Nobel, Shiller resaltó que ninguna de las tres series de dividendos que presentó podría reivindicar la teoría de los mercados eficientes. Parecería ser que Hansen dejó implícito que la serie de dividendos que usó Shiller basada en el consumo no reflejaba la realidad. Sin embargo, tanto
el Banco de Suecia y la Academia Real se encargaron de usar este resultado para reivindicar la teoría de Fama de los mercados eficientes. Hasta la fecha se sigue discutiendo si es posible predecir los cambios de precios futuros de las acciones, así como si el origen de esta volatilidad proviene de la economía financiera o de la conductual. ¿Qué opina usted? Le pido se reserve su decisión hasta tener los insumos relacionados con el premio entregado de manera única a Richard H. Thaler, en 2017, donde al final se reconoce de manera clara y sin contradicciones el papel de la economía conductual. ¿Será que el Banco de Suecia y la Academia Real trataron de corregir su manifiesta inclinación por la economía financiera sobre la conductual?
Premio de 2017
Richard H. Thaler
«Por su contribución a la economía conductual»
Daniel Kahneman y Vernon L. Smith fueron entrevistados el 12 de diciembre de 2002 por Karl-Gustaf Lofgren y Anne-Sophie Crepin durante su estancia en Estocolmo para recibir sus premios. Kahneman comentó que junto con Tversky tuvieron mucha suerte de que su teoría de la perspectiva fuera publicada en la prestigiada revista Econometrica, pero que también tuvieron la fortuna de que el economista Richard H. Thaler leyera y fuera influenciado por sus trabajos, ya que en realidad fue él quien desarrolló la economía conductual. Considera que sus trabajos realizados con Tversky sólo llegaron a ser conocidos en la economía debido a que Thaler los usó y validó. En pocas palabras, para Kahneman el inventor o padre de la economía conductual es Thaler, aunque para muchos otros son Shiller, Akerlof y Sunstein.
Curiosamente Richard Thaler obtuvo su doctorado en Economía en la Universidad de Rochester, prima hermana de la Universidad de Chicago donde ha trabajado desde 1995 hasta la fecha. Combinado con el hecho de que el Banco de Suecia y la Academia Real reconocieron a Thaler de manera individual, situación que no había sucedido desde 1990 cuando apareció la economía financiera, este premio ha dejado claro que desde ahora y de manera formal, la economía conductual forma parte complementaria de la corriente dominante de la economía financiera. Tenía que ser reconocido a través de alguien que fuera parte derivada del matrimonio de la economía con las finanzas, y qué mejor que estuviera trabajando en la Universidad de Chicago, en donde se formalizó la relación desde 1970. Para muchos este mensaje dejó atrás las confusiones derivadas de los premios otorgados en 2013, y para otros creó un caos total que en tres de sus estudios demostró que la teoría de los mercados eficientes de Fama no era correcta.
richard h. thaler (1945 - p.) de las nueces de la india a los «empujoncitos»: la evolución de la economía conductual
En su conferencia Nobel, hace un recuento de todo su trabajo utilizando ejemplos basados en sus observaciones y experimentos, que van desde la falta de autocontrol al estar frente a la tentación de un delicioso plato de nueces de la India antes de pasar a la mesa en una comida de economistas amigos, hasta diseñar empujoncitos para que la gente pueda tomar mejores decisiones. Usa este término de «empujoncitos» para englobar algunas de las características del medio ambiente que influyen en la conducta de los humanos, pero no en la del hombre económico (homo economicus), aclarando que en su implementación nadie es forzado a hacer algo (paternalismo libertario). Aplicó estos empujoncitos al nuevo sistema de pensiones de Suecia que inició en el 2000, dentro del cual cada persona puede optar por una opción predeter-
minada para invertir sus aportaciones o tiene la oportunidad de elegir entre una gran cantidad de fondos. El Gobierno y los fondos llevaron a cabo una campaña de publicidad para promover esta última opción y logró que dos terceras partes eligieran su propio portafolio. Sin embargo, años después de que terminó la campaña publicitaria el porcentaje ha bajado a niveles muy pequeños. Con éste y muchos otros ejemplos Thaler ha demostrado que los empujoncitos son muy poderosos y tienen efectos duraderos, pero se deben de utilizar para hacer el bien.
Habla de lo mucho que aprendió de Kahneman y Tversky al considerar que, debido a nuestra racionalidad limitada, muchas veces utilizamos reglas sencillas (heurísticos) para tomar decisiones, que nos pueden llevar a cometer errores de manera sistemática. Thaler fue más allá de las ideas de Kahneman y Tversky, ya que extendió sus aplicaciones de las elecciones individuales a las decisiones generalizadas, como es el caso de las sobrerreacciones (discutido más adelante). Una de las principales lecciones de los estudios de Thaler es que algunas de las cosas que la teoría económica considera sin importancia, realmente importan. A estas cosas les llama factores supuestamente irrelevantes, y cuando se consideran, hacen que el poder de la disciplina económica mejore. Su mensaje más importante se refiere a que sí es posible estudiar y aplicar economía sin el hombre racional (homo economicus o Econ). Es decir, el entendimiento de la naturaleza humana puede mejorar el poder explicativo de la teoría y los modelos económicos, lo que resultará en mejores soluciones para el diseño de políticas públicas.
Aunque en su plática no habló de la economía conductual relacionada con las finanzas, hay una gran cantidad de ejemplos que pueden ser estudiados en su cuarto libro (2015) La creación de economía conductual: comportarse mal, en donde da cuenta detallada de todos sus trabajos individuales y con muchos otros colaboradores desde principios de la década de 1970 hasta 2015. En el mismo incluye una sección con seis capítulos dedicados a las aplicaciones a las finanzas que se desarrollaron entre 1983 y 2003. Un pequeño resumen de estos capítulos también aparece en el documento base de su conferencia Nobel.
El primer estudio de Thaler en finanzas lo derivó al aceptar ser asesor en la disertación de su alumno Werner F. M. De Bondt en la Universidad de Cornell. Reconoce que en este proyecto fue él quien aprendió más de finanzas. El documento no sólo sirvió para graduar a De Bondt con un doctorado en Administración de Empresas, sino que también logró publicarse un artículo en el Journal of Finance en 1985 bajo el título de «¿Sobrerreacciona el mercado accionario?». Usan los rendimientos mensuales de las acciones cotizadas en el nyse tal y como aparecen en la base de datos del crsp, para el periodo comprendido entre enero de 1926 y diciembre de 1982. Construyen el portafolio de mercado como un promedio con iguales ponderaciones de todas las acciones incluidas en la base de datos. Una sobrerreacción significaría que existe una reversión a la media en el mercado accionario, lo que iría en contra de lo que dice la teoría de la eficiencia del mercado, que afirma que esto no es posible. Con estos datos tratan de probar que, si los precios de las acciones sobrerreaccionan de manera sistemática, entonces, su regreso o retroceso debería ser predecible con el uso de sus rendimientos pasados. En todo esto no se usa ningún dato derivado de la contabilidad de las empresas, como la utilidad contable. Dejan claro que no hay que mezclar los precios de mercado de las acciones con datos contables que pueden ser distintos, dependiendo de los métodos que decidan las empresas. Su principal objetivo es el de explorar si los cambios extremos en los precios de las acciones son seguidos de movimientos opuestos en la dirección contraria.
Las tasas de rendimiento de todas las acciones cotizadas son clasificadas de mayor a menor en un periodo determinado de tiempo, y de ahí se forman dos portafolios con los grupos extremos de esta tabla. Se crea un portafolio «ganador» con las 35 acciones de la parte más alta en la clasificación y otro portafolio «perdedor» con las 35 acciones de la parte más baja. Posteriormente se observa el comportamiento real de cada portafolio en los próximos tres años, el cual es comparado con el del rendimiento de los principales modelos de valuación de acciones. Utilizan los rendimientos esperados o requeridos de tres modelos
diferentes, incluyendo el capm, y dejan claro que los resultados no varían significativamente si se usan las otras dos alternativas. Obtienen las diferencias (los residuales) entre las tasas de rendimiento reales y las del modelo de equilibrio de los dos portafolios. En el tiempo de estudio este proceso es repetido 16 veces en periodos que no se superponen cada tres años. Al final obtienen un promedio de los residuales de ambos portafolios y realizan pruebas estadísticas. Los resultados muestran de forma consistente que el portafolio «perdedor» tuvo mayores tasas de rendimiento que el «ganador». Esto corrobora la hipótesis de la sobrerreacción del mercado accionario, ya que los portafolios que en un principio eran perdedores tuvieron un mejor desempeño que los que inicialmente fueron ganadores. Tres años después de la formación de portafolios, el perdedor había ganado un 25% más que el ganador, a pesar de que este último era significativamente más riesgoso de acuerdo con las betas derivadas del capm.
Esta clara violación de la teoría de los mercados eficientes provocó reacciones fuertes de Fama y sus colaboradores. Mandaron a revisar el trabajo de De Bond y Thaler para checar que no tuviera errores de cálculo y no encontraron ninguno. Argumentaron que se tenía que probar la hipótesis conjunta que incluyera un modelo de equilibrio racional, y el trabajo demostró que sí había considerado el riesgo de los portafolios al estimar las betas de acuerdo con el modelo de precios de activos de capital (capm) que era la teoría estándar en aquella época. En 1993 Fama y French publicaron el modelo de tres factores que obtenía resultados similares a los de De Bondt y Thaler, y en 1996 declararon la muerte del capm en su artículo «Se busca el capm, vivo o muerto». A pesar de todo esto no han abandonado la teoría de los mercados eficientes. Desde entonces muchos otros investigadores han encontrado cuando menos otros tres factores que explican el rendimiento esperado de las acciones, y nadie sabe si seguirán encontrando muchos más. Para De Bondt y Thaler, en un mundo de inversionistas racionales (homo economicus) el único factor importante es la beta obtenida del capm y todas las variables adicionales deberían ser factores supuestamente irrelevantes. Con estos argumentos apoyan
de las Américas Puebla
sus resultados que muestran que la hipótesis conjunta de Fama no es válida, y recomiendan a los inversionistas seguir una estrategia contraria comprando acciones perdedoras, actualmente, para mantenerlas por un periodo de tres años o más.
Thaler ofrece dos pruebas más de las violaciones de la teoría de los mercados eficientes. La primera se documenta en otro artículo que lleva el título de «El sentir del inversionista y el acertijo de los fondos cerrados» que Thaler publicó con Lee y Shleifer en 1991 en el Journal of Finance. Estos tres autores muestran que las acciones de las sociedades de inversión cerradas operan con descuentos o premios en sus precios de mercado en relación con la suma del valor neto de sus activos, debido al sentir de los inversionistas individuales que poseen acciones de las empresas de baja capitalización, lo que viola la ley de un solo precio. La segunda se plasma en otro artículo publicado con Owen Lamont en 2003 titulado «Puede el mercado sumar y restar» en el Journal of Polítical Economy, en donde demuestran que las escisiones de empresas tecnológicas resultan en precios de las acciones que también violan la ley de un solo precio al mostrar algunos límites existentes para el arbitraje.
Para resumir, se usa una vez más el documento de su conferencia en donde Thaler concluye que la generación actual de economistas conductuales está usando todas las herramientas modernas, desde la teoría de los grandes datos hasta los modelos estructurados con base en las neurociencias, en todos los ámbitos de su competencia. Considera que ni Sunstein ni él inventaron los empujoncitos, ya que estos existen desde que la gente ha estado tratando de influir en los demás, y que desafortunadamente no siempre se usan para hacer el bien. En su último párrafo concluye que:
Aunque no todas las aplicaciones de la economía conductual harán del mundo un mejor lugar, creo que el dar a la economía una dimensión más humana y creando teorías que se aplican a los Humanos, no solo a los Econs, hará
nuestra disciplina más fuerte, más útil, e indudablemente más acertada. Y así como yo estoy lejos de ser el primer economista conductual en ganar el premio del Banco de Suecia de las ciencias económicas en memoria de Alfred Nobel, no seré el último. (Thaler, 2017, pp. 512-513)
Para terminar, se menciona que Thaler no sólo tiene una relación estrecha de amistad con Kahneman, sino también tiene una relación cercana con Shiller, con quien desde 1991 ha organizado un seminario de economía conductual que los ha hecho sentir menos solitarios, y han construido una comunidad de científicos de la psicología, de otras ciencias sociales (sociología) y de la biología (neurociencias). Todo esto se agrupa en la economía conductual que, como se mencionó, desde 2017 ya forma parte de la corriente dominante, y se reitera que la encrucijada de las finanzas planteada en este libro se reduce a cuatro caminos que incluyen: a) la economía financiera y conductual (corriente dominante), b) la complejidad financiera (multidisciplinaria), c) la econofísica (sólo físicos), y d) la de los practicantes que prefieren las finanzas parcialmente descriptivas junto con sus instituciones.
Críticas y «rudeza innecesaria»
El premio del Banco de Suecia trae consigo medalla, diploma y dinero, pero también trae aparejado prestigio y la posibilidad de entrar en contacto con el gran público a través de los medios de comunicación. En algunas ocasiones, esto último es contrarrestado con críticas de otros sectores, tanto al premio en sí como a los galardonados. Desde su creación, muchos se opusieron a este premio al considerar que la economía es una ciencia «blanda» que no contribuye de manera significativa al beneficio de la humanidad como lo dice el testamento de Alfred Nobel, y en es-
pecial no se puede comparar con la física, la química y la biología. Más recientemente, a principios de este siglo, el bisnieto de Alfred Nobel, Peter Nobel, expresó su desacuerdo con el premio de economía al considerar que no estaba incluido en el testamento de su bisabuelo, por lo que iba en contra de sus deseos.
Probablemente las críticas más rencorosas de los premios y los premiados son las de Nassim Nicholas Taleb, quien, con estudios de filosofía, matemáticas y administración, trabajó por muchos años en instituciones financieras de Estados Unidos, para después independizarse. En su libro El cisne negro escrito en 2007 originalmente en inglés con traducciones posteriores al español, hace una breve historia del premio del Banco Central sueco y menciona que la familia de Alfred Nobel desea que se dejen de otorgar estos premios. Sin especificar el nombre del familiar —aunque seguramente se trata de Peter Nobel, mencionado en el párrafo anterior— continúa argumentando que se trata de un golpe de relaciones públicas hecho por los economistas que pretenden situar su disciplina a una altura que no se merece. Taleb reconoce que el premio ha recaído en grandes pensadores como Kahneman y Hayek, pero:
la Comisión ha caído en la costumbre de conceder premios Nobel a quienes «aportan rigor» al proceso con la seudociencia y las falsas matemáticas. Después del crac bursátil premiaron a dos teóricos, Harry Markowitz y William Sharpe, quienes construyeron modelos hermosamente platónicos sobre una base gaussiana, contribuyendo con ello a lo que se llama teoría de la cartera de valores moderna. Sencillamente, si se eliminan sus supuestos gaussianos y se tratan los precios como escalables, sólo queda pura palabrería. La Comisión de los Nobel podría haber comprobado que los modelos de Sharpe y Markowitz funcionan como esos remedios de charlatanes que se venden en internet, pero parece que en Estocolmo nadie pensó en ello. (Taleb, 2013, p. 372)
Taleb también habla del premio que recibieron en 1997 Merton y Scholes por hacer práctica una fórmula matemática para valuar opciones, con la cual se ganaba la vida cuando trabajó en Wall Street. En este sentido realiza la crítica de que los premiados partieron de una antigua fórmula matemática sin restricciones y la hicieron depender, una vez más, del método gaussiano (distribución normal), que considera como un gran fraude intelectual cuando se aplica en los lugares equivocados. Dedica un capítulo a este tema, y en su primera nota de pie advierte: «si el lector no cree en las aplicaciones de la curva de campana a las variables sociales, y si, como ocurre con muchos profesionales, está convencido de que la teoría financiera moderna es una peligrosa ciencia basura, se puede saltar este capítulo» (Taleb, 2013, p. 369).
Taleb continuó escribiendo de estos temas en otro libro en inglés titulado Antifragile (2012) en donde nuevamente habla de lo que considera inconsistencias en la teoría de portafolios de Markowitz. Desde su primer artículo en 1952 Markowitz aclaró que la selección de portafolios se puede dividir en dos etapas. La primera inicia con la observación y la experiencia, y termina con las expectativas (creencias) en la actuación futura de las acciones en consideración. La segunda comienza con las expectativas relevantes del futuro de las acciones y termina con la selección de portafolios. Markowitz reiteró que su trabajo sólo tiene que ver con la segunda etapa. Sin embargo, al final del artículo mencionó que, para obtener los datos de la primera etapa, es decir, la media y la varianza de las acciones, creía que cualquier procedimiento debería combinar técnicas estadísticas, así como los juicios de los inversionistas prácticos.
Taleb, en el último apéndice de su libro de 2012, considera que esto es una inconsistencia ya que:
Si hubiera que estimar estos parámetros (con su error correspondiente, claro está) entonces las derivaciones tendrían que escribirse de manera diferente y, por supuesto, no tendríamos artículo (ni el nuestro, ni el de
Markowitz, ni estallidos, ni finanzas modernas, ni fragilistas enseñando cosas inútiles a los estudiantes…).
Los modelos económicos son sumamente frágiles en relación con los supuestos. (Taleb, 2019, pp. 551-552)
Como alternativa al proceso de Markowitz, propone el criterio del físico John L. Kelly (1956) que no requiere de ninguna distribución conjunta de probabilidad ni de funciones de utilidad. Se trata de una fórmula matemática muy usada en las apuestas deportivas y de juegos en casinos que determina cuándo se debe arriesgar en cada ocasión, y puede ser también aplicada a cada operación que realice un inversionista de acciones.
Es curioso ver que en su último libro Jugarse la piel (2018), Taleb no escribió nada relacionado ni con los premios del Banco de Suecia entregados en 2013 ni con el premio de 2017, aunque seguramente tendría críticas fuertes para Fama y Lars, así como elogios para Shiller y Thaler. El autor de este anexo considera que cualquier persona tiene derecho a expresar sus opiniones, pero no sólo el fondo es importante, sino también la forma, y es aquí donde Taleb aplica una «rudeza innecesaria» que, al igual que en el futbol americano, debe ser castigada con cuando menos diez yardas. Parecería ser que el castigo de las diez yardas fue aleccionador para Taleb, ya que desde 2012 no ha criticado con la misma falta de respeto a los galardonados más recientes de la economía financiera.
Black, F. y Scholes, M. S. (1972). The valuation of options contracts and a test of market efficiency. Journal of Finance, 27(2), 399-418.
Black, F. y Scholes, M. S. (1973). The pricing of options and corporate liabilities. Journal of Political Economy, 81(3), 637-654.
Fama, E. F. (2013). Two pillars of asset pricing. Prize lecture, 365-397.
Fama, E. F. y Kenneth, R. F. (1993). Common risk factors in the returns on stocks and bonds. Journal of Financial Economics, (33), 3-56.
Hakim, M. (1992). The efficiency of the Mexican stock market. Nueva York y London: Garland publishing.
Hansen, L. P. (2013). Uncertainty outside and inside economic models. Prize lecture, 397-443.
Kahneman, D. (2002). Maps of bounded rationality: A perspective on intuitive judgment and choice. Prize lecture, 449-489.
Markowitz, H. M. (1990). Foundations of portfolio theory. Nobel lecture, 279-287.
Merton, R. C. (1997). Applications of option-pricing theory: Twenty-five years later. Nobel lecture, 85-118.
Miller, M. H. (1988). The Modigliani-Miller propositions after thirty years. Journal of Economic Perspectives, 2(Fall), 99-120.
Miller, M. H. (1990). Leverage. Nobel lecture, 291-300.
Miller, M. H. y Modigliani, F. (1961). Dividend policy, growth and valuation of shares. The Journal of Business, 34(4), 411-433.
Modigliani, F. y Miller, M. H. (1958). The cost of capital, corporation finance and the theory of investment. American Economic Review, (48), 261-297.
Modigliani, F. y Miller, M. H. (1963). Corporate income taxes and the cost of capital. American Economic Review, (53), 433-443.
Scholes, M. S. (1997). Derivatives in a dynamic environment. Nobel lecture, 127-154.
Sharpe, W. F. (1990). Capital asset prices with and without negative holdings. Nobel lecture, 312-332.
Shiller, R. J. (2013). Speculative asset prices. Prize lecture, 459-501.
Smith, V. L. (2002). Constructivist and ecological rationality in economics. Prize lecture, 502-561.
Stanovich, K. E. y West, R. F. (2000). Individual differences in reasoning: Implications for the rationality debate. Behavioral and Brain Sciences, (23), 645-665.
Taleb, N. N. (2013). El cisne negro: el impacto de lo altamente improbable. Booket.
Taleb, N. N. (2015). Antifrágil: Las cosas que se benefician del desorden. Booket.
Taleb, N. N. (2019). Jugarse la piel: asimetrías ocultas en la vida cotidiana. Paidós.
Thaler, R. H. (2015). Misbehaving: The making of behavioral economics. Norton.
Thaler, R. H. (2017). From cashews to nudges: The evolution of behavioral economics. Prize lecture, 488-515.
The Royal Swedish Academy of Sciences (2013). The prize in economic sciences 2013. Press release.
The Royal Swedish Academy of Sciences (2013). Trendspotting in asset markets (pp. 1-6).
The Royal Swedish Academy of Sciences (2013). Understanding asset prices (pp. 1-58).
Universidad de las Américas Puebla
Segundo camino
Los sistemas complejos o la complejidad
Así como el microscopio y el telescopio son herramientas fundamentales para observar objetos muy pequeños o lejanos, la computadora es la base fundamental para desarrollar la complejidad de muchos fenómenos (sistemas) que se encuentran tanto en las ciencias duras como en las sociales. La diferencia es que los microscopios y telescopios fueron descubiertos hace cerca de cuatro siglos y las computadoras programables digitales se tienen desde hace unas cuatro décadas. Los investigadores que aplican este método consideran que están haciendo ciencia a través de simulaciones computacionales, lo que representa una forma distinta del tradicional método científico. Dado que se aplica a una gran cantidad de disciplinas y al considerar que en todos los casos se necesitan expertos informáticos trabajando junto con los investigadores de cada una de las áreas de aplicación, se dice que es multidisciplinaria. Se emplea principalmente en la física, química, biología, psicología, sociología y en la economía. En esta última se usa para modelar el crecimiento económico, la distribución de la riqueza, la teoría de juegos, los procesos de subastas y los mercados financieros. Desde 1990 el método más usado para implementar la complejidad es a través de los modelos basados en los agentes (abm, por sus siglas en inglés) que ha desarrollado de manera
particular la economía computacional basada en los agentes (ace). Los agentes pueden ser representados por personas, hogares, empresas, gobiernos, economías o países, dependiendo de cada caso en particular.
En el diseño inicial de los abm o de los ace es de vital importancia definir cuál o cuáles son los problemas específicos que tratan de resolver. En algunos casos, permiten ir más allá de los supuestos clásicos de la economía financiera explorando qué sucede cuando algunos de los agentes no actúan de manera racional sino con reglas simples (heurísticos), así como la posibilidad de que los precios tengan no uno, sino varios estados de equilibrio (autoorganización descentralizada). También se puede explorar el uso de relaciones no lineales a través de la teoría de redes complejas (nodos o vértices con enlaces o aristas), así como para modelar las burbujas y los desplomes bursátiles, usando herramientas de la física estadística, las matemáticas y la sociología. Otros investigadores están interesados en usar los abm para explicar los hallazgos empíricos realizados por la corriente dominante de la economía financiera (hechos estilizados) como las autocorrelaciones en los cambios de precios y las colas «gordas» de sus distribuciones de probabilidad. Unos más se interesan en estudiar qué sucede con los agentes cuando éstos aprenden a invertir y pueden cambiar de una familia a otra de inversionistas, lo que muestra las consecuencias del denominado efecto contagio o influencia de manada. Unos más tratan de usar estos modelos con el objeto de llevar a cabo pronósticos limitados del futuro. Finalmente, se pueden usar para el diseño normativo de instituciones y regulaciones que hacen las negociaciones más eficientes. Este camino se concentra en la aplicación de los abm o de los ace al mercado de las acciones. Estudia las bases para diseñar e implementar un modelo de simulación computacional que explora cómo afectan las interacciones de distintos inversionistas a los precios del mercado secundario de las acciones cotizadas en las bolsas de valores, en especial en el caso mexicano.
La definición de los agentes
Están representados por los inversionistas que participan en la compraventa de acciones en las bolsas de valores autorizadas para este efecto. Existen tantas clasificaciones de los inversionistas como motivos para participar en los mercados financieros. Algunos lo hacen con el objeto de conservar sus ahorros en el tiempo, otros para intercambiar el ahorro actual por el consumo futuro. Las bolsas de valores les ofrecen a estas personas el servicio de cambiar dinero actual por dinero futuro. Otros buscan obtener una utilidad derivada de la fluctuación de precios de las acciones, aunque en algunos casos terminan con pérdidas en el proceso. Este motivo se puede considerar especulativo en el sentido de que nadie conoce lo que depara el futuro, pero algunos consideran que tienen mejor información que otros, o son los más rápidos para reaccionar ante nuevas noticias. Unos más, entran con el objeto de obtener coberturas en contra de movimientos adversos en los precios y normalmente lo hacen a través de contratos de cobertura en los instrumentos financieros derivados. Un ejemplo adicional lo constituyen aquellas personas que entran a los mercados accionarios sólo por la emoción de participar en algo con riesgo e incertidumbre, como lo harían en los juegos que ofrecen los casinos. En este proceso, han creado un lenguaje diferente ya que no hablan de apostarle a una o varias acciones sino de una forma de «cascarle» al mercado. Existen muchos otros motivos que no serán discutidos en este anexo, pero el mensaje principal es que puede haber tantos grupos de inversionistas como razones para participar en el mercado accionario. Para modelar la complejidad financiera es necesario acotar las clases de inversionistas o agentes. El hecho de considerar sólo el mercado secundario de acciones provoca que los inversionistas actúen algunas veces como compradores, en otras como vendedores de acciones y que en algunos casos no participen de manera activa.
Desde que se dio el matrimonio entre la economía y las finanzas (economía financiera) es típico clasificar a los inversionistas en dos grupos. El primero está conformado por aquellos que usan las gráficas del precio de mercado de cada acción en un periodo de tiempo determinado, para tratar de encontrar, visual o matemáticamente, algún tipo de patrón que es usado para predecir el comportamiento futuro del precio. Estos inversionistas son considerados como «técnicos» con visión de corto plazo, y si logran obtener resultados positivos de manera consistente se dice que el mercado no es eficiente en su forma débil. El segundo grupo está conformado por los inversionistas considerados como «fundamentales». Este conjunto basa su estrategia en considerar que una acción representa el valor presente de todos los dividendos en efectivo que recibirá su poseedor. Trata de estimar este valor, el cual compara con el precio de mercado actual para determinar si deben comprar o vender dicho instrumento financiero. Consideran que éste es el valor fundamental o intrínseco de la acción, y en el largo plazo debería de converger con su precio de mercado. El problema es que este valor no es algo que se pueda observar y su estimación depende de la información pública existente en relación con el pago de dividendos, así como del tiempo en que se deben determinar, ya que las empresas, y por lo tanto sus acciones, no tienen fecha de vencimiento; finalmente, las tasas de descuento, que en teoría representan el riesgo de cada instrumento financiero, varían en el tiempo.
Derivado de lo anterior, algunos han decidido usar la razón (el cociente) entre el precio de mercado y las utilidades por acción del pasado, y otros han terminado por llevar a cabo un análisis de los estados financieros más recientes de la compañía bajo consideración. Si un inversionista usa cualquiera de las tres opciones mencionadas para determinar el valor de una acción se considera un inversionista «fundamental». Si con esta estrategia de inversión se llega a obtener resultados positivos de manera consistente se dice que el mercado es ineficiente en su forma semidébil o semifuerte.
La clasificación de los inversionistas en la práctica difiere en cada uno de los países, ya que las leyes no son similares, y lo mismo sucede con las reglas que establecen los reguladores de los mercados financieros. Es así como la Ley del Mercado de Valores de México reconoce dos grandes grupos de inversionistas: a) los «calificados» que se refieren a personas con distintos niveles de activos e ingresos, y b) los «institucionales» que normalmente son entidades financieras. La Comisión Nacional Bancaria y de Valores (cnbv), en sus disposiciones generales aplicables a las casas de bolsa, define dos subgrupos de los inversionistas calificados. El nivel básico que incluye a las personas que tienen inversiones promedio iguales o mayores a un millón y medio de unidades de inversión (equivalentes a diez millones de pesos en la fecha de escribir estas líneas). El nivel sofisticado que establece un límite de tres millones de unidades de inversión, equivalentes a veinte millones de pesos mexicanos y aproximadamente a un millón de dólares estadounidenses. Independientemente de las clasificaciones de los inversionistas, los datos de la Comisión Nacional Bancaria y de Valores (cnbv) de diciembre de 2020 muestran que el número de contratos de intermediación bursátil ascendieron a 947,850 cuentas.
Este número es aún muy bajo y demuestra la poca penetración bursátil en un país que tiene 126 millones de habitantes. Sin embargo, la tendencia positiva en los últimos años ha sido espectacular, ya que se ha dado entrada a inversionistas minoristas que abren cuentas desde un mínimo de cien pesos, y operan en pequeños montos por cuenta propia con aplicaciones (apps) y desde sus dispositivos móviles. Abren sus cuentas con requisitos mínimos de identificación y mayoría de edad, y pueden ser considerados como inversionistas no calificados, sin experiencia o no profesionales. Durante décadas, el promedio de cuentas totales giraba en torno a una media cercana los 200,000 contratos, pero desde diciembre de 2018 se han tenido crecimientos asombrosos, al pasar de 269,844 a 947,850 en diciembre de 2020. Para mostrar los amplios rangos de los recursos que actualmente se manejan en estas cuentas, se comparte que el 91.7% (865,808 contratos) operan un
monto menor a quince millones de pesos, y el 2.6% (24,977 contratos) manejan montos mayores a quinientos millones de pesos. El monto total que los inversionistas tienen en las casas de bolsa en la misma fecha es de 8.8 billones de pesos, lo que resulta en un promedio por cuenta de 9.3 millones de pesos. Una muestra más de que los altos crecimientos en el número de cuentas continúan es que en febrero de 2021 ya se tenían 1,153,695 contratos, más de 205,000 cuentas en dos meses.
En resumen, si se quisiera seleccionar los agentes necesarios para aplicar la complejidad al mercado accionario mexicano, se tendría una opción teórica de incluir a los inversionistas técnicos y fundamentales, así como una alternativa práctica de abarcar a los inversionistas institucionales, a los calificados básicos y a los sofisticados. Es decir, en el caso teórico se tendrían dos familias de agentes y, en el práctico, se manejarían tres grupos de agentes. En relación con el número de instrumentos financieros a considerar se menciona que los primeros mercados de acciones artificiales desarrollados por el Instituto de Santa Fe a finales de la década de 1980 incluían dos instrumentos financieros, un activo con riesgo que pagaba rendimientos inciertos y un activo libre de riesgo que pagaba un rendimiento seguro. Los modelos más recientes sólo consideran los activos con riesgo; en algunos casos se concentran en los precios de las acciones de una acción, en otros en un portafolio de acciones, y el caso más común es que utilicen los índices de precios publicados por las principales bolsas de valores del mundo. Para terminar esta sección, se enfatiza, una vez más, que el diseñador de estos modelos debe tener siempre en mente el objetivo principal que trata de resolver, y deberá también preguntarse si lo que está haciendo ofrece un valor agregado a los modelos diseñados por los economistas financieros.
La interacción entre los agentes y el medio ambiente
En la sección anterior se mencionó al número total de inversionistas que participan en el mercado bursátil mexicano, que pueden ser considerados como los demandantes de los valores financieros. Ahora se describirá la oferta de las acciones que son emitidas por las empresas (sociedades anónimas bursátiles). En este sentido, es importante distinguir entre las ofertas públicas iniciales (opi) en donde las empresas emiten nuevas acciones para conseguir recursos para sus proyectos de inversión (mercado primario), y las operaciones que se realizan posteriormente con el objeto de dar liquidez a los tenedores de las acciones (mercado secundario). El número de acciones listadas en las dos bolsas de valores de México, de las que se hablará más adelante, fue de 142 a finales de 2020. Si se tuviera que describir en términos generales la oferta y demanda del mercado bursátil mexicano, se diría que existen 142 acciones emitidas por las empresas y 947,850 inversionistas dispuestos a negociar con ellas.
Desde 2014, los inversionistas mexicanos también tienen acceso a acciones y fondos de inversión cotizados en bolsas extranjeras, principalmente en Estados Unidos. Esto se lleva a cabo a través de una plataforma electrónica denominada sistema internacional de cotizaciones (sic) que opera en pesos mexicanos y bajo el mismo esquema fiscal que el mercado local en el que básicamente existe un impuesto definitivo del 10% para las ganancias del capital y otro similar, pero provisional, para el pago de dividendos en efectivo. La Bolsa Mexicana de Valores (bmv) reporta que, al cierre de abril de 2020, el número total de valores listados fue de 2,278, de los cuales 1,149 corresponden a acciones y 1,129 a fondos cotizados en la bolsa de valores (etf). Con estas consideraciones, se tendría que redefinir el mercado bursátil mexicano y se hablaría del mercado accionario en México, mismo que se describe con la existencia de 1,291 acciones listadas y 947,850 inversionistas.
Los inversionistas y las empresas que listan sus acciones no operan de manera directa, sino a través de casas de bolsa (intermediarios financieros) constituidas como empresas con personalidad jurídica propia y con un capital mínimo determinado por la cnbv que es el organismo desconcentrado de la Secretaría de Hacienda y Crédito Público que regula, no sólo los intermediarios, sino también las ofertas públicas y las bolsas de valores. De acuerdo con los datos de la cnbv existen 35 casas de bolsa que pueden operar por cuenta de sus clientes o por cuenta propia. Como se mencionó anteriormente, al final del mes de diciembre de 2020, las 35 casas de bolsa mantenían 947,850 cuentas de inversión de sus clientes.
Tres de las 35 casas de bolsa manejan el 82.84% del total de cuentas. Grupo Bursátil Mexicano (gbm) tiene 655,650 cuentas, seguido de Actinver con 79,623 y Kuspit con 49,947. Es claro que estos intermediarios financieros se enfocan en inversionistas minoristas o calificados en el nivel básico. En este extremo se encuentra el caso de Kuspit, que se puede considerar una empresa de tecnología financiera que ha desarrollado una aplicación para que los inversionistas puedan abrir una cuenta desde cien pesos (equivalentes a cinco dólares) para poder operarla desde sus teléfonos móviles e inteligentes. En el otro extremo se ubican casas de bolsa cuyo objetivo son los inversionistas calificados de nivel sofisticado, así como los institucionales, lo cual se puede deducir del hecho de que la casa de bolsa hsbc maneje sólo diez cuentas, J. P. Morgan 109, y Merrill Lynch, 509. Resulta claro que algunas casas de bolsa buscan hacer negocio con muchos clientes y pocas comisiones, y otras con pocas cuentas y grandes comisiones en términos absolutos. Se recuerda que las casas de bolsa no sólo cobran comisiones por las operaciones de compraventa de sus clientes (de corretaje), sino que también reciben comisiones por la administración y custodia de los valores. El autor de este anexo puede comprobar que estos costos de operación son sustancialmente menores de los que usó en su disertación del mercado de valores mexicano en la década de 1980, misma que puede ser utilizada para estudiar la estructura del mercado accionario de esa época.
La interacción entre los agentes y el medio ambiente no sólo se refiere a la estructura general del mercado que se ha descrito, sino que también incluye las leyes y regulaciones de operación. La institucionalidad del mercado accionario se inició con la Ley del Mercado de Valores de 1975, que estableció que esta plataforma legal era una condición necesaria pero no suficiente para su desarrollo. Antes de esta fecha, los preceptos legales del mercado bursátil se encontraban dispersos en varias leyes, y este documento logró reunirlos y darles una estructura general para su fomento y regulación. Los aspectos más relevantes de dicha ley fueron: a) la fusión de las tres bolsas regionales que existían en las ciudades de México, Monterrey y Guadalajara para formar la Bolsa Mexicana de Valores (bmv) que opera desde 1976 en la ciudad de México; b) la Comisión Nacional de Valores recibió poderes especiales para regular y supervisar el mercado accionario, así como para normar nuevos eventos mediante la expedición de circulares; c) los 72 corredores de valores y tres casas de bolsa existentes en 1973 fueron incentivados para constituirse como personas morales, a las cuales se les dio el poder exclusivo para actuar como intermediarios directos de las acciones.
Esta ley ha sido reformada y aumentada mediante decretos publicados en el Diario Oficial de la Federación en varias ocasiones. La Bolsa Mexicana de Valores (bmv) operó de manera solitaria hasta 2018 cuando inició operaciones la Bolsa Institucional de Valores (biva) también con sede en la Ciudad de México. Derivado de la posibilidad de formar grupos financieros, en 1995, la Comisión Nacional de Valores (1946) se fusionó con la Comisión Nacional Bancaria (1924) para formar lo que hoy es la Comisión Nacional Bancaria y de Valores (cnbv). Actualmente, ya no existen los corredores de valores como personas físicas, y se tienen 35 casas de bolsa como sociedades anónimas que operan por cuenta de sus clientes (corredores o brókers) y por cuenta propia (agentes o dealers). Por eso se dice que las casas de bolsa son corredores o agentes exclusivos del mercado accionario.
Actualmente, la Ley del Mercado de Valores regula la oferta de valores, su registro, su intermediación a través de las casas de bol-
sa, así como a las bolsas de valores, y todo lo que tiene que ver con lo que sucede después de la compraventa, como la liquidación, el depósito de valores y su custodia. También incluye los temas de los asesores de inversión, los proveedores de precios y los calificadores de valores. Se darán más detalles del tema institucional del sistema financiero mexicano en el cuarto camino.
La interacción entre los agentes
El desarrollo del mercado secundario a través de los sistemas de negociación y asignación de la bmv y la biva es donde se da la interacción entre los inversionistas de todo tipo. Esto es lo que se denomina la microestructura financiera que define las reglas de negociación. En términos generales, desde 2018, las casas de bolsa tienen la obligación de lograr la «mejor ejecución» de las órdenes de sus clientes en cualquiera de las dos bolsas. El cliente puede elegir si quiere canalizar sus posturas en su totalidad a la bmv o la biva, pero también las casas de bolsa pueden aceptar o no órdenes dirigidas de sus clientes. En el caso de que los clientes no decidan dirigir a una bolsa sus posturas, las casas de bolsa tienen el deber de «mejor ejecución», es decir, tienen la obligación de obtener el mejor resultado posible en el cumplimiento de las órdenes de sus clientes. Lo anterior sucede cuando el cliente gira instrucciones para que la casa de bolsa mande sus órdenes directamente a las bolsas de valores (instrucciones al libro). Alternativamente, algunos clientes, considerados como elegibles, pueden decidir enviar sus posturas para ser administradas por la mesa de operaciones de terceros de su casa de bolsa (instrucciones a la mesa). Por lo mismo, es necesario analizar tanto el contrato de intermediación bursátil entre el cliente y su casa de bolsa como el reglamento interior y las reglas operativas de las dos bolsas de valores.
La Bolsa Mexicana de Valores (bmv ) operó hasta 1999 de «viva voz» en un piso de remates físico, para pasar a operar 100%
de manera electrónica. Desde principios de este siglo tanto la bmv como la gran mayoría de las bolsas mundiales se han transformado en empresas con alta tecnología, por lo que se puede decir que han pasado de la «viva voz» a la «tecnología en vivo». El sistema electrónico de negociaciones tiene terminales ubicadas físicamente en las instalaciones de las casas de bolsa, cuyo manejo recae en operadores que tienen las claves de acceso. El actual sistema electrónico de negociación de la bmv es utilizado por las casas de bolsa para la formulación de posturas (órdenes) de sus clientes, las propias y las que provengan de su papel como formadores de mercado de una o varias acciones. Existe un solo libro electrónico en el que se registran todas las posturas y operaciones del mercado accionario.
Los formadores de mercado, también conocidos como hacedores de mercado o especialistas, tienen como objetivo promover la liquidez de una acción al mantener de forma permanente posturas de compra y de venta en firme, para contribuir a la estabilidad y continuidad de los precios. Los hacedores de mercado son aprobados por la bolsa y tienen derechos y obligaciones que son definidos en el reglamento interior de la bmv. Este ordenamiento también define los dos esquemas (modelos) de operación para poder negociar las acciones en la bolsa. En el esquema de operación continua, las posturas pueden registrarse y las operaciones concretarse en cualquier momento durante la sesión de remate que va de las 8:30 a las 15:00 horas. En el esquema de operación por subasta, las órdenes (posturas) sólo pueden registrarse durante un periodo de tiempo determinado, y sus operaciones se perfeccionan con el establecimiento de un precio de asignación que negocia el mayor número de títulos.
Los detalles de todos estos procesos se definen en las reglas operativas del sistema electrónico de negociación de la bmv. Aquí se especifican los lotes (cantidad mínima de acciones), las pujas (unidad mínima de cambio en los precios), la mecánica de las subastas de apertura, continuas y de intradía, los tipos de posturas, la cancelación de operaciones, así como los derechos y obligaciones de los formadores de mercados. Con todas estas reglas, las ór-
denes, tanto de los clientes como de las casas de bolsa, llegan a libro electrónico, que es el lugar en donde se dice que interactúan los inversionistas y se producen los precios de mercado de las acciones.
La Bolsa Institucional de Valores (biva) es la única competencia de la bmv, y desde su fundación ha argumentado que opera a través del uso de tecnología de punta, de un mejor servicio, así como de sus alianzas, tanto con nasdaq (que ayudó a diseñar un motor de operaciones similar) como con ftse Russell, para la elaboración de su índice accionario más incluyente y representativo. En términos generales el listado de la bmv es de empresas grandes, biva puede incluir a compañías medianas y grandes, debido a que uno de los requisitos para el listado de acciones son un capital contable de 72 millones de pesos, que representa aproximadamente la mitad del requerido por la bmv. Las emisoras pueden estar listadas en la bmv o en la biva, pero son negociadas en cualquiera de las dos bolsas. Sin embargo, las emisoras sólo entregan sus estados financieros trimestrales a la bolsa en donde estén listadas cada una de sus emisiones, ya que puede suceder que una compañía tenga listada la serie A de sus acciones con la biva y la serie B con la bmv. En la biva también se negocian los mismos valores que forman parte del sistema internacional de cotizaciones (sic).
La biva cuenta con su reglamento interior y con un manual de reglas operativas con muchos procesos que son similares a los de la bmv, como son los casos de los operadores, los analistas independientes y los formadores de mercados. Sin embargo, este anexo destaca dos que considera son sus principales diferencias. La primera se refiere al sistema electrónico y de comunicación al que tienen acceso las casas de bolsa, mediante terminales de operación instaladas por biva, para la formulación y envío de posturas, denominado sistema Opel, mismo que tiene cinco libros electrónicos para concertar operaciones. Opel-E, es el principal libro de operación electrónica que permite el ingreso y ejecución de los diferentes tipos de posturas para las acciones y los títulos fiduciarios, canalizadas o hechas por las casas de bolsa.
Opel-C es dedicado a las posturas de cierre en donde se determina el precio de cierre de las acciones mediante una subasta. Esto se realiza para evitar que algunos inversionistas puedan interferir con bajos volúmenes en el precio de cierre de las acciones, que es la referencia para las liquidaciones de los contratos derivados, como las opciones y los futuros. Opel-B es el libro de operación dedicado exclusivamente a posturas y operaciones de bloque, entendidos como la operación de grandes volúmenes de acciones. Opel-W permite operar las órdenes (posturas) de títulos opcionales, y dado que éstos son llamados warrants en inglés, se toma la primera letra para su designación. Finalmente, Opel-D es donde se operan (negocian) los títulos de deuda.
La segunda se refiere al tiempo en el que la plataforma electrónica o el motor de operación procesa las órdenes de los clientes. El motor de biva, denominado X-Stream inet, procesa una operación en 40 microsegundos (0.000040 segundos), lo cual es mucho más rápido que el motor de la bmv, llamado MoNet, que lo hace en 90 microsegundos (0.000090). Esta diferencia es muy importante para aquellos inversionistas que utilizan algoritmos para negociar en periodos muy cortos (negociaciones de alta frecuencia o hft) en donde requieren llegar primero al libro correspondiente, y después, que el libro pueda operar rápidamente grandes volúmenes. En finanzas se utiliza el concepto de latencia para describir al periodo que transcurre entre la decisión de una casa de bolsa para la compraventa de valores, ya sea por cuenta propia o de terceros, y su realización en el libro electrónico. Para llegar primero, algunas casas de bolsa sitúan sus plataformas físicamente cerca de donde se encuentra el motor de la bolsa, pero también se requiere que el motor procese las operaciones de manera rápida. Hasta la fecha el dato relativo a la importancia de las negociaciones de alta frecuencia no es público, pero de vez en cuando algún funcionario de las bolsas lo da a conocer en presentaciones públicas. Es así como la bmv dio a conocer que, en 2012, una cuarta parte del volumen era realizada por operaciones de alta frecuencia (hft). Este porcentaje es bajo si se compara con el de las bolsas de Estados Unidos que superan el 66% de sus operaciones con algoritmos.
Se considera que la competencia entre bolsas de valores es buena, aún en un mercado de valores pequeño a nivel mundial como es el mexicano. Para mostrar este hecho, se da a conocer que, con datos del banco central, el mercado accionario mexicano, a finales del mes de enero de 2021, tenía un valor de capitalización de 8.2 billones de pesos, equivalentes a 400 billones de dólares, lo que representa sólo el 20% del valor de la empresa Apple cotizada en Estados Unidos. biva inició operaciones en julio de 2018 con una participación de mercado menor al 2%, en octubre de 2019 obtuvo cerca del 16% y en enero de 2021 obtuvo el 8%. Más allá de los aspectos económicos de la competencia entre la bmv y la biva, es importante resaltar la importancia de tener un esquema de negociación alternativo cuando algo sucede con los motores electrónicos de alguna de ellas. Un ejemplo es lo que pasó el viernes 9 de octubre de 2020 en la bmv un poco antes de mediodía, cuando ocurrió una desconexión de su motor de negociación, que la obligó a suspender su operación por el resto de ese día. Afortunadamente no se trató de un ataque cibernético, y se contaba con el sistema Opel de biva. La cnbv impuso sanciones en marzo de 2021 y la bmv pagó dos multas por un total de 9.7 millones de pesos por la falla de sus sistemas. Lo importante es resaltar que el tener una bolsa de valores alternativa puede ayudar en este tipo de eventos.
Para terminar esta sección, se menciona que el Grupo de la bmv cotiza sus acciones en la misma bmv bajo la clave Bolsa. Los estados financieros del grupo mostraron una utilidad neta de 1,353 millones de pesos para el 2019 y un inicio en 2020 con un capital contable de 6,840 millones de pesos, lo que resulta en un rendimiento sobre su capital del 20%. biva ha decidido no listar sus acciones hasta el presente, por lo que no existe información pública financiera para su evaluación. biva pertenece al Grupo Cencor (Central de Corretajes) que ha hecho público que tiene la intención de listar sus acciones en los próximos tres años.
Se termina esta sección resumiendo que para poder modelar la interacción entre los agentes (inversionistas) es de vital importancia conocer las reglas técnicas (microestructura financiera)
que rigen las negociaciones que llevan a cabo en plataformas electrónicas de las bolsas de valores. Esta interacción se entrelaza con la correspondiente a la de los agentes y el medio ambiente, definido por la estructura económica del mercado, así como su parte correspondiente al derecho bursátil, que incluye leyes, regulaciones y circulares de la cnbv. Como el lector podrá notar, el modelo basado en agentes (abm) para el mercado accionario no es fácil de diseñar, y se complica aún más cuando se llega a la parte de su implementación.
Software (programa) y hardware (equipo)
Para implementar cualquier abm se requiere lo siguiente: a) usar un software basado en algún lenguaje, para hacer un desarrollo propio que refleje las características exactas de lo que se pretende lograr, o b) emplear una de las múltiples plataformas de software existentes en el mercado. Normalmente, llevar a cabo un desarrollo propio puede dar mejores resultados, pero el costo de realizarlo puede ser muy alto. Es aquí donde los programadores, informáticos o ingenieros en computación tienen una ventaja comparativa para hacer un traje a la medida en beneficio propio o de sus contratantes. Sin embargo, los investigadores de las ciencias sociales tendrán problemas con este último enfoque y prefieren algunas de las plataformas que han sido desarrolladas en los últimos 25 años y son fáciles de usar. Se pueden acceder sin costo alguno por haber sido escritos en código abierto (software libre), lo que implica que los derechos de autor forman parte del dominio público y se desarrollan de manera colaborativa con resultados que son publicados en internet. Con los modelos hechos a la medida se pueden obtener resultados más precisos con costos altos, y con los modelos predeterminados los resultados pueden no ser tan exactos, pero el costo es ínfimo o cero.
Los profesores universitarios que cuentan con apoyos importantes de algunas fundaciones pueden darse el lujo de crear un
abm usando programas específicos que son completa o parcialmente cerrados. Desafortunadamente, la mayoría de los maestros no cuentan con este apoyo, por lo que se ven obligados a usar las plataformas de código abierto, prefiriendo aquéllas que son más fáciles de usar y cuentan con materiales de apoyo para llevar a los estudiantes en un proceso suave. En este sentido, NetLogo parece ser la plataforma más usada por cerca de quinientos centros educativos en el mundo, incluyendo los cursos ofrecidos en México por la unam, el itesm, el cide, la uam Azcapotzalco y la Universidad Michoacana de San Nicolás de Hidalgo. Fue escrito por Uri Wilensky en 1999 y ha sido administrado por la Universidad de Northwestern5.
NetLogo no tiene una sección especial para la economía financiera, pero dentro del rubro de ciencias sociales se encuentran varios modelos que pueden ser aplicados, entre los cuales destaca el mercado de subastas, en el que compradores y vendedores tratan de obtener el mejor precio de un bien en un entorno competitivo. Para poderlo aplicar al mercado accionario sólo se tiene que equiparar los bienes con las acciones en particular que se deseen modelar. Los agentes del modelo del mercado de subastas son vendedores que desean deshacerse de sus acciones y compradores que poseen dinero y están dispuestos a comprarlas. El monto de este dinero en el mercado puede ser seleccionado por el usuario y está inicialmente predeterminado en 500 unidades que pueden ser pesos, dólares o la moneda que se desee utilizar. Esto implica que se tiene la opción para decidir si la demanda y oferta inicial que se desea es alta o baja, así como si la distribución es equitativa entre compradores y vendedores o se concentra en un pequeño grupo. También se puede determinar la conducta de los participantes. Existe la opción de modelar cuatro escenarios. El normal, en donde los compradores incrementan su oferta de 5. Puede ser descargado a través de la página www.ccl.northwestern.edu/netlogo. Además de la amplia documentación y tutoriales, contiene una biblioteca de modelos que incluye más de 235 simulaciones prescritas que pueden ser usadas y modificadas de acuerdo con las necesidades de cada investigador. La biblioteca incluye 59 modelos de física y química, 52 de biología, 43 de matemáticas y probabilidad, 32 de ciencias de la computación y 25 de ciencias sociales.
de las Américas Puebla
pago en una pequeña cantidad si no han podido concretar la compra que desean, o por el contrario bajaran su oferta de compra si es que tuvieron éxito en comprar la acción. El segundo caso se refiere a los compradores desesperados que están dispuestos a incrementar su oferta no en una pequeña cantidad, sino que dan un gran salto en el precio ofrecido con el fin de lograr su objetivo. La tercera alternativa puede ser modelada de manera aleatoria, es decir, algunos estarán dispuestos a pagar más y otros menos con el objeto de concretar la compra. Finalmente se puede elegir una combinación de todo, en donde a cada comprador se le asigna de manera aleatoria en cada uno de los tres escenarios anteriores.
El modelo de mercados de subastas de NetLogo es muy flexible para adaptarse a las necesidades de cada investigador, y tiene la ventaja de que la simulación se puede visualizar en dos dimensiones y en tiempo real en la pantalla o interfaz del paquete. Usted puede ir observando el comportamiento entre las posturas de compra y venta, así como las operaciones concretadas. Es como si se tuviera acceso a libros electrónicos tanto de la bmv como de la biva. Para el caso estándar que inicia con quinientos pesos, con distribuciones equitativas tanto en compradores como en vendedores, y conductas normales de ambos, y después de cerca de 350 iteraciones, los resultados muestran que se usó el 87% del dinero, el precio de venta promedio fue de 22 pesos. Los resultados específicos de cada iteración se colocan en archivos que son fácilmente exportables para el análisis y presentación de cada estudio.
Se invita al lector a experimentar con esta herramienta, el abm que se ha descrito en párrafos anteriores. No sólo aprenderá de las interacciones entre los agentes, sino que podrá explorar qué tan sensible es la determinación de precios ante cambios en su conducta y modificaciones del medio ambiente. Para casos relacionados puede también considerar el uso de otros modelos de NetLogo como son Random Walk 360 (caminata aleatoria), Minority Game (juego minoritario) y Simple Economy. Una vez que obtenga los resultados de las simulaciones es importante validarlas con el objeto de ver cómo se comparan con la situación real.
El autor de este anexo considera que NetLogo podría ser el primer paso para los economistas financieros que no tienen experiencia en los temas computacionales. Una vez que se familiaricen con NetLogo, podrán usar otros programas de código abierto que sí requieren de experiencia computacional como son Swarm, desarrollado por el Instituto de Santa Fe en 1996, y Repast, de la Universidad de Chicago, en 2000. Para los que deseen ir más allá, existen también una gran cantidad de universidades que ofrecen cursos presenciales y a distancia para el aprendizaje de otros lenguajes de programación, destacando los casos de R que está enfocado en el análisis estadístico y el de Python concentrado en el tema de multiparadigmas. El tema de hardware (sistema operativo del equipo) no tiene mayores complicaciones ya que la gran mayoría de los modelos mencionados pueden ser usados a través de Windows, Mac os x o Linux. Probablemente la principal preocupación con el hardware se relaciona con el poder y la rapidez de cómputo, así como la posibilidad futura de poder conectarse en tiempo real con las grandes bases de datos.
Los que abrazan completamente los modelos basados en los agentes (abm)
Una de las investigadoras más destacadas y activa en Estados Unidos es Leigh Tesfatsion, quien cuenta con un Ph. D. en Economía por la Universidad de Minnesota y es profesora de Iowa State University. Entre sus principales áreas de investigación está la economía computacional basada en los agentes (ace) que, como ya se mencionó, no es otra cosa que los abm aplicados a la economía. Tesfatsion define gráficamente la ace como un triángulo que tiene como vértices a la ciencia de la computación, la evolución económica y la ciencia cognitiva. Su objetivo es hacer crecer la economía de abajo hacia arriba. Para todo esto, mantiene al día un sitio web dedicado exclusivamente a los ace (www2.econ.iastate.edu/ tesftatsi/ace.htm) con los materiales necesarios para un curso se-
mestral, una guía online, así como los principales artículos relacionados con cada tema.
La profesora Tesfatsion ha desarrollado y promovido los abm durante cuatro décadas y ha escrito una gran cantidad de artículos, los cuales pueden ser vistos a través de su página. En este anexo sólo se menciona uno de ellos con el doble objetivo de resaltar su publicación en una edición especial de una revista interdisciplinaria, y la de dar a conocer a diez de sus compañeras y compañeros que abrazan los abm . La edición especial del Journal of Artificial Societies and Social Simulation (jass) del mes de enero de 2020 dio a conocer los grandes desafíos de los abm , e incluyó seis artículos innovadores de diferentes autores que tratan de coordinar esfuerzos para avanzar en la ciencia y tecnología que están detrás de estos modelos. Uno de los artículos en donde participa Tesfatsion, junto con diez expertas y expertos, habla de los aspectos metodológicos de los abm . Sus nombres pueden ser vistos en las referencias bibliográficas que aparecen al final de este anexo. Tanto este artículo como la edición especial del jass para los abm son fundamentales para todo aquél que tenga un interés más profundo en la situación actual y los desafíos de este tema. Crucemos el océano Atlántico para hablar de J. Doyne Farmer, el físico norteamericano que ahora dirige el programa de la complejidad económica del Instituto para el Nuevo Pensamiento Económico en la escuela de negocios Martin, de la Universidad de Oxford. En el capítulo único se mencionó a Farmer como un investigador defensor tanto de la complejidad como de la econofísica, y se hizo referencia a su artículo de 2019 que habla de cómo la complejidad puede resolver la crisis que vive actualmente la economía. Su artículo es la base de su próximo libro programado para ser publicado en 2021. Tiene una carrera muy diversa que inició en 1981 en el Laboratorio Nacional de los Álamos en Estados Unidos, diez años después fundó junto con Norman Packard la empresa Prediction Company para realizar negociaciones cuantitativas automáticas basadas en pronósticos de alta frecuencia; en 1999 trabajó en el Instituto Santa Fe, y desde 2010 sigue trabajando en sus temas en la Universidad de Oxford.
El lector podrá notar que es muy inquieto y ahora ha iniciado una nueva firma llamada Macrocosm para la creación de un modelo microeconómico global, a nivel de empresas y productos, con el objeto de permitir que la macroeconomía surja de la microeconomía. Su inquietud se basa en el hecho de que de la física pasó a la economía, y de ésta a los negocios, y se sigue desenvolviendo en las tres áreas. En relación con esto último, la Prediction Company utilizó un software privado, por lo que es imposible evaluar su desempeño y saber con certeza si los mercados financieros de esa época eran ineficientes y se podían predecir. Lo que se sabe es que fue vendida a ubs en 2006. Con los datos de CelebsAgeWiki, parece ser que su patrimonio es relativamente holgado al ser estimado entre uno y cinco millones de dólares. El lector interesado en su vida, pero sobre todo en sus publicaciones, puede visitar su página, la de la escuela de negocios Martin y la de la Universidad de Oxford que se muestran en los portales electrónicos mencionados al final de este anexo.
Pasamos de Londres a la Ciudad de México en donde Gonzalo Castañeda, un prestigiado economista, profesor del cide, se ha convertido en el principal defensor de la complejidad económica. En julio de 2020 publicó el libro El paradigma de la complejidad social: una forma alternativa de entender a las sociedades y sus economías, en donde describe la complejidad en el pensamiento económico desde los clásicos, pasando por Keynes, la escuela austríaca, la institucional, hasta los temas conductuales y evolutivos. Es un magnífico libro de texto con un alto grado de formalidad; también usa ejemplos de la autoorganización en la economía describiendo los casos de la mano invisible de Adam Smith, la volatilidad exuberante de Rober Shiller, la inestabilidad financiera de Hyman Minsky, y las instituciones de acción colectiva de Elinor Ostrom. Este documento que contiene más de mil folios provee de múltiples insumos para la elaboración de abm y sirve para estimular a que más economistas financieros adopten esta nueva forma de pensar y de modelar, sin perder el rigor matemático que consideran esencial.
El cide también es sede del Laboratorio Nacional de Políticas Públicas (lnpp), centro de investigación aplicada para la resolución de problemas públicos que proporciona asesoría técnica sustentada parcialmente en simulaciones computacionales de datos. Realiza modelos de predicción basados en los agentes (abm), aunque no se ha concentrado en los mercados accionarios.
Se regresa al contexto mundial en donde hoy se cuenta con una red para la modelación computacional de las ciencias sociales y ecológicas que ha formado una comunidad de profesores, investigadores y profesionales con el objetivo común de mejorar la forma para desarrollar, compartir y reusar los modelos basados en los agentes (abm). Se comunican de manera electrónica para compartir experiencias, subir y archivar una biblioteca de modelos de abm y para buscar mayor transparencia y visibilidad. En su página www.comses.net el lector encontrará cuando menos cuatro modelos artificiales de los mercados accionarios desarrollados tanto en NetLogo como en Matlab (plataforma de programación y cálculo numérico para analizar datos, desarrollar algoritmos y crear modelos con un lenguaje propio).
Existe otra red fundada en 2006 denominada «Sociedad para la Ciencia Económica con la Interacción de Agentes Heterogéneos» (eshia, por sus siglas en inglés) que promueve la investigación interdisciplinaria entre la economía, la física y la inteligencia artificial. Cada año realizan un taller de trabajo de tres días en distintos lugares del mundo con el objeto de mostrar los avances. Además, han creado el Journal of Economic Interaction & Coordination6. La mayoría de las veces los artículos están ligados al tema de la complejidad, pero en algunas ocasiones se publican trabajos de los investigadores ligados a la econofísica de la que se hablará en el siguiente camino.
6. Su sitio web es www.springer.com/journal/11403.
Un botón de muestra de los que consideran a los modelos (abm) como
complementarios
Andrew G. Haldane, el economista en jefe del Banco de Inglaterra, dio una plática el 10 de noviembre de 2016 en la Universidad de Cambridge para celebrar la conferencia bienal en memoria de George L. S. Shackle (1911-1992). El título de su charla puede ser traducido como «El mundo moteado» o «El mundo con motas (manchas)». Las motas del mundo económico y financiero provienen del hecho de que algunos estudiosos como Shackle describen a la economía como un caleidoscopio que produce colores que cambian rápidamente, pero otros la modelan sin color alguno y de manera inanimada. Cada grupo representa una mota en la descripción total de la economía y las finanzas.
Ofrece pruebas y reconoce que, a pesar del progreso de la economía, ésta continúa siendo una disciplina que permanece cerrada como lo demuestra el que una muy pequeña parte de las citas de sus artículos provienen de otras disciplinas. Por lo mismo, considera que los modelos basados en los agentes (abm) son una opción interesante para explorar qué sucede con los supuestos clásicos de la macroeconomía y las finanzas. En especial los relativos a la racionalidad, el equilibrio, la no linealidad y la heterogeneidad de los actores.
Expone con detalle dos aplicaciones reales de los abm. Una relacionada con el mercado de la vivienda en el Reino Unido y otra concerniente a los movimientos diarios de los bonos corporativos. A pesar de lo anterior deja claro que:
Los abm no son una panacea para modelar las dolencias de la economía. El discutirlas aquí, no implica que se debe sustituir completamente los modelos de equilibrio general dinámicos y estocásticos (dsge). Más bien, su valor es el de proveer de manera complementaria, visiones para
darle sentido a nuestro mundo económico y financiero moteado, visiones que otras disciplinas han encontrado útiles cuando tratan de entender sus mundos o cuando diseñan políticas para mejorarlos. (Haldane, 2016, p. 11)
Considera que cada mota del mundo económico y financiero tiene su lugar, pero que se le ha dado mucho más peso a uno de ellos. Por lo mismo concluye que es necesario «equilibrar nuevamente la balanza, y tomar la incertidumbre y el desequilibrio seriamente, para hacer lo heterodoxo ortodoxo. Una profesión que probablemente ha sido encadenada por un largo tiempo, necesita ser influida por las ideas de Shackle» (Haldane, 2016, p. 36).
Por la posición que ocupa Haldane, la contundencia de sus argumentos y excelente forma de comunicar es claro que tiene influencia sobre muchos otros economistas en otras partes del mundo. Su posición es clara: los abm deberían ser considerados como un complemento para poder desarrollar mejores teorías.
Los de la corriente principal que rechazan los modelos (abm)
El lector podrá notar que prácticamente todos los que apoyan la complejidad no publican en revistas especializadas «grandes», las cuales son controladas por la corriente dominante de la economía financiera. Destacan el Journal of Finance, el Journal of Financial Economics, Journal of Business, American Economic Review, Econometrica y el Journal of Political Economy. Esto implica que la corriente dominante, sin incluir a los economistas conductuales, rechazan los abm por diversas razones, entre las que sobresalen la pérdida de control a través del diseño de modelos analíticos basados en las matemáticas. Estos «mapas del territorio» inician con supuestos (axiomas o postulados) que llevan a teoremas que demuestran
con matemáticas y lógica las relaciones de causalidad de las variables involucradas. En la mayoría de los casos los supuestos no son muy realistas, pero son necesarios para poder modelar matemáticamente y aislar los factores relevantes de manera causal. Milton Friedman y Paul A. Samuelson tenían posiciones opuestas al respecto. El primero argumentaba que el desarrollo de una teoría se hacía con el objeto de probar si describía los aspectos importantes de la realidad, independientemente de la clase de supuestos que la sustentaban. El segundo decía que, si la teoría era lógicamente correcta, su utilidad se tenía que probar examinando si los supuestos en los que estaba basada eran realistas. El autor de este anexo considera que sólo hay diferencias semánticas, ya que se deben comparar con la realidad tanto los supuestos como las predicciones que realizan las teorías.
Aki Lehtinen y Jaako Kuorikoski (2007) dan a conocer las principales razones por las que los economistas rechazan las simulaciones computacionales. Dejan claro que los economistas se sienten cómodos usando las computadoras para hacer cálculos (computar) que no se pueden obtener de manera manual, tales como resolver las ecuaciones de los modelos macroeconómicos de equilibrio, verificar algunas de las propiedades de las series de tiempo que usan los econometristas o analizar los resultados de las teorías de juegos. Sin embargo, no aceptan usar las computadoras para llevar a cabo simulaciones que pudieran generar modelos no formales (abm) que compitan con sus esquemas o teorías analíticas, que ellos llaman modelos perfectos. Hacen referencia a Kenneth Judd (1997) para diferenciar los modelos analíticos y los que provienen de simulaciones computacionales como una balanza entre supuestos realistas y errores numéricos. Esto conduce a que los economistas y sus modelos matemáticos no se preocupen tanto por la exactitud de los números (resultados) sino por la exactitud de sus fórmulas. Por un lado, a los economistas les gusta considerar su disciplina como una ciencia exacta que se distingue de otras ciencias sociales, pero por el otro, autores como Daniel Hausman (1992) se refieren a la economía como una ciencia inexacta debido a que sus generalizaciones son
aproximadas al basarse en la probabilidad y en supuestos no siempre realistas.
Lehtinen y Kuorikoski (2007) proporcionan dos argumentos para explicar las razones por las que los economistas financieros de la corriente dominante no aceptan los modelos computacionales simulados (abm). El primero de ellos se refiere a que no consideran válidas las pruebas digitales. La única prueba significativa para los economistas es la derivada de las matemáticas, que es lo que hace que la disciplina tenga el carácter de científica. Lo anterior a pesar de que los investigadores que usan los abm pueden verificar tanto los insumos que proporcionan a la computadora como los posibles errores del programa. En todo este proceso, no ayuda que muchos autores de abm no presentan ninguna prueba digital, por ser muy complejas y aburridas, y no incrementan el prestigio académico o la ganancia financiera. El segundo se refiere al argumento de los economistas que consideran la computadora como una caja negra. Todo lo que se sabe es lo que entra (insumos) y lo que sale (resultados) de la computadora, pero se conoce muy poco lo que pasa entre los dos. Los autores mencionan que los economistas empíricos usan los paquetes de software estadístico la mayor parte del tiempo y nunca consideran que existe un problema de la caja negra. Por lo que el problema no es de cajas negras, sino la pregunta que nos tenemos que hacer es por qué los economistas confían en unas cajas negras (programas estadísticos) y desconfían de otras (abm). Para finalizar, los economistas, actualmente, rehúyen de los abm, aunque parecen haber aceptado la economía conductual y experimental, y, por lo tanto, existe la esperanza de que la ortodoxia económica pueda aceptar más adelante los cuasiexperimentos computacionales.
Baker, J. y Wilensky, U. (2017). NetLogo Bidding Market model. Center for Connected Learning and Computer-Based Modeling, Northwestern University, Evanston. Recuperado de http://ccl.northwestern.edu/ netlogo/models/BiddingMarket
Bolsa Institucional de Valores S. A. de C. V. (2020). Reglamento interior.
Bolsa Institucional de Valores S. A. de C. V. (2021). Manual de reglas operativas.
Bolsa Mexicana de Valores, S. A. B. de C. V. (2015). Reglamento interior.
Bolsa Mexicana de Valores, S. A. B. de C. V. (2016). Reglas operativas del sistema electrónico de negociación.
Cámara de Diputados del H. Congreso de la Unión (2019). Ley del Mercado de Valores.
Castañeda, G. (2020). The paradigm of social complexity: An alternative way of understanding societies and their economy. ceey Editorial.
Hakim, M. (1992). The efficiency of the Mexican stock market. Nueva York y Londres: Garland publishing.
Haldane, A. G. (2016). The dappled world gls Shackle Biennial Memorial Lecture.
Lethtinen, A. y Kuorikoski, J. (2007). Computing the perfect model: Why do economists shun simulation? Philosophy of Science, 74, 304-329.
Manson, S., An, L., Clarke, K. C., Heppenstall, A., Koch, J., Krzyzanowsky, B., Morgan, F., O´Sullivan, D., Runck, B. C., Shook, E. y Tesfatsion, L. (2020). Methodological issues of spatial agent-based models. Journal of Artificial Societies and Social Simulación, 23(1).
Wilensky, U. (1999). NetLogo. Center for Connected Learning and Computer-Based Modeling. Northwestern University, Evanston. Recuperado de http://ccl.northwestern. edu/netlogo/
Universidad de las Américas Puebla
Tercer camino
La econofísica
Los principales modelos en que se basa la economía financiera, entre los que destacan la caminata al azar, la hipótesis de los mercados eficientes, el capm y la valuación de derivados, usan una distribución normal (gaussiana) que puede ser descrita sólo con dos parámetros: media y varianza. En todos estos casos, la corriente dominante de la economía financiera inicia con supuestos o premisas, utiliza fórmulas matemáticas y construye modelos o teorías. Por esta manera de proceder se dice que constituyen un razonamiento deductivo. Una vez establecido el modelo financiero se procede a su validación empírica. Es un hecho que las finanzas son ricas en datos, sobresaliendo el caso de los precios de mercado de las acciones y sus derivados. Para procesar estos datos, los economistas y los econometristas cuentan con una gran cantidad de opciones derivadas de la probabilidad y la estadística, así como de paquetes estadísticos para evaluar sus hipótesis calculadas en las computadoras actuales. Finalmente, se comparan los resultados obtenidos de la muestra con los modelos y se tratan de explicar sus diferencias o desarrollar nuevos modelos. El autor de este anexo considera que los econometristas actuales son tan buenos para el manejo de la estadística como lo son los físicos al utilizar su estadística mecánica.
Probablemente el modelo más usado para explicar el comportamiento de los precios de mercado de los activos con riesgo es la caminata al azar. Una de las primeras teorías fue expuesta en 1900 por el matemático francés Louis J. P. A. Bachelier en su tesis doctoral «La teoría de la especulación», en donde aplica la distribución normal a las fluctuaciones de precios de contratos de futuros y opciones de la deuda francesa, pero sus resultados se aplican por igual a las acciones cotizadas en las bolsas de valores del mundo. Concluyó que era imposible aspirar a una predicción matemática de los cambios de precios, pero que sí era posible aplicar la teoría de probabilidades y el cálculo diferencial e integral a los cambios de precios de los valores en un momento determinado de tiempo. Bachelier fue el primero en modelar el movimiento browniano en los mercados financieros. Usó la serie de los cambios absolutos de precios y demostró que la expectativa matemática de un especulador es cero, ya que en un momento dado hay opciones contradictorias entre compradores que creen en un cambio positivo de precios, y vendedores que esperan un cambio negativo en los mismos, lo cual es descrito como un juego justo. También concluyó que la esperanza matemática es proporcional a la raíz cuadrada del tiempo, lo que significa que, al menos de manera general, las fluctuaciones en el mercado tienden a ser mayores entre más grande sea el intervalo de tiempo en consideración. Bajo el supuesto de normalidad, Bachelier termina calculando la probabilidad de que un precio determinado sea alcanzado por primera vez en el tiempo, así como la posibilidad de alcanzar un precio establecido en un intervalo de tiempo.
El trabajo de Bachelier pasó inadvertido por muchas décadas, hasta que algunos académicos de Estados Unidos lo redescubrieron en la década de 1950. En 1959, el físico y astrónomo estadounidense M. F. M. Osborne, sin conocer la tesis de Bachelier y sin tener experiencia en los mercados financieros, publicó el artículo titulado «Movimiento browniano en el mercado accionario», en el que llegó a resultados similares a los de Bachelier. La principal diferencia es que Osborne usó los cambios porcentuales de la serie de precios mediante logaritmos naturales, y Bachelier había
usado la serie de cambios absolutos. Osborne obtiene una muestra de los precios de las acciones que cotizan en la Bolsa de Valores de Nueva York (nyse) y observa que no siguen una distribución normal, pero un histograma de estos datos le sugiere que el logaritmo natural de esta serie puede aproximarse a la campana de Gauss, lo que simplifica el probar hipótesis estadísticas ya que está definida totalmente por su media y su desviación estándar. Osborne supone que un inversionista preferirá aquella alternativa que tenga un mayor valor esperado, y llega a dos resultados principales que son similares a los que había encontrado Bachelier. Primero, en el caso del mercado accionario, el comprador tiene un valor esperado positivo del cambio relativo del precio, y el vendedor tiene uno negativo de la misma cantidad relativa. Presumiblemente, la situación inversa pasa por las mentes del comprador y del vendedor con relación al valor esperado de los cambios en el dinero. La transacción se realiza cuando los dos estimados, tanto el de los cambios en el valor del dinero como el de los precios relativos de la acción, son iguales y de signo contrario. Por lo tanto, el valor esperado de la operación (del mercado) es igual a cero. Esto es similar a lo que decía Bachelier en el sentido de que la expectativa matemática del especulador es cero.
Segundo, Osborne supone que las transacciones de una acción son hechas de manera independiente, en el sentido probabilístico, y demuestra que siguen una distribución normal con media cero y una desviación estándar (dispersión) que se incrementa con la raíz cuadrada del número de transacciones (volumen de operaciones). Si estas últimas se distribuyen de manera uniforme en el tiempo, entonces la dispersión inicial se incrementa con la raíz cuadrada del intervalo de tiempo. Esto es similar a los hallazgos de Bachelier, quien encontró que la esperanza matemática es proporcional a la raíz cuadrada del tiempo. Derivado de los trabajos de Bachelier y de Osborne se puede decir que, en la caminata al azar o movimiento browniano, el precio de una acción el día de hoy se explica en función del precio al que cerró ayer, más o menos un término de error que tiene un valor esperado de cero, una
varianza finita, y que todo el proceso es independiente e idénticamente distribuido (iid) en el tiempo. Es clave mencionar dos artículos que fueron publicados en 1963 en la misma edición y uno después del otro en el Journal of Business. En el primero de ellos el matemático Benoit Mandelbrot habla de que ya existe una gran cantidad de datos que muestran que la propuesta de Bachelier no se ajusta a la práctica. En concreto, se refiere a que las distribuciones empíricas de cambios en los precios son usualmente mucho más picudas que las derivadas de una muestra que proviene de la distribución normal. Muestra un par de histogramas de cambios en los precios que reflejan que las distribuciones empíricas tienen picos más altos que la normal, así como que sus colas son también más gruesas o pesadas. Esto último significa que los valores extremos de los cambios de precios tienen una probabilidad de ocurrencia mayor que la que establece la distribución normal. También presenta otras dos gráficas en donde las colas de la distribución empírica son extraordinariamente largas y su varianza se comporta de manera errática. Argumenta que por estas razones se requiere de un nuevo enfoque radicalmente diferente al de la distribución normal para explicar las variaciones de los precios. A diferencia de Bachelier, usa los cambios relativos de los precios diarios y mensuales del algodón y reemplaza la distribución normal por otra familia que denomina «distribuciones estables de Pareto», que fueron descritas por su profesor Paul Lévy en 1925.
Se hará una pequeña digresión para aclarar que el primero en usar una distribución con base en una ley de potencia fue Vilfredo Pareto, quien en 1897 la aplicó para explicar la desigualdad en el ingreso. Para esto utilizó una ley de potencia en donde el número de personas (y) que tienen un ingreso determinado o mayor (x) está en función del exponente α (alfa) que es de 1.5. Como Pareto fue el que estimó este exponente, tanto a la ley como a su distribución se le conoce con su apellido. Posteriormente, en la década de 1920 Paul Lévy mostró que el exponente de la distribución normal es de 2, el de la distribución Cauchy es de 1, y que α (alfa) puede tomar cualquier valor entre cero y dos para tener estabilidad.
De todas ellas, la única distribución que posee una varianza finita es la normal. Las demás distribuciones producen una varianza infinita que, sin embargo, puede ser solucionada matemáticamente de varias formas, una de las cuales fue usada por Mandelbrot (1963). El que la distribución se considere estable tiene que ver con su propiedad de invariante (que no cambia de características al transformarse) bajo la suma de las observaciones. Esto permite ir de ida o vuelta entre datos correspondientes a un día, un mes o un año. Lo único que se tiene que hacer es transformar sus parámetros como la media y la varianza ajustados por el tiempo transcurrido. En el fondo esto supone que la serie de precios es estacionaria, lo que garantiza que los parámetros obtenidos no cambian en el tiempo. También está relacionada con el teorema del límite central en donde la suma de las variables aleatorias (iid) se aproxima asintóticamente ya sea a la distribución normal o las distribuciones no gaussianas de Lévy.
Mandelbrot (1963) menciona que ésta es la primera vez que se utiliza la ley de Pareto para las dos colas de la distribución de probabilidad. Concluye que sus predicciones de usar la distribución de Pareto parecen razonables en términos generales, pero que se requiere de un modelo más refinado para explicar los cambios relativos de los precios. Esta afirmación se deriva del hecho de que sus resultados mostraron que cambios grandes tienden a ser seguidos por cambios grandes, y variaciones pequeñas son seguidas de variaciones pequeñas. Es decir, Mandelbrot mandó el mensaje de que no sólo hay que sustituir la distribución de probabilidad gaussiana, sino también que el supuesto de independencia en los cambios de precios no se cumple en la práctica. Por lo mismo propone un enfoque radicalmente diferente al de la caminata al azar o movimiento browniano.
Se hace una pausa para explicar que las distribuciones de Lévy requieren de cuatro parámetros para su análisis. Para efectos de ilustración usted puede tomar como referencia una ley de potencia en la que y = cx-α en donde c es una constante, α es un exponente con signo negativo, y tanto x como y son variables aleatorias. Para convertir esta ley de potencia en una función lineal se pasan
logaritmos a ambos lados de la ecuación, y se obtiene que el log (y) = c – α log x. Sobre esta última formulación se pueden estimar los cuatro parámetros mencionados. El primer parámetro muestra la localización del punto central (μ). El segundo puede ser considerado como una medida de dispersión (σ), y se trata de un escalar que tiene que ser positivo. El tercero proporciona datos de la simetría o sesgo de la distribución (β). Si es positivo, se dice que la distribución es asimétrica a la derecha, si es negativo, lo es hacia la izquierda, y si toma el valor de cero, es simétrica. El cuarto se refiere al exponente α (alfa) también denominado índice de colas, exponente de las colas o exponente característico, y muestra la forma de la distribución de probabilidad detallando sus colas y su pico. Entre menor sea α (alfa) es más frecuente encontrar valores extremos o colas más gruesas. Estos cuatro parámetros están relacionados con los cuatro momentos que describen en general a las distribuciones de probabilidad.
Existen dos categorías de procesos de Lévy que dependen del valor de estos parámetros de donde surgen las distribuciones estables y las que no los son (inestables). En específico, se dice que una distribución de Lévy es estable si tiene un exponente α (alfa) entre cero y dos, una dispersión mayor o igual a cero, y una simetría o sesgo entre más o menos uno. El exponente característico α determina la tasa a la cual las colas de la distribución van disminuyendo. Cuando α = 2 se obtiene la distribución normal. Cuando α < 2 la varianza es infinita. Cuando α ˃ 1 existe la media de la distribución que es igual a μ. Las distribuciones estables como la gaussiana, la Cauchy y las de Lévy se pueden analizar en función del valor de cada uno de los cuatro parámetros. Si no se cumplen estos criterios, se puede decir que la distribución de Lévy no es estable. Hasta la fecha de escribir este anexo no hay un acuerdo total entre físicos, matemáticos o economistas, de cómo se pueden estimar estos parámetros, y aunque más adelante se hablará algo de este tema, su debate continúa.
En el otro artículo, el economista financiero de la Universidad de Chicago Eugene F. Fama (1963) da su punto de vista sobre el trabajo de Mandelbrot (1963). Desde el inicio de su exposición ex-
plica que, si la hipótesis de Mandelbrot de usar una distribución estable de Pareto es confirmada, cambiaría radicalmente tanto la forma de pensar la naturaleza de los mercados especulativos como las herramientas estadísticas que son usadas para tal efecto. Se refiere en especial al tema de la varianza infinita, ya que esto puede dejar sin sentido a las medidas de dispersión y afectaría otras técnicas muy usadas para modelar y probar hipótesis como el método de regresión que supone varianzas finitas.
Fama (1963) considera, para poder comparar la bondad del ajuste entre la distribución normal y la hipótesis de Pareto, que el parámetro más importante de todos es el exponente α (alfa) que determina la altura o la probabilidad que está contenida en las colas de la distribución y que puede tomar cualquier valor entre cero y dos. Menciona que en su disertación trató de encontrar el rango en que dicho exponente α (alfa) se ubicaba para el caso de las primeras diferencias en los logaritmos de cada una de las acciones que formaban parte del índice Dow Jones. Para ello usó tres técnicas diferentes: a) las propiedades del número de partes porcentualmente iguales (cuantiles o fractiles), b) el comportamiento muestral de la varianza, y c) las gráficas con dos logaritmos. Esta última es la más conocida de todas y normalmente muestra la cola derecha de la distribución. En el eje horizontal contiene el logaritmo base 10 de las tasas de rendimiento y en el vertical el logaritmo de sus probabilidades. En todos los casos obtuvo un valor empírico de α (alfa) menor a dos. Esto es congruente con el resultado de Mandelbrot (1963) que reportó un valor estimado de alrededor de 1.7. Es decir, en ambos casos, se concluye que la hipótesis de Pareto es más consistente con los datos que la de la distribución normal.
La conclusión de Fama (1963) es que:
La hipótesis estable de Pareto de Mandelbrot ha centrado la atención en la importancia de las distribuciones estadísticas que han sido olvidadas por mucho tiempo. Se ha demostrado que las series especulativas de las prime-
ras diferencias de los logaritmos de los precios de las acciones y del algodón, parecen conformarse a estas distribuciones. El siguiente paso debe ser tanto probar la hipótesis estable de Pareto en un rango más amplio de series especulativas, como desarrollar herramientas estadísticas más adecuadas para manejar estas distribuciones. (p. 429)
Por un lado, los procesos estables de Lévy pueden representar la realidad de los cambios relativos en los precios de las acciones de mejor manera que los modelos basados en la distribución normal. Pero, por el otro, el tener cantidades infinitas en todos los momentos de la distribución con excepción del primero, crea problemas de significado e interpretación. En especial, el tema de la varianza infinita significa que no tiende a un valor límite o fijo. Esto crea problemas de aplicación a las teorías que son la base de la economía financiera. Tome el caso de la selección de portafolios de Markowitz (1952) que asocia la media a los rendimientos de las acciones y la varianza con el riesgo de cada una de ellas. Si la varianza es infinita (enorme o sin fin), el riesgo también lo será. ¿Qué significa un riesgo enorme o que no tiene fin ni término?
No es muy difícil contestar esta pregunta cuando un inversionista que adquiere una acción puede obtener una ganancia muy grande, pero no puede perder más de lo que desembolsó para su compra. Al hacer un balance de los costos y beneficios de usar las distribuciones de Lévy, los economistas de la corriente principal, incluyendo a Fama, después de algunos años, dejaron sin efecto su uso, y sólo unos cuantos investigadores continuaron con su interés en las décadas de 1970 y 1980. Algunos economistas se concentraron en buscar reforzar la distribución normal con otros modelos que toman en cuenta las anomalías, y así surgieron los trabajos de Merton (1976) que ofreció una extensión de la valuación de derivados con procesos de difusión discontinuos (con saltos), y los modelos econométricos generales que usan las
autocorrelaciones de los rendimientos condicionados a la heterocedasticidad (garch, por sus siglas en inglés). La heterocedasticidad se da cuando la varianza de las tasas de rendimiento no es constante en el tiempo de estudio.
Para cerrar esta sección se dirá que Benoit Mandelbrot continuó trabajando en el tema de los mercados accionarios, y en 1967 junto con Howard M. Taylor publicaron «Relativo a la distribución de las diferencias de precios de las acciones». En el artículo ilustran que los cambios de precios se pueden obtener ya sea mediante intervalos de tiempo (días, semanas o meses) o por medio del número de transacciones (volumen de operaciones). Una forma de comparar los dos caminos es a través de los datos del libro de los hacedores de mercado en donde se pueden obtener ambas series. Concluyen que los cambios de precios de un periodo fijo de transacciones pueden seguir una distribución normal, así como que los cambios de precios de un periodo fijo de tiempo pueden seguir una distribución simétrica estable de Lévy cuya varianza es infinita. Dejan muy claro que ambas cosas son compatibles. El método más utilizado en la práctica es el de usar periodos fijos de tiempo, debido a la dificultad de encontrar bases de datos del número y secuencia de las transacciones. Por lo mismo, la mayoría de los trabajos apoyan que los cambios de precios siguen una distribución normal.
Nuevos métodos de la física estadística
Tenía razón Fama (1963) en que era necesario, en su época, desarrollar herramientas estadísticas más adecuadas para manejar las distribuciones estables de Lévy. Fue así como en la década de 1970 a través de varios artículos el físico Kenneth G. Wilson explicó que los denominados fenómenos críticos son diferentes de otras manifestaciones físicas en el sentido de que los investigadores tienen que manejar las fluctuaciones en el sistema a través de diferentes escalas de longitud. Esto es diferente de los sistemas normales en
donde por cada fenómeno se tiene una escala de longitud determinada.
Los fenómenos críticos se refieren a aquellos sistemas físicos cuya configuración depende de la dinámica en la que dos fases o estados están por convertirse en uno. Se recuerda que, al menos en nuestro planeta, la materia se encuentra en estados o formas de agregación líquidos, sólidos o gaseosos, así como que sólo algunas sustancias como el agua pueden hallarse de modo natural en los tres estados mencionados. Por lo mismo, es muy común usar el ejemplo del recipiente de agua que en su forma líquida hierve si se calienta de manera continua en una estufa a cien grados centígrados (punto de ebullición) a nivel del mar para convertirse en gas. Cuando se está cerca de concretar esta transición de la fase líquida a la gaseosa del agua, es decir, cuando los dos estados de la materia están por convertirse en uno solo, se dice que tenemos un fenómeno crítico. En el caso del agua, así como existe un punto de ebullición también existe un punto de congelación cuando el líquido se lleva a una temperatura de cero grados centígrados y se convierte en hielo, es decir, cuando la transición de fase es de líquido a sólido. También hay una transición de fase de un estado sólido a uno líquido a través de lo que se denomina punto de fusión, por ejemplo, lo que le pasa a su nieve de limón cuando la expone a los rayos solares mientras se encuentra disfrutando de las playas de Cancún.
El lector puede comprobar en su casa que cuando pone un recipiente de agua en la estufa de su cocina y la calienta, pasa un tiempo sin movimiento alguno. Pero cuando se encuentra cerca de su punto crítico para convertirse de líquido en gas, empezará a ver muchísimas burbujas de vapor de todos los tamaños, grandes, medianas, pequeñas y diminutas. Resulta que todas estas burbujas, independientemente de su tamaño, tienen las mismas propiedades, es decir, las de gran tamaño o escala tienen las mismas propiedades que las diminutas. Por esta característica los físicos dicen que no varían con la escala (tamaño), y esta propiedad es llamada invarianza a la escala o al tamaño. Poder calcular el movimiento de todas estas burbujas de manera directa es impensable,
aun con la ayuda de las computadoras que tenemos en la actualidad. Wilson desarrolló un método para resolver este problema al dividir esta gran tarea en cuestiones más simples que sí pueden ser resueltas. Lo que hizo fue llevar a cabo una modificación esencial de un método físico denominado grupo de renormalización que fue desarrollado en la década de 1950 y aplicado con cierto éxito en el contexto de la física de partículas elementales.
La técnica del grupo de renormalización va disminuyendo el número de partes que interactúan en un sistema manteniendo la invarianza a la escala , y llegando, si es posible, a modelar una sola parte. Esto permite describir la característica macroscópica del sistema sin tener que estudiar los detalles microscópicos. El método para hacerlo da como resultado una ecuación que es producto de la suma aritmética de las partes y los grupos (bloques) elevados a una potencia (- α). Es decir, utiliza una ley de potencia para lograrlo, cuya idea se ha constituido como la herramienta principal de trabajo de los físicos y sus aplicaciones a la economía desde la década de 1990.
Wilson logró desarrollar una teoría que no sólo explica muy bien la conducta cercana a los puntos críticos en las transiciones de fase, sino que también provee de un método para su cálculo numérico, cuyos parámetros están muy cerca de lo que sucede en la realidad. Sus análisis muestran que cerca de los puntos críticos el sistema se vuelve redundante, en el sentido de que sus propiedades se repiten en todas las escalas. Concluye que los fenómenos críticos son determinados, fundamentalmente, tanto por la dimensionalidad del sistema, que puede ir de desde uno hasta tres, así como por la dimensionalidad del parámetro que ubica el proceso un poco antes del punto crítico que desarrolló el físico soviético Lev D. Landau en 1937.
Por su teoría de los fenómenos críticos en conexión con las transiciones de fase, Wilson ganaría el Premio Nobel de Física en 1982, así como Landau lo había hecho en 1962 por su teoría pionera de la materia condensada. El método de Wilson es general y ha sido aplicado a otras áreas de la física, tales como la meteorología, en donde existen flujos turbulentos de todos los tamaños
desde el más pequeño remolino de viento hasta huracanes de categoría cinco en la escala Saffir-Simpson. Los fenómenos críticos , las transiciones de fase y la independencia de la escala cerca del punto crítico están relacionadas con las leyes de potencia en donde el exponente es denominado crítico por estar relacionado con el punto crítico que puede ser estimado.
Como se detalla en la siguiente sección, los físicos, que siempre buscan leyes universales, iniciaron con la aplicación de todos estos conceptos a los mercados financieros. En especial, a los precios de mercado de las acciones cotizadas en las bolsas de valores, en donde los puntos críticos son equivalentes a los precios muy altos o bajos (valores extremos). Sin embargo, se debe hacer notar que en este caso la transición de fase puede ser abrupta, lo que la distingue del ejemplo del agua en la que la transición era suave. Así como Mandelbrot (1963) generalizó la distribución normal al usar distribución estable de Lévy, y se enfocó en explicar las colas gruesas de los cambios relativos de precios, los físicos que aplicaron los conceptos desarrollados en este apartado (econofísicos) se concentraron en los valores extremos (las colas de la distribución de probabilidad) y usaron las leyes de potencia en donde las distribuciones estables de Lévy sólo son un caso especial.
Se termina esta sección haciendo énfasis en una diferencia importante entre matemáticos y físicos en su aplicación de las leyes de potencia a los mercados accionarios. Los primeros no limitan de ninguna forma el exponente alfa (α ) o índice de colas, mientras que los segundos lo restringen a las dimensiones del espacio, por lo que toma el valor de uno en el caso de una línea, el de dos para un plano y, finalmente, puede llegar a tres en el espacio. Algunos se atreven a llegar hasta cuatro si, tal como lo hizo Einstein, agregan el tiempo como cuarta dimensión. En relación con todo lo anterior, Mandelbrot y Hudson (2006) consideran que la dimensión es relativa, varía con el observador y no tiene por qué ser un número entero, ya que puede ser fraccionaria, como primero lo demostró Mandelbrot en su geometría fractal de la naturaleza (1982) y luego lo aplicó hasta principios de este siglo a los mercados financieros.
Los físicos retoman y mejoran a Mandelbrot desde una perspectiva diferente
A principios de la década de 1990 los físicos retomaron el tema de las distribuciones de Lévy. Al igual que a los economistas y los matemáticos, no les gustaba el hecho de tener varianzas infinitas, ya que no se podían aplicar a los procesos físicos como el de la temperatura, pero al menos de manera estadística y con fines teóricos resolvieron el problema. Lograron estandarizar (normalizar) las distribuciones estables de Lévy en forma tal que la varianza se volviera finita. El método seguido fue el de cortar o truncar la distribución total y combinarla. Este proceso se conoce con el nombre de distribuciones de Lévy truncadas (truncated Lévy flights) y es el producto de la distribución original con la distribución cortada. La primera tiene una varianza infinita y la segunda no. Esto permite usar la distribución original para estudiar la parte central de los datos y la distribución truncada para analizar las colas (valores extremos). Existen diferentes formas de llevar a cabo los cortes para separar a las dos partes, pero el más simple es hacerlo de manera abrupta. Cuando usted se encuentra con observaciones en la parte central usará la distribución estable de Lévy, y cuando encuentra un valor extremo usará la distribución truncada que, al tener una varianza finita, puede ser considerada asintóticamente como una distribución normal al invocar el teorema del límite central. Sin embargo, uno de los problemas de la distribución truncada es que ya no es estable. Esto significa que su exponente alfa (α) toma un valor que es mayor a dos, lo que implica que su forma cambia ahora con los diferentes periodos de tiempo analizados. Aquí desaparece la propiedad de escalabilidad y no se podrán convertir los datos diarios en semanales o mensuales.
El físico Rosario Nunzio Mantegna (1991) es el primero en usar directa o indirectamente estos conceptos en uno de los mercados de valores de Italia. Escribió un artículo titulado «Las caminatas de Lévy y la difusión ampliada en el mercado de acciones de
Milán». El lector podrá observar que las caminatas de Lévy son cuestiones de aplicación de las matemáticas (probabilidad y estadística), la difusión es un concepto de la física que se aplica, entre otras cosas, en los movimientos de partículas, y los precios de las acciones son parte de la economía financiera. De esto último se ha hablado mucho en este libro, por lo que antes de hablar del artículo, es necesario poner en contexto los dos primeros temas.
La teoría de la difusión fue formalizada inicialmente en 1822 por Joseph Fourier para entender la difusión del calor. Derivó una ecuación diferencial parcial que gobierna este proceso usando series infinitas de funciones trigonométricas (senos y cosenos) que hoy se conocen como series de Fourier. Posteriormente, los esfuerzos de esta teoría se enfocaron en el estudio del movimiento browniano, del cual se ha hablado en este libro, y cuyo nombre se deriva del botánico Robert Brown (1827) quien, al examinar con un microscopio partículas de polen suspendidas en el agua, observó un movimiento ininterrumpido de manera nerviosa o agitada, es decir, movimientos aleatorios sin razón aparente alguna. Como se ha mencionado en este libro, este concepto fue utilizado por Bachelier (1900) para describir el precio de las opciones financieras como un proceso estocástico. Sólo se agrega que Albert Einstein (1915) mostró la solución más conocida a este proceso e indirectamente confirmó la existencia de átomos y moléculas.
Paul Lévy contribuyó a la expansión de la teoría de las probabilidades mostrando que existen una familia de distribuciones estables de las cuales la gaussiana era un caso particular. Aquí se destaca lo que hoy se conoce como vuelos de Lévy, que describen un paseo aleatorio en el cual sus incrementos son estudiados de acuerdo con una distribución de probabilidad de colas gruesas.
Benoit Mandelbrot, al haber sido alumno de Paul Lévy, fue quien denominó a este proceso vuelos de Lévy, que lleva a cabo la transición entre la parte central y las colas de una manera suave. Con este antecedente se ha desarrollado un proceso alternativo denominado caminata de Lévy en donde la transición se realiza de manera abrupta. Existe una relación entre los vuelos y las caminatas de Lévy con la teoría de la difusión. El coeficiente de difusión o de
propagación está en función directa de la dispersión o varianza del proceso, así como en relación inversa con el promedio del tiempo en cada paso de la caminata o vuelo. En algunas ocasiones la difusión es normal (gaussiana), pero en otras tiene conductas anómalas, que pueden conducir a una difusión más rápida (superdifusión) o a una más lenta (subdifusión), dependiendo de si la varianza avanza con mayor o menor rapidez que la función lineal. Con estos antecedentes se puede discutir el trabajo de Mantegna (1991) de una forma más fácil.
Mantegna (1991) obtuvo de la bolsa de Milán bases de datos para poder estudiar tanto su índice general de precios, compuesto por 279 acciones, como de quince índices sectoriales. Para el primer caso usó 3,686 datos de registros diarios entre 1975 y 1989. Para el segundo 2,445 observaciones de cada uno de los índices sectoriales entre 1980 y 1989. Al considerar el largo plazo de las series de tiempo, decidió deflactar las series usando la inflación del periodo correspondiente, de forma tal que quedaran expresadas en pesos constantes de 1975 en liras italianas. Observó visualmente, mediante gráficas, el comportamiento histórico del índice general accionario y el de sus cambios. En ambos casos detectó fácilmente una conducta intermitente reconocible en una escala anual. Para el caso de las variaciones de precios esto quiere decir que entre 1975 y 1980 existieron cambios pequeños, ya sea al alza o la baja, patrón que cambió en 1981 y 1982, en donde se notan cambios mayores, mismos que son revertidos entre 1983 y 1986, que también son revertidos entre 1987 y 1988, para terminar el periodo muestral tal como inició. Ahora entenderá el lector que Mantegna usa la palabra intermitente para designar un proceso que va de cambios bajos a cambios grandes con cierta periodicidad o de manera frecuente.
Expresa la gráfica de variaciones o cambios de precios diarios de manera matemática utilizando una transformación de Fourier. Aplica una distribución estable simétrica de Lévy, que tiene una media de cero y es caracterizada por dos parámetros que definen su exponente α (alfa) y su dispersión o difusión (σ). Compara la bondad de ajuste tanto de esta función con los datos originales
como con la que se obtendría del uso de una distribución normal. Encuentra que, en todos los casos de los índices sectoriales, el exponente siempre es menor a dos (caminata al azar gaussiana). El promedio de todos ellos es de 1.20. Adicionalmente, la difusión o dispersión de los cambios de precios toma valores en un amplio rango que va de 2.8 a 32.0 días. Para el caso del índice general, que no es otra cosa que el promedio ponderado de cada uno de los índices sectoriales, obtiene un exponente α de 1.16 y una difusión de 8.5 días. Para Mantegna el observar que el valor del exponente del índice general (1.16) es casi el mismo que el promedio de los índices sectoriales (1.20) es una muestra de la propiedad de combinaciones lineales en las distribuciones estables de Lévy. Compara todos estos resultados con el mejor ajuste derivado de usar una distribución normal, es decir, con un exponente igual a 2 y una difusión de 40 días. Cuando todos estos resultados son puestos en una gráfica del logaritmo base 10 de la distribución de probabilidad de la variación de precios en el tiempo, se demuestra que la función de Lévy describe y se ajusta mejor a la realidad, en especial en lo relacionado a los valores extremos.
Con el fin de poder explorar la dinámica del proceso, Mantegna estima no sólo las autocorrelaciones sucesivas de los precios, sino también las autocorrelaciones entre el día de hoy y el de hace dos días, el día de hoy y hace tres días, el día de hoy y el de hace cuatro y cinco días. Con esto, la muestra total original de 3,685 observaciones se divide en seis diferentes conjuntos cada uno con 614 observaciones. Usando estas muestras más pequeñas calcula nuevamente la bondad de ajuste de la distribución estable de Lévy. Sus resultados muestran que el proceso estocástico sigue un vuelo de Lévy (transición suave) o una caminata de Lévy (saltos instantáneos). Sin embargo, al considerar que los mercados accionarios establecen suspensiones temporales derivadas de los cambios extremos, así como de la existencia de tiempos de operación finitos, deduce que el modelo más probable para describir este proceso es la caminata de Lévy.
Finalmente, dado que las caminatas de Lévy normalmente exhiben una conducta súper difusiva, verifica la varianza de los ín-
dices accionarios en función a una ecuación de espacio-tiempo fraccional. Para esto divide o trunca la serie de los cambios de precios del índice general en periodos de treinta días, lo que arroja treinta nuevas muestras de 122 observaciones cada una (3,685/30 = 122). Forma dos series de tiempo de la varianza: a) una en la que las muestras son ordenadas en el tiempo de menor a mayor, y b) otra que mezcla las muestras en el tiempo. Sus resultados corroboran su hipótesis de que si se acopla la serie de cambios de los precios (que mostraba intermitencia) con su desviación estándar, existe una memoria generalizada persistente, en la que la varianza o su raíz cuadrada (la desviación estándar) crece más rápidamente que en el movimiento browniano. Con esta metodología, Mantegna logra dos cosas. Por un lado, su proceso de truncar la función de Lévy ha convertido la varianza infinita en varias cantidades finitas en el tiempo que se acoplan a la serie de cambios de los precios. Por el otro, muestra que los cambios sucesivos en los precios sí tienen una memoria larga, lo que contradice la caminata al azar gaussiana que sostiene que los cambios sucesivos en los precios no tienen memoria. En resumen, el modelo considera que las observaciones son estadísticamente dependientes y que son idénticamente distribuidas por una distribución estable de Lévy. Mantegna y Stanley (1994) muestran que la varianza infinita en los vuelos de Lévy puede ser resuelta introduciendo una variante a la de Mantegna (1991) que como se vio en párrafos anteriores requiere de la hipótesis de enlazar en el tiempo y en el espacio los datos muestrales de precios. Ellos denominan a esta nueva alternativa como el vuelo de Lévy truncado (tlf, por sus siglas en inglés) que tiene la característica de poseer una varianza finita. En este proceso estocástico, de manera arbitraria, son eliminados los valores extremos. Sus resultados muestran que la convergencia de la suma de varios vuelos independientes de Lévy truncados a un proceso gaussiano requiere de valores típicos que se aproximan a diez mil observaciones (104). Es decir, la convergencia es muy lenta, por lo que se requiere de una gran cantidad de datos para su aplicación. Esto contrasta con lo que sucede en otras distribuciones comunes que sólo requieren de un aproximado de diez va-
lores. Encuentran una transición o cruce bien definido entre los regímenes de Lévy y de Gauss que proporciona información relativa a los parámetros del proceso estocástico subyacente en cada caso particular.
La denominación de una nueva disciplina 1996-2000
Todos estos trabajos iniciados por los físicos a partir de la década de 1990 para estudiar la economía en general y la dinámica de los mercados accionarios en particular derivó en la creación de la econofísica, nueva palabra que engloba a la física y su renovado interés en las ciencias sociales, pero en especial en la economía. La primera vez que este neologismo fue utilizado en un artículo publicado en la revista Physica A en 1996. Lo escribieron Stanley et al. (1996), con un título que se traduce como «Fluctuaciones anómalas en la dinámica de los sistemas complejos: desde el adn y la fisiología, hasta la econofísica». La gran mayoría de los catorce autores que usted puede ver en las referencias bibliográficas de este anexo son físicos que trabajan en diferentes universidades del mundo o en centros de investigación. Como buenos físicos buscan la aplicación universal de leyes y funciones que explican los sistemas complejos en su principal área de estudio. Las fluctuaciones anómalas se pueden interpretar como comportamientos irregulares o extraños, o como movimientos que no son descritos adecuadamente por la distribución normal.
Stanley et al. (1996) aplican modelos de la física estadística o estadística mecánica para describir otros fenómenos diferentes a los de su campo de estudio original, como es el caso de la economía. En especial usan el modelo de Ernest Ising (1925) mejorado por Lars Onsager (1944), que describe una transición de fase (puntos críticos o puntos singulares), como es el caso del cambio de propiedades del acero a temperaturas de 770 grados centígrados. Para esto usan las leyes de potencia , que también se conocen como
Universidad de las Américas Puebla
leyes de escalamiento (escalabilidad), para explicar las correlaciones de largo plazo en las secuencias de las moléculas de adn (ácido desoxirribonucleico) que entre otras cosas son responsables de las transmisiones hereditarias, para lo cual almacenan en periodos largos la información para construir otros componentes celulares. Posteriormente, por analogía, lo usan para explicar el crecimiento de las ventas de cuatro mil empresas industriales de Estados Unidos en un periodo de veinte años. También por similitud usan una caminata al azar de Lévy de las secuencias del adn para explicar los patrones de vuelo y alimentación de los albatros. A estas analogías, muchos otros autores la denominan autosimilitud (self-similarity) estadística para distinguirla de los fractales de Mandelbrot que representan geométrica y matemáticamente autosimilitudes exactas.
Aunque este artículo no habla directamente de la aplicación de las leyes de potencia a los mercados financieros, se aprovecha este espacio para aclarar al lector la diferencia entre las leyes de potencia (y = xα) y las correspondientes a las funciones exponenciales (y = αx). En las primeras lo que varía es la base y el exponente es una constante. En las segundas, lo que cambia es el exponente. Alfa (α) es un indicador de estabilidad que tiene la propiedad de ser escalable; es decir, no cambia si las escalas de tiempo o tamaño son multiplicadas por un factor común. Todo esto es equivalente a lo que se llama invarianza estadística. Es así como los autores encontraron que, en una pequeña empresa con ventas de 10,000 dólares, de alguna forma obedece la misma ley probabilística que una empresa gigante con ventas de 100,000 millones de dólares.
Stanley et al. (1996) estudian las dependencias de largo plazo en las variaciones de ventas de las cuatro mil empresas de la muestra usando el coeficiente H, llamado así en honor del inglés Harold E. Hurst que estuvo más de sesenta años estudiando las inundaciones del río Nilo y dando recomendaciones para el diseño de la construcción de presas. Este coeficiente H está relacionado con el exponente alfa (α) de las distribuciones estables de Lévy. En este contexto, el coeficiente H es igual a la unidad dividida entre alfa (α), por lo que puede tomar valores entre cero y uno. Es así
como para el caso de la distribución normal que tiene un exponente alfa de dos, su coeficiente H es igual ½, en donde no existe memoria alguna de las series de tiempo. Cuando H toma valores entre 0.50 y la unidad existen rachas en los cambios de las ventas (o en el precio de las acciones) que persisten por un tiempo determinado, lo cual es interpretado como dependencia de la serie en consideración. Stanley et al. (1996) encontraron que el valor de H de las variaciones en las ventas de las empresas tomó un valor aproximado a 0.82, lo que muestra una memoria de largo plazo en este y otros procesos. Los exponentes como alfa (α) están asociados con puntos críticos, pero la economía no se encuentra en un punto crítico todo el tiempo, por lo que siempre hay que distinguir entre situaciones de equilibrio y puntos críticos. Dejan muy claro que, aunque estas leyes de potencia existen desde hace mucho tiempo, no se habían aplicado por falta de bases de datos grandes y de computadoras que hicieran cálculos y simulaciones estadísticas basadas en grandes datos.
En la discusión final de Stanley et al. (1996) establecen las diferencias entre los economistas y físicos desde el punto de vista de sus teorías: Los economistas frecuentemente hacen una teoría o modelo, y después lo prueban usando datos. Los físicos estadísticos, por el otro lado, pueden estudiar los datos empíricos con la esperanza de encontrar un patrón, tendencia, o ley escalable, y solo mucho después (si es que alguna vez) explican la ley escalable. De hecho, nuestro enfoque es llamado empírico por los economistas. Una segunda diferencia es que los economistas rara vez usan representaciones gráficas de los datos como nosotros lo hacemos extensivamente. (p. 317)
También resaltan la habilidad predictiva de las leyes de escala como es el caso de estimar las ventas de las empresas para el siguiente año, que se basa en los parámetros cuantitativos que caracterizan a la distribución de probabilidad en su totalidad. Sin embargo, también puntualizan que hay fenómenos, como la frecuencia de los terremotos que no se pueden predecir. Finalmente, sus resultados sugieren que al igual que un fluido cerca de su punto crítico consiste en partículas que interactúan fuertemente, la economía también está hecha de muchas firmas que interactúan entre sí:
Uno no puede decir mucho acerca de la naturaleza de las interacciones de las empresas, de la misma manera que no se puede decir mucho de las interacciones de las partículas en un sistema crítico. Sin embargo, la caracterización cuantitativa tanto de las empresas como de los sistemas críticos puede ser realizada en términos de las leyes escalables. Estas son leyes de economía en el mismo sentido que las leyes escalables de la física son leyes de física: ellas son válidas, aunque falte una base teórica completa de las empresas. (Stanley et al., 1996, p. 318)
Se aprovecha esta última cita para explicar al lector las principales diferencias entre la complejidad, detallada en el «Segundo camino», y la econofísica como la describen Stanley et al. (1996). La complejidad financiera, económica o física, va de analizar la interacción de los agentes y observa mediante simulaciones e inferencias la conducta emergente que resulta de las mismas. Usa la computadora para llevar a cabo las simulaciones y se puede decir que va de lo micro a lo macro. Es multidisciplinaria en el sentido de que intervienen investigadores sociales, físicos e informáticos. La econofísica va de lo macro a lo micro. A través de la física estadística, y en particular a través de las leyes de potencia, explica la conduc-
ta macroscópica del sistema con un razonamiento asintótico sin tener que explicar la forma en que interactúan los agentes. Usa la computadora básicamente para almacenar los datos cada vez más grandes, así como para realizar sus gráficas y para calcular los parámetros de las funciones de potencia. Es unidisciplinaria en el sentido de que sólo está hecha por físicos, aunque ellos argumentan que es multidisciplinaria porque la aplican a la economía y a otras ciencias sociales. Por el otro lado, el autor de este anexo reconoce un par de similitudes entre los dos grupos. La primera es que ambas disciplinas suponen que la mayoría de los procesos físicos, económicos y financieros son sistemas complejos. La segunda es que ambos consideran el uso de las matemáticas como algo esencial, por lo que siempre preferirán los aspectos cuantitativos sobre los cualitativos. Se trata de dos grupos con perspectivas, metodologías y modelos distintos, a pesar de lo cual se puede encontrar tanto físicos como economistas financieros que se mueven entre ambos campos.
Stanley et al. (1996) dieron la pauta para que una gran cantidad de investigaciones florecieran en la aplicación de enfoques no gaussianos al estudio de los mercados financieros. Se destacan aquí dos trabajos que cinco físicos de Boston University y Boston College realizaron en 1999, basados en muestras gigantescas, nunca vistas en el medio financiero.
Gopikrishnan et al. (1999) estudian la distribución de los cambios en el índice accionario S&P 500 a través de distintas escalas o intervalos de tiempo. Usan tres bases de datos diferentes. La primera contiene aproximadamente 1.2 millones de datos con intervalos de un minuto o menos para el periodo 1984-1996 (trece años). La segunda se compone de 8,686 observaciones diarias para un periodo de 35 años (1962-1996). La tercera posee 852 datos mensuales que abarcan un periodo de 71 años (1926-1996). Calculan las distribuciones de probabilidad de los rendimientos del índice en intervalos de tiempo que van desde un minuto a un poco más de un mes (10,000 minutos). Un día de negociaciones equivale a 390 minutos. Con el objeto de saber si los rendimientos convergen a una distribución normal de manera asintótica o si
retienen la forma funcional de una ley de potencia en periodos largos de tiempo (escalas mayores) llevan a cabo los análisis visuales de las series. Encuentran que la distribución de los rendimientos del S&P 500 retienen su forma funcional de una ley de potencia hasta en aproximadamente cuatro días (1,560 minutos). Después de estos cuatro días los rendimientos ya no retienen esta propiedad lo que muestra que son compatibles con una convergencia lenta a la distribución normal. En otras palabras, encuentran que las distribuciones menores o iguales a cuatro días son consistentes con una ley de potencia asintótica caracterizada con un exponente α (alfa) que toma un valor aproximado a tres. Este valor de tres se encuentra fuera del rango de las distribuciones estables de Lévy que toman valores entre cero y dos.
Con el objeto de probar la robustez de esta prueba, Gopikrishnan et al. (1999) usaron bases de datos del índice Nikkei (Japón) y del índice Hang-Seng (China) que corroboraron dichos resultados. En resumen, sus evidencias, que parecen ser de aplicación universal, muestran que la naturaleza asintótica de las distribuciones de los rendimientos de los índices accionarios es representada por una ley de potencia con un exponente α (alfa) fuera del régimen de Lévy. Finalizan argumentando que la conducta escalable observada en la distribución de los rendimientos puede estar relacionada con la lenta caída de la función de autocorrelación.
Plerou et al. (1999) realizan un estudio similar que no se concentra en índices accionarios sino en mil acciones individuales del nyse, del nasdaq y del American Stock Exchange (ase), lo cual hace una base aproximada de 40 millones de datos. Su intervalo de análisis va de cinco minutos a cuatro años. Encuentran que para un periodo que va de minutos hasta 16 días, las colas de la distribución de probabilidad pueden ser muy bien descritas por una ley de potencia que decae con un exponente α (alfa) cercano a tres. Para un periodo mayor a 16 días sus resultados son consistentes con una lenta convergencia a la distribución normal.
El lector seguramente se encuentra confundido con los resultados de Gopikrishnan et al. (1999) y Plerou et al. (1999) que muestran un exponente α (alfa) cercano a tres, representativo de una
ley de potencia no estable, y lo estimado por Mantegna (1991) en el que el valor del exponente α (alfa) es de 1.16, es decir, dentro del rango de las distribuciones estables de Lévy. La diferencia evidente es que los estudios de 1999 usan muestras gigantescas que superan el millón de datos, lo que sólo se puede encontrar recientemente con las negociaciones de alta frecuencia y su registro en microsegundos, y el estudio de 1991 que usó una base de datos diarios con 3,686 observaciones. Sin embargo, se dirá algo más en la siguiente sección de este anexo. La idea es continuar hablando del tema de la econofísica de manera cronológica, por lo que se destaca que en el año 2000 Rosario N. Mantegna y H. Eugene Stanley publican el primer libro de texto en la materia, al cual titularon Una introducción a la econofísica: correlaciones y complejidad en las finanzas. En los dos primeros renglones del prefacio se puede encontrar una magnífica forma de definir la econofísica como «el modelaje de sistemas complejos usando herramientas y metodologías desarrollados en la estadística mecánica y la física teórica» (p. viii).
Los autores dejan claro que su libro fue escrito pensando tanto en físicos como en economistas. Consideran que:
Los físicos encontrarán los conceptos de aplicación de la física estadística a los sistemas económicos como algo interesante y desafiante, ya que estos últimos se encuentran entre los sistemas complejos más intrigantes y fascinantes que pueden ser investigados. Los economistas y los trabajadores del mundo financiero encontrarán de gran utilidad la presentación de los métodos de análisis empírico, así como herramientas teóricas bien formuladas que pueden ayudar a describir sistemas compuestos de un enorme número de subsistemas que interactúan. (Mantegna y Stanley, 2000, p. iii)
La buena noticia para el lector es que el libro explica con detalle los conceptos de la dinámica estocástica relacionados con las leyes de potencia, las correlaciones, la autosimilitud, los puntos críticos, la escalabilidad y muchos otros. La mala noticia es que está enfocado básicamente a estudiantes de maestría o aquellas personas que estén altamente familiarizadas con la teoría de la probabilidad y las matemáticas.
El nuevo siglo con una nueva comunidad científica de físicos
Entre 1991 y 1996, las investigaciones relacionadas con la econofísica eran escasas y aisladas. En este anexo se han descrito brevemente los trabajos de Mantegna (1991), Mantegna y Stanley (1994), así como Stanley et al. (1996). Desde 1997 hasta la fecha los artículos de econofísica han crecido de manera sistemática. En un principio eran publicados sólo en las revistas de física tradicionales destacando el caso de Physica A, pero con el tiempo los econofísicos han creado sus propias revistas entre las que destacan European Physical Journal B desde 1998, International Journal of Theoretical and Applied Finance publicada desde 1998 y Quantitative Finance creada en 2001. Esto se debe a que no han podido publicar sus trabajos en las revistas de la corriente dominante de la economía, salvo con algunas excepciones de la revista Econometrica. A todo esto, se agrega lo ya mencionado en el capítulo único en el sentido de que ya existen cursos y posgrados en diferentes universidades del mundo, así como el reconocimiento oficial de la econofísica como una subdisciplina de la física. La suma de todo esto da como resultado el surgimiento de una nueva comunidad que sigue creciendo, aunque no es aceptada por la corriente dominante de la economía financiera.
Los economistas financieros se han puesto a la defensiva con el avance de la econofísica. Tradicionalmente han usado para su conveniencia los avances de otras disciplinas, como el trabajo del
matemático Bachelier (1900) y del físico Osborne (1969). También dan la bienvenida a otras disciplinas como la psicología y la sociología cuando proponen cambios a sus modelos que pueden ser implementados de manera relativamente fácil, sin alterar sus teorías fundacionales. Se destaca el caso del psicólogo Daniel Kahneman quien tuvo que convencer al economista Richard Thaler para que sus ideas fueran aceptadas por la corriente dominante. Lo que no aceptan es la intervención de otros investigadores que no los toman en cuenta y proponen ignorar sus modelos fundamentales como es el caso de los econofísicos. Por lo mismo, se han puesto a la defensiva y algunos han reaccionado de manera rápida.
El economista de la Universidad Brandeis, Blake LeBaron, con una amplia experiencia en modelación basada en los agentes (abm) de los mercados accionarios, fue uno de los primeros en dar la cara. En 2001 escribió un artículo en la revista Quantitative Finance con el título de «Volatilidad estocástica como un simple generador de leyes de potencia y memorias largas». Antes de hablar del contenido del mismo, los economistas deben reconocer que los econofísicos sí los dejan publicar en sus revistas, aunque como ya se mencionó, no sucede al revés. LeBaron (2001) argumenta que las pruebas visuales de los econofísicos, plasmadas en una gráfica logarítmica lineal de dos dimensiones, no es una prueba definitiva ya que también puede ser el resultado de muestras pequeñas con modelos muy sencillos, que no tienen las propiedades asintóticas de las grandes muestras de datos que usan los econofísicos. Sus resultados no contradicen directamente el uso de las leyes de potencia, pero sugieren que los modelos de los físicos deben ser tomados con cautela y no son concluyentes, ya que existen muchas más explicaciones que las que están relacionadas con los puntos críticos. En el fondo lo que sugiere es que se requiere de más investigaciones para entender los procesos subyacentes. Así como se reconoció que los econofísicos son abiertos para las publicaciones de los economistas, hay que reconocer que algunos economistas como LeBaron son muy finos y elegantes para expresar sus diferencias con los físicos.
Universidad de las Américas Puebla
El economista polaco Rafal Weron publicó en 2001 un artículo titulado «Una revisión de las distribuciones estables de Lévy: Un índice de cola mayor a dos no excluye el régimen estable de Lévy», en donde trató de poner orden en las múltiples parametrizaciones (representaciones) de las distribuciones estables de Lévy. En particular, ayudó a resolver las diferencias entre los resultados de Mantegna (1991) con los de Gopikrishnan et al. (1999) y Plerou et al. (1999). Reitera que el modelo más sencillo y directo para estimar el índice de cola (exponente α) es el de trazar la extremidad derecha de la función de distribución empírica acumulada en una gráfica logarítmica de dos dimensiones. La pendiente de la regresión lineal (log y = c – α log x + e) produce un estimado del índice de cola α (alfa). Comprueba que este método es altamente sensible al tamaño de la muestra y a la selección del número de observaciones usadas en la regresión. Para ello simula una función estable simétrica de Lévy (β = μ = 0 y σ = 1) con muestras que contienen observaciones de 104 (10,000 datos) para un exponente α de 1.8. Esta simulación de α es equivalente a un valor de la pendiente de la regresión lineal de 2.89. Concluyó que el valor reportado del exponente α cercano a tres puede indicar una distribución estable de Lévy con una α aproximada de 1.8. Demuestra que la regresión lineal logarítmica puede resultar en exponentes que se encuentran por arriba del límite asintótico de α que se acerca a dos, resultando en una sobrestimación del exponente en muestras finitas.
Hace referencia a los trabajos de Gopikrishnan et al. (1999) y Plerou et al. (1999). Para este último, menciona que los rangos de las acciones de empresas individuales de α van de 1.5 a 5.5, pero considera que la base de datos no es homogénea ya que las mil empresas están correlacionadas y esto puede ocultar la verdadera naturaleza de los rendimientos de sus acciones. Gopikrishnan et al. (1999) sí contiene una base de datos homogénea, pero considera que los autores, a pesar de estimar un exponente α = 2.95 para valores extremos positivos y otra α = 2.75 para la cola izquierda (valores extremos negativos), no justificaron completamente el rechazo de una distribución estable de Lévy. Lo anterior se deriva
de que la distribución acumulada empírica que muestran se curva hacia arriba para valores extremos, lo que sugiere que las observaciones muy grandes o pequeñas pueden ser descritas con una ley de potencia que tenga un exponente menor.
Weron (2001) termina diciendo que todo lo anterior no demuestra que los rendimientos de las acciones u otros instrumentos financieros sigan una distribución estable de Lévy, pero que de ninguna forma habría que descartar una distribución no-estable y de colas pesadas con una ley de potencia con colas que tengan un exponente mayor de dos. Al final del día, su mensaje consistió en advertir que el solo hecho de obtener un exponente mayor a dos no excluye a las distribuciones estables de Lévy. Lo curioso de todo esto es que un economista le trate de corregir la tarea a los econofísicos, pidiéndoles que hagan mejor su trabajo y no confundan más al lector.
Con base en las investigaciones anteriores, el autor de este anexo concluye que en términos generales una ley de potencia con un exponente cercano a tres describe muy bien el comportamiento de las diferencias relativas de precios en periodos de tiempo que van desde un minuto hasta cuatro días (para el caso de índices de acciones) o 16 días para el caso de acciones individuales. En el otro extremo, cuando los datos son mensuales y se analizan por periodos largos (varios años) es probablemente mejor una distribución normal para describir el comportamiento de las tasas de rendimiento. Pero, para tener la película completa es necesario mencionar qué sucede cuando el horizonte de tiempo es menor a un segundo, máxime ahora que la gran mayoría de las operaciones bursátiles se han vuelto electrónicas y se ha pasado de tener información que va desde los decisegundos (una décima de segundo o 10-1) seguida por los milisegundos (una milésima fracción de un segundo o 10-3) y llegando hasta los nanosegundos (una milmillonésima parte de un segundo o 10-9). Además, un segundo parece ser el límite biológico para que los seres humanos podamos reaccionar o responder a estímulos detectados previamente por nuestros sentidos. El ejemplo típico usado en una gran cantidad de estudios es el de un conductor que maneja su auto en
una carretera o autopista, y ve un perro a punto de cruzarse en su camino. Podrá detectar este hecho en aproximadamente 80 milisegundos (Eagleman, 2010), pero tardará cuando menos un segundo en pisar los frenos del auto para tratar de evitar un accidente.
Johnson, Zhao, Hunsader, et al. (2013) publicaron un artículo con el largo título de «Aumento abrupto en la ecología de las nuevas máquinas que van más allá del tiempo de respuesta humano». Eric Hunsader, uno de sus autores, fundó en el 2000 la empresa Nanex con base en Chicago que, hasta la fecha, ofrece datos de los mercados accionarios, mediante los cuales se pueden analizar hasta un millón de operaciones por segundo, ya sea en tiempo real o con archivos electrónicos almacenados. No se necesita advertir al lector que el acceso a estas bases tiene un alto precio económico, de tal manera que un inversionista de menudeo o un profesor universitario no tendrían la posibilidad de solventarlo. El artículo utiliza una base de datos que va de 2006 a 2011 para explorar eventos extremos ultra rápidos (eeur). Dentro de éstos se incluyen tanto picos (burbujas) como desplomes (crashes) de los precios de acciones. Definen los primeros como aquellos que suben cuando menos diez veces consecutivas y los segundos se refieren a los que bajan cuando menos diez veces consecutivas. En ambos casos se limita a aquellos cambios de precios que exceden el 0.8% del precio inicial, es decir, se considera que deben sobrepasar un cambio de 0.008. También se limita el tiempo en que este proceso se completa, y que no puede superar un segundo y medio (1500 milisegundos). La base de datos incluye acciones de las bolsas que usan el software de Nanex con volúmenes de operación de milisegundos.
Johnson, Zhao, Hunsader, et al. (2013) encontraron 18,520 eeur, lo que significa que a esta escala los eventos extremos positivos o negativos son mucho más frecuentes que los resultados obtenidos con series de tiempo con datos de minutos, días o semanas. Probablemente el resultado principal se refiere al hecho de que estos eeur no pueden ser descritos por una ley de potencia, lo cual es una señal de que existe una transición de fase cuando
se analizan las tasas de rendimiento de las acciones con transacciones o volúmenes en un horizonte de tiempo menor a un segundo. Los autores dejan a los datos hablar y descartan el uso de leyes de potencia para su modelación. Tampoco especifican cómo modelar estas operaciones de milisegundos. Para el autor de este anexo, esto es irrelevante ya que en cualquier caso no existe tiempo para que los negociadores puedan reaccionar. Esto completa la película cuando se trata de analizar los cambios relativos en los precios de las acciones en todo el espectro. El resumen general de la película muestra una primera transición de fase de negociaciones electrónicas menores a un segundo a transacciones hechas entre personas y máquinas en periodos que van de minutos a semanas. Una segunda transición de fase se da cuando se va de los minutos y las semanas, a los meses y los años. En todo este proceso tienen cabida las leyes de potencia, las distribuciones estables de Lévy y la distribución normal. Cada investigador o inversionista deberá ser muy cuidadoso en el horizonte de estudio o inversión. El físico francés Didier Sornette, que se mueve entre la complejidad financiera y la econofísica, publicó en 2003 el libro Por qué se desploman los mercados accionarios: eventos críticos en sistemas financieros complejos. Lo volvió a publicar con un nuevo prefacio en 2016 explicando que la crisis financiera de 2008 ha reiterado que los valores extremos y las crisis no obedecen al mismo mecanismo que afecta al resto de la distribución de eventos, y requieren de procesos de amplificación de manera intermitente. En una primera parte da a conocer los antecedentes que son necesarios para entender los grandes colapsos financieros que han ocurrido a nivel mundial. En la segunda parte, utiliza esta información para diseñar modelos con el objeto de predecir dichos eventos. Una cosa interesante se refiere al hecho de que no sólo se concentra en los desplomes de economías avanzadas, sino también incluye a las economías emergentes. Es así como analiza dos desplomes del índice accionario de México. El primero en 1994 con una caída del 32% y el segundo en 1997 con un desplome del 21%. Para diseñar su modelo estima el equivalente al exponente característico α para cada evento y reporta un valor de 3.9 en 1994 y otro de 2.8 en
1997. Al analizar los coeficientes de países como Brasil, Argentina, Chile y Perú, se observó que en pocas ocasiones los exponentes son menores de dos (Sornette, 2003, p. 297).
Esto parece indicar que el coeficiente cercano a tres es una característica de todos los mercados del mundo y muchos ya hablan de la ley de potencia al cubo (cúbica) para explicar el comportamiento de los mercados accionarios. El comentario final del libro de Sornette se refiere a las seis predicciones que realizó con sus modelos, en donde reporta tres éxitos (agosto de 1998 en Estados Unidos, 1999 en el índice japonés Nikkei y abril de 2000 en el nasdaq ), dos fracasos (diciembre de 1997 en Estados Unidos y octubre de 1999 en el nasdaq ) y un éxito o fracaso a medias (octubre de 1997 en Estados Unidos) (p. 338). Los cálculos muestran un porcentaje de acierto del 58% en sus predicciones. A usted le corresponde evaluar si este porcentaje justifica el trabajo de los físicos en los mercados financieros.
¿Es la economía la siguiente ciencia física?
El título de este espacio es tomado del artículo que J. Doyne Farmer y Eric Smith (físicos del Instituto de Santa Fe), junto con Martin Shubik (economista de la Universidad de Yale) escribieron en 2005. Reconocen que predecir el futuro de la econofísica es muy difícil y depende de muchos factores relacionados con la conducta humana, así como de accidentes de la historia. Sin embargo, los resultados de la econofísica han demostrado regularidades empíricas que sugieren que, al menos parcialmente, se puede decir algo para tratar de saber si la economía será la siguiente ciencia física. Reconocen que los mercados son esencialmente fenómenos económicos y sociales, pero también que los fundamentos o ideas para su cálculo o comunicación pueden ser parte del mundo físico. Los economistas han tratado de usar los conceptos de maximización y eficiencia para explicar los mercados, pero no han podido formalizarlos adecuadamente. Por lo mismo:
Tal y como la mayor parte de las nuevas áreas de la investigación física, esperamos que los últimos objetivos de la economía física sean declarados en retrospección (a posteriori), derivada de éxitos en la identificación, medición, modelación y en algunos casos, predicción, de las regularidades empíricas. (Farmer, Smith y Shubik, 2005, p. 37)
Es importante aclarar que Farmer, Smith y Shubik (2005), al igual que otros investigadores que se mueven entre la econofísica y la complejidad económica, incluyen estos dos conceptos en un mismo paquete. De acuerdo con estos autores, la econofísica es actualmente un esfuerzo académico y la mayoría de sus integrantes trabajan en la academia, a pesar de que en el pasado muchos de ellos fueron atraídos por los mercados financieros de Wall Street. Los profesores actuales son físicos que han redireccionado sus intereses de otras áreas y de estudiantes audaces que les gusta el tema. Para saber de los físicos que fueron atraídos por las casas de bolsa y los fondos de inversión en los mercados financieros se recomienda el libro La física de Wall Street de James Owen Weatherall publicado en 2013.
Farmer, Smith y Shubik (2005) consideran que en el futuro la econofísica seguirá contribuyendo a la economía en temas que van desde la macroeconomía hasta la microestructura de los mercados. Un área de oportunidad que, en el primer caso, pudiera ser la construcción de índices económicos; para el segundo, destaca el diseño de mercados y la regulación. Hay algunos modelos físicos que se pueden aplicar para explorar cómo los cambios de reglas en las negociaciones de los mercados accionarios pueden crear incentivos para modificar conductas que podrían disminuir la volatilidad de los precios de mercado. También la estadística mecánica puede ayudar a disminuir los costos de operación y hacer más eficiente la operación de los especialistas o hacedores del mercado.
Los ejemplos que se han mencionado en este anexo en donde físicos y economistas cooperan y trabajan de manera conjunta para explicar mejor los datos con leyes de potencia y entender las causas de las relaciones económicas representan una minoría. Un caso aparte se refiere a la cooperación entre Franck Jovanovic y Christophe Schinckus, dos economistas financieros franceses que en 2017 publicaron el libro Econofísica y economía financiera: Un diálogo emergente. No sólo explican la historia de cada una de las disciplinas, sino que tratan de identificar las causas por las cuales no se ha establecido una cooperación eficaz entre los dos grupos de investigadores. Destacan que no hay un lenguaje común, que usan procedimientos diferentes para generar conocimiento, así como el hecho de que no existen pruebas estadísticas para poder validar las leyes de potencia.
Así como Peter L. Bernstein (1992 y 2007) y William Goetzmann (2016) son considerados como los principales historiadores de la economía financiera, Jovanovic y Schinckus se están convirtiendo en los historiadores tanto de la econofísica como de las finanzas. Schinckus ha continuado en esta línea y en 2018 obtuvo un doctorado adicional en historia y filosofía de la ciencia en la Universidad de Cambridge con su disertación que tituló «Cuando la física se volvió indisciplinada: Un ensayo sobre econofísica», en donde realiza un análisis más detallado del contenido del libro Jovanovic y Schinckus (2017). Es probable que con el tiempo Schinckus se convierta en el historiador de la econofísica, con lo cual parece raro que un economista financiero, aún con el doctorado en historia, se convierta en historiador de una disciplina de la que no forma parte. Esto pudiera ser considerado como una invasión por parte de los econofísicos.
Hablando de invasiones, se mencionó en el capítulo único que la mayoría de los economistas consideran que los físicos están invadiendo su territorio sin invitación alguna. A este respecto, parece ser que a los economistas se les olvida que ellos también trataron de invadir a la sociología y a la política, en donde sobresalieron los trabajos de Gary Becker (premio Nobel de economía en 1992). Los físicos, por su parte, se han sentido ofendidos por-
que sus trabajos no han sido aceptados por las revistas económicas dominantes, pero se han logrado independizar. A pesar de que han existido algunos intentos de juntarlos para cooperar, parecen existir fuertes resistencias que hacen pensar que, al menos en los próximos años, cada uno seguirá su propio camino. Para los que no son economistas financieros, estas diferencias no son relevantes. Muchos opinan que, si ya existían geofísicos, astrofísicos y biofísicos, no debería de ser un problema tener econofísicos.
Por muchos años se ha dicho que la economía tiene envidia de la física. Sin embargo, hay que agregar que los investigadores sociales han acusado a los economistas por su soberbia, derivada en parte por el uso de las matemáticas y la física. La envidia como la soberbia son consideradas por la Iglesia católica como parte de los siete pecados capitales, para los cuales existen sus correspondientes virtudes, que en este caso serían la caridad y la humildad. Esto se ha combinado con el hecho de que los físicos, en general, y los econofísicos, en particular, parecen ser más soberbios o arrogantes que los economistas financieros. Como lo expresaron Farmer y Lux (2008), un físico y un economista, que siempre han tratado de que la econofísica se vuelva multidisciplinaria mediante la cooperación de ambas comunidades de científicos, «tal vez los físicos sean el único grupo de científicos profesionales que son aún más arrogantes que los economistas, y en muchos casos la arrogancia y las emociones de ambos lados han sido exhibidas» (p. 3). El autor de este anexo termina ofreciendo disculpas a las y los miles de economistas financieros y decenas de econofísicos que son humildes y caritativos, que no forman parte de los grupos mencionados en el párrafo anterior.
Bachelier, L. (1900). Theory of speculation. En Cootner, P. H. (ed), The random character of stock market prices. Risk Classics Library (1964).
Bernstein, P. L. (1992). Capital ideas: The improbable origins of modern Wall Street. The Free Press.
Bernstein, P. L. (2007). Capital ideas evolving. Wiley.
Blake, L. (2001). Stochastic volatility as a simple generator of power laws and long memory. Quantitative Finance, 1(6), 621-631.
Eagleman, D. M. (2010). How does the timing of neural signals map onto the timing of perception? En Romi, N. (ed), Space and time in perception and action. Cambridge University Press.
Eugene, S. H., Afanasyev, V., Nunes-Amaral, L. A., Goldberger, B. S., Leschhorn, H. S., Mass, P., Mantegna, R. N., Chung, P., Prince, P., Salinger, A. y Viswanathan, K. (1996). Anomalous fluctuations in the dynamics of complex systems: fom dna and physiology to econophysics. Physica A., 224(1), 302-321.
Fama, E. F. (1963). Mandelbrot and the stable Paretian hypothesis. Journal of Business, 36(4), 420-429.
Farmer, J. D., Smith, E. y Shubik, M. (2005). Is economics the next physical science? Physics Today, 58(9), 37-42.
Farmer, J. D., y Lux, T. (2008). Introduction to special issue Applications of Statistical Physics in Economics and Finance. Journal of Economic Dynamics and Control, 32(1), 1-6.
Goetzmann, W. (2016). Money changes everything: How finance made civilization possible. Princeton University Press.
Gopikrishnan, P., Plerou, V., Nunes-Amaral, L. A., Meyer, M. y Stanley, H. E. (1999). Scaling of the distribution of fluctuations of financial market indices. Physical Review E., 60(5), 5305-16.
Johnson, N., Zhao, G., Hunsader, E. et al. (2013). Abrupt rise of new machine ecology beyond human response time. Scientific Reports, (3), 2627.
Jovanovic, F. y Schinckus, C. (2017). Econophysics and financial economics: An emerging dialogue. Oxford University Press.
Mandelbrot, B. (1963). The variation of certain speculative prices. Journal of Business, 36(4), 394-419.
Mandelbrot, B. (1982). The fractal geometry of nature. Nueva York: W. H. Freeman & Co.
Mandelbrot, B. y Taylor, H. M. (1967). On the distribution of stock price differences. Operations Research, 15(6), 1057-1062.
Mandelbrot, B. y Hudson, R. L. (2006). Fractales y finanzas. Colección Metatemas 93. TusQuets editores.
Mantegna-Rosario N. (1991). Lévy walks and enhanced diffusion in Milan stock exchange. Physica A, 179, 232-242.
Mantegna-Rosario N. y Stanley, H. E. (1994). Stochastic process with ultraslow convergence to a Gaussian: The truncated Lévy flight. Physical Review Letters, 73(22), 2946-2949.
Mantegna, R. N. y Eugene, S. H. (2000). An introduction to econophysics: Correlations and complexity in finance Cambridge University Press.
Markowitz, H. M. (1952). Portfolio selection. The Journal of Finance, vii(1), 77-91.
Merton, R. C. (1976). Option pricing when underlying stock returns are discontinuous. Journal of Financial Economics, 3, (1-2), 125-144.
Osborne, M. F. M. (1959). Brownian motion in the stock market. Operations Research, (7), 145-173.
Plerou, V., Gopikrishnan, P., Nunes-Amaral, L. A. Meyer, M. y Stanley, E. (1999). Scaling of the distribution of price fluctuations of individual companies. Physical Review E. 60(6), 6519-29.
Schinckus, C. C. (2018). When physics became undisciplined: An essay on econophysic (dissertation submitted for the degree of Doctor of Philosophy in History and Philosophy of Science). University of Cambridge.
Sornette, D. (2003). Why stock markets crash: Critical events in complex financial systems. Princeton University Press.
Weather, J. O. (2013). The physics of Wall Street: A brief history of predicting the unpredictable. hmb Publishing Company.
Weron, R. (2001). Levy-stable distributions revisited: Tail index > 2 does not exclude the Levy-stable regime. International Journal of Modern Physics C., 12(2), 209-223.
Universidad de las Américas Puebla
Cuarto camino
Los prácticos y las instituciones
En términos generales, se puede decir que los economistas financieros elaboran sus modelos con base en matemáticas puras y los prueban recabando datos y realizando pruebas estadísticas. En el caso de los economistas conductuales, basan sus teorías en la psicología, sociología o biología, y las prueban con respuestas a entrevistas, con experimentos o con las imágenes derivadas de las resonancias magnéticas funcionales. Pero no todos los economistas pertenecen a estos dos grupos. Existe otro grupo más pequeño que fundamenta sus modelos y explicaciones con base en la denominada nueva economía institucional que ha vuelto a tomar fuerza desde principios de la década de 1990 con los trabajos de Douglass C. North. Este economista estadounidense inicia su artículo denominado «Instituciones», publicado en el Journal of Economic Perspectives en 1991, de la siguiente forma:
Las instituciones son restricciones diseñadas por los hombres que estructuran sus interacciones políticas, económicas y sociales. Éstas incluyen límites informales (como sanciones, tabús, costumbres, tradiciones y códigos de conducta) y reglas formales (como constituciones, leyes
y derechos de propiedad). A través de la historia, las instituciones han sido diseñadas por los seres humanos para crear orden y reducir la incertidumbre en sus intercambios. Definen, junto con las restricciones estándares de la economía, el conjunto de opciones y, por ende, determinan los costos de transacción y producción que fijan la rentabilidad y factibilidad de participar en la actividad económica. Evolucionan incrementalmente, conectando el pasado con el presente y el futuro; como consecuencia, la historia es fundamentalmente una narración de la evolución institucional, en donde la actuación de las economías puede ser solo entendida como una secuencia histórica. (p. 97)
Douglass C. North junto con Robert W. Fogel ganaron el premio del Banco de Suecia para las ciencias económicas en memoria de Alfred Nobel de 1993. Lo obtuvieron por haber renovado la investigación en la historia económica, para explicar el cambio económico e institucional. En la fecha del reconocimiento, North estaba adscrito a la Universidad de Washington en St. Louis, y Fogel estaba afiliado a la Universidad de Chicago (el lector podrá notar que hasta en este grupo existe una influencia directa de la Universidad de Chicago).
North, en su conferencia Nobel, estableció la diferencia entre las instituciones y las organizaciones, al afirmar que las primeras se refieren a las reglas del juego y las segundas a los jugadores. Reiteró que la combinación de reglas formales con normas informales es lo que determina la actuación económica, pero enfatizó que también es de vital importancia la aplicación u observancia de éstas. Todo este contexto se puede utilizar para definir las reglas del juego (instituciones), los jugadores (organizaciones) y los encargados de hacer cumplir las reglas de las finanzas en general y de los mercados accionarios en particular (reguladores y supervisores).
Las leyes y sus aplicaciones
En el «Segundo camino» se habló de estos temas para el caso de México, en donde las reglas del juego se derivan en primera instancia de la Ley del Mercado de Valores y se continúa con los reglamentos operativos de las dos bolsas de valores, complementado con las políticas que siguen las 35 casas de bolsa que cumplen su papel de intermediación. En relación con los jugadores se habló de los diferentes tipos de inversionistas, así como de las empresas emisoras y se describió que el mercado local de acciones de México estaba compuesto por series de 142 acciones emitidas por diferentes empresas y 947,850 inversionistas dispuestos a negociar con ellas. Arriba de todo esto existen muchas otras disposiciones que son englobadas en leyes comerciales que definen la apertura, el funcionamiento y la quiebra de las empresas. Esto último es englobado en el derecho bursátil, financiero y comercial que necesita también ser estudiado en el contexto internacional.
La Porta et al. (1998) comparan las reglas legales, su origen y aplicación, que protegen tanto a los accionistas como a los acreedores de las empresas, en 49 países. Ya sea que estas reglas hayan sido impuestas por colonizadores, adoptadas de manera libre o desarrolladas por cada uno de los países, y aunque han sufrido modificaciones pertenecen, en su origen, a alguna de las grandes familias de leyes. Los autores reconocen que no existe una clasificación única de dichas familias, pero dividen a las leyes comerciales como provenientes ya sea de las leyes civiles (derivadas de la ley romana) y la ley común (de origen inglés). Para el primer caso consideran tres vertientes modernas constituidas por las tradiciones francesa, germánica y escandinava. Es así como su muestra está formada por 21 países de tradición francesa, 18 de leyes comunes, seis de código germánico y cuatro de tradición nórdica. La selección contiene países de América, Europa, África, Asia, incluye a Australia, y se enfoca en las empresas que cotizan sus acciones en las bolsas de valores de cada uno de los países. No se incluye
en el estudio a ningún país socialista o en transición, por lo que deja fuera a Rusia y sólo incluye Hong Kong de China.
Los economistas que escribieron el artículo «Ley y finanzas» en 1998 son originarios de diversos países. La Porta es argentino, López de Silanes es mexicano, Shleifer es ruso de origen, y Vishny es estadounidense. Su enfoque es diferente al considerar los instrumentos financieros (valores) no desde el punto de vista de los flujos de efectivo que generan, sino a través de los derechos que les otorgan a sus propietarios. Es así como las acciones dan a sus tenedores el derecho de votar por los directores de las empresas, y las deudas (pasivos) dan a sus poseedores el derecho de usar el colateral cuando las empresas no realizan los pagos de intereses prometidos. Estos derechos dependen de las disposiciones legales de los países en donde son emitidas las acciones y los pasivos (deudas). Adicionalmente, la aplicación de estas disposiciones en la práctica es también un factor importante en la consideración de los derechos de los inversionistas.
La Porta et al. (1998) reúnen datos, los tabulan, crean índices, usan regresiones múltiples para explicar relaciones causales y llevan a cabo pruebas estadísticas. En términos generales, sus resultados muestran que los países que usan las leyes comunes, derivadas de la jurisprudencia de los jueces, son los que más protegen los derechos de los inversionistas, así como que las legislaciones civiles de tradición francesa, que usan leyes aprobadas por los congresos, ofrecen la peor protección de los derechos de los inversionistas. Los países que están clasificados en las otras dos categorías (germánica y escandinava) se encuentran entre los dos extremos mencionados. Este anexo destaca que existen economistas que toman como base las instituciones para explicar la realidad financiera, pero no sólo se basan en la historia, en el marco jurídico y práctico, sino que también utilizan las herramientas de la estadística en la medida que lo permitan los campos de estudio.
Los derechos de los accionistas son explicados con base en nueve factores que se detallan a continuación: a) una acción, un voto; b) posibilidad de enviar el voto por correo; c) depósito de las
acciones antes de las asambleas; d) votos acumulados dependiendo de la participación o representación proporcional; e) mecanismos de opresión de las minorías; f) derechos preferentes para la compra de nuevas emisiones de acciones; g) porcentaje del capital que es necesario para convocar una asamblea extraordinaria de accionistas; h) índice de derechos antidirector, e i) dividendos obligatorios.
México está incluido en la familia de leyes con tradición francesa y los factores correspondientes a los incisos (a), (b), (c), (d), (e), (i), no están plasmados en sus leyes o códigos comerciales. El tema del derecho preferente para la compra de nuevas acciones (inciso f) sí se encuentra dentro de las leyes comerciales de México. En relación con el porcentaje de capital que es necesario para convocar a una asamblea de accionistas (factor g), México ocupa el último lugar de los 49 países al requerir del 33% para convocar a una asamblea extraordinaria, lo que contrasta con Japón que sólo requiere del 3%, y con la mediana mundial que es del 10%. El índice de derechos antidirector mide qué tanto el sistema legal favorece a los accionistas minoritarios y se calcula mediante la suma de los seis derechos que van desde (b) hasta (g), por lo que puede tener un valor que va de cero a seis. México obtiene un valor de uno que significa que las leyes prácticamente dejan solos a los accionistas minoritarios, lo que contrasta con el de Estados Unidos que asciende a cinco.
En cuanto a la aplicación o cumplimiento de las leyes de manera directa, La Porta et al. (1998) utilizan dos medidas para la comparación entre los 49 países. En primer término, se refieren a la eficiencia e integridad del sistema judicial y lo miden a través de una serie producida por la agencia calificadora de riesgo país
Business International Corp., cuyo rango va de cero a diez, y en donde entre mayor es el valor, mejor es la eficiencia judicial. En segundo lugar, consideran el Estado de derecho que es medido con una serie estimada por la agencia calificadora de riesgo país
International Country Risk, también con una escala que va del cero al diez. Los resultados muestran grandes variaciones entre los países, en donde la mejor calidad en el cumplimiento de la ley
se da en los países con tradición germánica y escandinava, y los sistemas más débiles se encuentran en los países con leyes de origen francés. Para el caso de México la eficiencia judicial toma un valor de 6.00 y la del Estado de derecho de 5.35, por abajo del promedio de la muestra total.
En términos coloquiales, se puede decir que Estados Unidos es uno de los estudiantes del salón de clases que tiene calificación casi perfecta y que México aprueba una materia de «panzazo» con seis de calificación y otra la reprueba con cinco. Y aún en Estados Unidos, que es uno de los estudiantes aplicados, pueden pasar muchos años antes de que se apliquen las reglas de manera correcta como lo demuestra el caso de Bernard L. Madoff, quien fue sentenciado a 150 años de prisión en 2009. Su estafa estuvo basada en un sistema piramidal (esquema de Ponzi) mediante el cual le pagaba rendimientos promedio del 12% anual a sus actuales clientes con dinero de nuevas cuentas, lo cual se pudo mantener por 16 años hasta que llegó la crisis de 2008 en donde la mayoría de los inversionistas solicitaban retirar sus recursos. La moraleja de todo esto es que la aplicación de la ley muchas veces no es rápida y expedita. Madoff murió por causas naturales en prisión en abril de 2021 y su hijo menor, Mark, se suicidó en 2010. Laporta et al. (1998) no incluyen en sus comparaciones las regulaciones emitidas por las instituciones bancarias y financieras, por lo que no contemplan las reglas de operación que son emitidas por las bolsas de valores. En el «Segundo camino» ya se estudiaron algunos aspectos de los reglamentos internos tanto de la bmv como de biva. Por lo mismo, falta analizar un nivel intermedio entre las leyes comerciales y las reglas técnicas. En la siguiente sección se hablará de las leyes que agrupan a las empresas financieras y su relación con los reguladores y supervisores. Después de esto se hará una breve reseña del tema de la información privilegiada plasmado en la ley del mercado de valores de México, para después llegar a una manera de conclusión de esta opción de la encrucijada financiera.
Regulación y supervisión de los grupos financieros en México
Se regresa al caso mexicano en donde las instituciones y los mercados financieros han tendido a agruparse desde la década de 1990, mientras que los órganos de regulación y supervisión han continuado con su desarrollo a nivel individual. Esta asimetría ha provocado que existan ocho organismos rectores del sistema financiero: la Secretaría de Hacienda y Crédito Público (shcp), el Banco de México (banco central), cuatro organismos desconcentrados de la shcp: la Comisión Nacional Bancaria y de Valores (cnbv), la Comisión Nacional de Seguros y Fianzas (cnsf), la Comisión Nacional del Sistema de Ahorro para el Retiro (Consar) y el Servicio de Administración Tributaria, y dos entes descentralizados de la Administración Pública Federal: la Comisión Nacional para la Defensa de los Usuarios de los Servicios Financieros (Condusef) y el Instituto para la Protección al Ahorro Bancario.
De lo anterior se pudiera deducir que existe una desalineación de competencias y un empalme de las facultades de los órganos rectores del sistema financiero. Al menos en teoría, el problema de su articulación se trató de resolver en 2010, mediante la creación del Consejo de Estabilidad del Sistema Financiero (cesf) como una instancia de evaluación, análisis y coordinación de las autoridades en materia financiera en donde están seis de los ocho organismos mencionados en el párrafo anterior, con las excepciones de los listados en los dos últimos lugares. En 2014, el cesf quedó establecido en la Ley para Regular Agrupaciones Financieras con su objetivo primordial de identificar los riesgos potenciales a la estabilidad financiera de México, y en segunda instancia, el de fungir como foro de coordinación.
En resumen, una agrupación financiera mexicana típica compuesta por una casa de bolsa, un banco comercial y una compañía de seguros, recibe la visita periódica de supervisores, pidiendo en muchas ocasiones la misma información con un formato y detalles distintos, lo cual hace más onerosa su operación. Normal-
mente en el mes de noviembre de cada año, el Fondo Monetario Internacional (fmi) realiza discusiones bilaterales con México, en el contexto del artículo iv de los acuerdos con sus países miembros. También cada cuatro años lleva a cabo un programa de evaluación del sistema financiero (fsap por sus siglas en inglés). El último que ha realizado a la fecha de escribir estas líneas corresponde al 2016 y es muy probable que el de 2020 se haya cancelado o retrasado debido a la pandemia del covid-19.
En el documento del fsap de 2016 el fmi reportó en su párrafo 29 lo siguiente:
Se debe considerar la integración de todas las funciones de supervisión financiera en una sola agencia. Toda la supervisión prudencial que tenga por objetivo la seguridad y robustez de las instituciones financieras debería ser integrada en un supervisor integral, que cubra bancos, valores financieros, compañías de seguros, fondos de pensiones y otras instituciones financieras. (pp. 23-24)
También argumentó que esto tendría el beneficio de mitigar tanto los riesgos actuales como futuros, aunque pagaría algunos costos en el corto plazo. Aclara que la Condusef no está incluida en este proceso de fusión ya que sus actividades están relacionadas con la protección del consumidor y la integridad de los mercados. Por lo mismo, su propuesta es dejar la estructura de los reguladores mexicanos con dos organismos en la parte superior del organigrama. El primer pilar sería la fusión de la cnbv, la cnsf y la Consar; el segundo sería la Condusef. El proceso de fusión se tendría que hacer de manera suave, por lo mismo, el fmi recomienda que en el corto plazo la cnbv pueda tener autonomía en el establecimiento de su presupuesto anual y deje atrás el congelamiento de salarios de los últimos años que ha provocado la salida de personal afectando la conti-
nuidad en la supervisión. También sugiere que los miembros del Consejo de la cnbv dejen de ser miembros exoficio. Es decir, que formen parte de éste sólo por ocupar otra posición dentro del Gobierno federal, con lo que la Secretaría de Hacienda y Crédito Público (shcp) no sea la que los nombre de manera directa o indirecta. Las autoridades mexicanas de 2016 eran parte del Gobierno federal anterior y respondieron a las propuestas de fusión y mejora argumentando que la estructura y gobernanza del marco regulatorio y de supervisión dependen de las características de cada país y que no existe un modelo que aplique por igual.
Se destaca también que la estructura de protección de los supervisores de la cnbv se encuentra limitada ya que no provee de una inmunidad legal o reglamentaria para que cumplan legítimamente con sus obligaciones, lo cual puede poner en riesgo su actuación y continuidad en el puesto de trabajo. Igualmente, el reporte habla del progreso que la cnbv ha realizado en la divulgación de la información para el público en general, pero estima que no es suficiente. Finalmente, destaca que sólo un poco menos del 8% de los empleados de la cnbv se dedican a las actividades de los valores financieros lo que limita su capacidad de supervisión al mercado de valores.
El reporte del artículo iv del fmi de 2019 reitera su propuesta y afirma que la resiliencia del sector financiero podría ser mejorada cerrando la brecha existente en la regulación y supervisión. Curiosamente, también el párrafo 28 del reporte menciona que en línea con sus recomendaciones de 2016 defiende: «(i) una mayor independencia operacional, autonomía presupuestaria, y protección legal del supervisor bancario y de valores financieros; (ii) integración de la supervisión prudencial bajo una sola autoridad para todas las instituciones financieras» (p. 14). En 2019 ya se encontraba en funciones la actual administración del Gobierno federal (2018-2024), que reaccionó por primera vez a las propuestas del fmi argumentando que la actual estructura de gobernanza ha funcionado bien, por lo que no veían una necesidad de fusionar a los supervisores y reguladores del sistema financiero mexicano. Es decir, las propuestas de reforma vienen cuando menos desde
el año 2012, y ni la administración federal actual ni la anterior han querido implementar estas recomendaciones.
El reporte del artículo iv del fmi de 2020 que fue realizado de manera virtual se concentró principalmente en el tema de las consecuencias de la pandemia de covid-19, y en la cuestión fiscal, tanto en su parte de más impuestos en el mediano plazo como en el lado de un planteamiento de un mayor gasto del Gobierno para mitigar los efectos devastadores de la pandemia. Se discutió mucho menos de los temas del sector financiero, en especial del tema de los mercados accionarios. Se resalta que el párrafo 27 (pp. 2223) inicia con la misma historia de que el cerrar las brechas regulatorias y de supervisión es clave para reforzar la resiliencia financiera, y menciona las recomendaciones pendientes del fsap de 2016. Sin embargo, deja fuera la propuesta de la fusión de las cnbv, cnsf y Consar. ¿Será que lo hizo por el momento excepcional en el contexto de la pandemia?, o ¿será que de plano ya la dejó fuera de sus discusiones bilaterales con México? En cualquier escenario, el lector debe formar su opinión para ponerse del lado de la propuesta del fmi o adherirse al statu quo que defienden las autoridades mexicanas. Hay buenas razones de los dos lados. El fmi quiere tratar de mejorar las cosas y las autoridades de México siguen el dicho que sugiere que «si no está roto, no lo arregles».
Información privilegiada en México
Desde el inicio de la Ley de Mercado de Valores (lmv) en 1975, se han realizado tres cambios relevantes que intentan una mejor protección de los accionistas minoritarios y un mejor gobierno corporativo de las empresas bursátiles. Se destacan tres reformas que han entrado en vigor en 2001, 2006 y 2014. Es así como actualmente el artículo 2, fracción vii de la lmv define como eventos relevantes a los actos, hechos o acontecimientos de cualquier naturaleza, que influyan o puedan influir en los precios de los valores. Con esta base, la información privilegiada se describe en el artícu-
lo 362, que expresa que el conocimiento de eventos relevantes que no hayan sido revelados al público por la emisora de valores de las bolsas en la que coticen sus instrumentos financieros constituyen información privilegiada. Este concepto también es denominado como información privada, en contraposición a la información pública a la que están obligadas las emisoras de acciones o deuda, que sin lugar a duda influyen en el precio de dichos instrumentos financieros (valores).
Es claro que entre las personas que pueden tener información privilegiada de una acción cotizada en la bmv o en la biva destacan sus principales accionistas, los miembros del consejo de administración, los contadores y los auditores externos. Todas estas personas tienen prohibido efectuar operaciones de compraventa de esta acción o sus derivados, o transmitirla a parientes o amigos para que la puedan utilizar con este mismo propósito. Si esta prohibición no se respeta, puede dar lugar a infracciones o delitos que prescribirán cinco años después de celebrar dicha operación (artículo 364).
En resumen, las personas con información privilegiada están obligadas a mantener la confidencialidad o secrecía de los eventos relevantes, y también se deben abstener de llevar a cabo operaciones de compraventa relacionada con los títulos emitidos por la empresa correspondiente. En caso de que falten a cualquiera de estas dos obligaciones pueden ser sancionados con prisión que puede ir de dos a quince años dependiendo del tipo y monto de cada situación (art. 380-388). La mala noticia para los inversionistas del mercado de valores es que pueden ir a la cárcel si usan información privada. La buena noticia es que la mayoría de las penas se pueden reducir a un tercio cuando se acredite haber reparado el daño patrimonial o haber resarcido el perjuicio ocasionado.
Como se ha mencionado en este anexo, el establecimiento de estas normas es tan importante como su aplicación práctica. Para hablar de este último tema se hará referencia a cinco artículos escritos en este siglo. Se inicia con el de Bhattacharya et al. (2000) con el enigmático título que se traduce al español como «Cuando
un evento no es un evento: El curioso caso de un mercado emergente». Resulta que los cuatro autores de este documento, dos ubicados en la Universidad de Indiana en Bloomington, otro más en una empresa consultora en Dallas, Texas, y el último en la Universidad Goethe en Frankfurt, por alguna razón no quisieron poner el nombre de México en el título y prefirieron hablar de un caso curioso de un mercado emergente. Utilizan una base de datos que obtienen de la plataforma Bloomberg y se limitan al periodo comprendido entre julio de 1994 y junio de 1997. Mezclan 32 eventos relacionados con las empresas que tienen dos series de acciones (A y B) que describen con el precio de mercado diario de cada una de ellas. Los eventos son muy variados, destacando las reestructuraciones financieras y anuncios de utilidades o pérdidas. No sólo se concentran en los días anteriores y posteriores del anuncio público del evento (-1, +2), sino que usan la información en periodos anteriores y posteriores mayores (-80, +10). Las empresas fueron seleccionadas debido a su bursatilidad y al hecho de que cotizan acciones de la serie A y B. Las primeras sólo pueden ser adquiridas por mexicanos y representan cuando menos el 51% de los derechos de votación. Las segundas están abiertas a los extranjeros y están limitadas al 49% de los derechos de votación.
Bhattacharya et al. (2000) encuentran que los anuncios de estos eventos relevantes no tienen un impacto notorio en las negociaciones que se llevan a cabo muy cerca del día de su anuncio (-1, +2). Para explicar estos hechos encuentran que existe un retraso en el movimiento de los precios de las acciones series A y B. Encuentran que la volatilidad de los rendimientos de los precios de la serie A son los causantes de la volatilidad de los de la serie B, pero que sólo funciona en esta dirección, es decir, la causalidad no se da en sentido inverso al mencionado. También detectan que no se pueden llevar a cabo operaciones de arbitraje derivado de la compraventa de las dos series, debido básicamente a los altos costos de operación (comisiones de compraventa). También realizan pruebas que exhiben que, durante el anuncio público de los eventos, los accionistas de la serie B son mucho más sorprendidos que
los de la serie A. Todo esto los lleva a la insinuación de que es el uso de la información privilegiada de los accionistas mexicanos (serie A) el responsable de que los anuncios relevantes de las empresas sean un «no evento» cuando se dan a conocer, es decir, que no tengan un impacto notorio. Su insinuación implica que la información de los eventos se incorpora en los precios de las acciones muchos días antes del anuncio oficial debido al uso de la información privada. Esta insinuación es reforzada con su mención de que, hasta la fecha de publicación de su artículo, nunca ha existido en la Bolsa Mexicana de Valores (bmv) una denuncia, juicio o sentencia para los infractores de información privilegiada
El economista mexicano Hermann P. Tribukait Vasconcelos, que en 2002 era candidato a doctor por la Universidad de Harvard, llevó a cabo una investigación que abona a la percepción iniciada por Bhattacharya et al. (2000) en el sentido de que el uso de información privilegiada en el mercado accionario mexicano era una situación generalizada. Sin embargo, lo hace desde una perspectiva diferente ya que, en lugar de confrontar las series de acciones A y B de una misma emisora, lo hace comparando las acciones de las empresas que sólo cotizaban en la Bolsa Mexicana de Valores (bmv) con aquellas que están listadas de manera simultánea tanto en la bmv como en los mercados accionarios de Estados Unidos. Tribukait-Vasconcelos (2002) publicó su documento de trabajo con el título de «Un guardián invisible: La conducta de precios de las empresas mexicanas con listados cruzados en el nyse alrededor de sus anuncios corporativos». Usa una base de datos que va de 1995 a 2001 producida y vendida actualmente por la empresa del grupo de la bolsa de valores de Londres (Refinitiv) que contiene tanto información de los anuncios de utilidades de las empresas emisoras (Institutional Brokers’s Estimate System) como series de tiempo de los precios de las acciones. Divide su muestra en 49 empresas que sólo cotizan en la bmv y 24 que tienen cotizaciones cruzadas. Estas últimas se refieren a las empresas mexicanas que cotizan tanto en la bmv como en Estados Unidos a través de adr de los niveles ii y iii. Los adr (American Depositary Receipts) se refieren a las acciones de una em-
presa mexicana que pone una parte de éstas en un fideicomiso bancario que emite un documento que es listado y/o negociado en cualquiera de las bolsas de Estados Unidos. El nivel ii de los adr implica sólo el listado en algunas de las bolsas organizadas en Estados Unidos como el nyse o el nasdaq. El nivel iii incluye el listado y la oferta de títulos. En ambos casos, implica que la empresa mexicana voluntariamente acepta sujetarse a las reglas y a la supervisión de la Securities and Exchange Commission (sec) que es el equivalente de la cnbv en Estados Unidos. Esto implica que los requisitos de divulgación de información son mucho mayores, la protección de los accionistas minoritarios es más alta, así como la aplicación de la ley y de las reglas de la sec . Los datos relativos a los precios de mercado de las 73 empresas son combinados con 637 anuncios de utilidades (o pérdidas) durante los seis años del estudio. La comparación del comportamiento de los precios de mercado ante los anuncios de resultados es realizada en pesos mexicanos, mediante su cotización en la bmv, que era la única bolsa de valores en México en el tiempo en que se realizó el estudio.
Tribukait-Vasconcelos (2002) usa las tasas de rendimiento en exceso en los 121 días antes y después del anuncio de utilidades (o pérdidas). Inicia con los primeros sesenta días antes del evento, seguido por el día del anuncio oficial de las utilidades, y después considera los sesenta días posteriores al caso. Las tasas de rendimiento en exceso se refieren a la diferencia entre las tasas que se dieron en realidad (ex post) y la tasa de rendimiento esperada o requerida de acuerdo con algún modelo que considere el riesgo de cada acción. En este caso, el riesgo lo calcula en función de un portafolio con ponderaciones iguales de empresas que tienen un tamaño similar. Todo es muy parecido a lo que realizaron Bhattacharya et al. (1998) con tiempos diferentes en la definición de los eventos y con una medición del riesgo con base en el portafolio ponderado del mercado accionario. En ambos casos, la hipótesis nula a probar fue que las tasas de rendimiento en exceso son iguales a cero, la cual fue rechazada en los dos estudios. Los resultados de Tribukait-Vasconcelos (2002) muestran que, en prome-
dio, los precios de las acciones que sólo cotizan en la bmv incorporan más del 90% de las utilidades trimestrales 31 días antes al de su anuncio oficial. En cambio, los precios de las acciones que cotizan tanto en la bmv como en el nyse reaccionan a los anuncios de utilidades trimestrales el día de su anuncio oficial, o unos pocos días antes o después. Concluye que todo esto se debe a los requerimientos de mayor divulgación de la información y los mecanismos de aplicación de las reglas en Estados Unidos, junto con las preocupaciones reputacionales de las empresas mexicanas y sus informantes.
Dada la sólida evidencia empírica a favor de la transparencia y los estándares estrictos, parece sorprendente que muchos países, incluyendo México, no se hayan movido decididamente hacia estos objetivos. Parece existir poco apoyo y consenso para llevar a cabo reformas significativas para divulgar la información y prácticas de mercado que protejan a los participantes y garanticen la integridad de los mercados. Participantes poderosos y accionistas pueden estar bloqueando o posponiendo cualquier reforma efectiva para evitar una reducción en sus beneficios privados de control. (Tribukait-Vasconselos, 2002, pp. 37-38)
Más evidencia en este sentido fue proporcionada por Griffin, Hirschey y Kelly en 2011 en su trabajo titulado «¿Cuál es la importancia de los medios de comunicación financieros en los mercados globales?», en donde estudian las diferencias en el contenido de la información de 870,000 eventos en 56 mercados alrededor del mundo. Dividen los eventos en los relacionados con el anuncio de utilidades (o pérdidas) y el resto de los artículos noticiosos. Reúnen datos de los precios de las acciones, así como de los even-
tos de diversas fuentes en una muestra que incluye mercados desarrollados y emergentes que va del 2003 al 2009.
Al igual que en los artículos anteriores analizan el comportamiento de los precios de las acciones antes y después del anuncio oficial de las utilidades (o pérdidas) reportadas. En este caso, usan los 55 días anteriores y posteriores de cada evento relevante. Para todo esto, emplean el valor absoluto de la tasa de rendimiento en exceso, valuada en la moneda local de cada una de las emisoras. A la diferencia que obtienen del rendimiento en exceso le llaman volatilidad anormal, que es equivalente a lo que otros autores llaman tasa de rendimiento por arriba del riesgo esperado o requerido. Para su estudio deciden utilizar una variable derivada de la anterior que denominan la volatilidad normalizada, que es obtenida como el cociente entre el promedio de la volatilidad anormal en la fecha del anuncio oficial (-2, +2) y el promedio de la volatilidad anormal total (-55, +55), menos uno.
En la parte más alta de la tabla mundial, la volatilidad normalizada de Dinamarca, Estados Unidos y Suecia es superior a 0.50, lo que significa que la volatilidad en los cuatro días alrededor del anuncio de las utilidades es 50% mayor que la volatilidad de la acción. En el otro extremo de la tabla aparecen México, Turquía y Tailandia, en donde la volatilidad normalizada es menor a 0.05, lo que significa que la volatilidad en las fechas del anuncio de utilidades (o pérdidas) es prácticamente similar a la de la volatilidad de los días en que no hay anuncio alguno. Concluyen que, en la mayoría de los mercados desarrollados, los precios de las acciones se mueven mucho más en los días que existe información pública relacionada con la emisora. Lo que contrasta, con muchos de los mercados emergentes en donde la volatilidad de los precios parece ser similar tanto en los días con anuncios como en los que no hay información de la emisora. De manera específica, los autores mencionan que la muy baja reacción de los precios de las acciones en México es notablemente consistente con los resultados de Bhattacharya (2000).
Griffin, Hirschey y Kelly (2011) prueban cuatro hipótesis que pudieran explicar las diferencias en las respuestas de los diferen-
tes mercados accionarios en el mundo: la primera se relaciona con la diseminación de la información pública; una segunda opción se refiere al uso de información privilegiada; una tercera que tiene que ver con la calidad con que se reúne y se transmite la información; la cuarta se identifica con la calidad de la contabilidad de cada uno de los países. Sus pruebas muestran que el principal factor que explica estas diferencias es el uso de información privilegiada, seguido en una segunda posición por la calidad con que se reúne y transmite la información.
Una respuesta a los estudios de Bhattacharya et al. (2000) y Tribukait-Vasconcelos (2002) fue realizada a título personal por la economista mexicana, egresada del itesm, Yearim Valles Arellano en 20127. Es probable que no haya mencionado palabra alguna relacionada con el trabajo de Griffin, Hirschey y Kelly (2011) por no estar al tanto de su publicación. Esta aseveración se deduce del hecho de que no está incluida en las referencias bibliográficas de su artículo.
Valles (2012) publicó su investigación en inglés en la revista de estudios económicos de la cnbv bajo el título de «Cambios en la ley del mercado de valores, el valor informativo de los anuncios, y el uso de información privilegiada». Siguiendo las tres partes del título se puede hacer un comentario inicial de cada uno de ellos. El primero se refiere a los cambios que se implementaron en la ley del mercado de valores en 2001 y en 2006, con el objeto de subir los estándares de gobierno corporativo y evitar las malas prácticas que dañan a los accionistas minoritarios. En especial, en 2001 se afinaron las definiciones y prohibiciones con el objeto de facilitar la aplicación de sanciones a los que decidieran usar la información privilegiada. De manera complementaria, en 2006 se aumentaron los años de prisión para aquellos que usaran o divulgaran información privilegiada. El segundo se refiere de manera concreta a 412 anuncios hechos entre 1999 y 2008 en la bmv por 75 emisoras. Los principales anuncios seleccionados se refieren a
7. Se dice a título personal ya que Valles trabaja en el área de estudios económicos de la cnbv y sus opiniones no necesariamente reflejaban el punto de vista institucional.
adquisiciones, desinversiones y cambios en la estructura de capital de las empresas, mismos que contienen un valor informativo que afecta el comportamiento de los precios de mercado. El tercero adelanta su principal conclusión en el sentido de que no encontró evidencia del uso de información privilegiada en la bmv en los diez años comprendidos entre 1999 y 2008. Su resultado principal, muestra que, en promedio, la mayor parte de la reacción del mercado, tanto en términos de precios como en el de volumen, ocurre en la fecha oficial del anuncio del evento correspondiente. Su modelo para evaluar si los cambios regulatorios de 2001 y 2006 han tenido algún efecto en el comportamiento de los inversionistas del mercado accionario mexicano en el posible uso de información privilegiada, inicia estimando las tasas de rendimiento esperadas, requeridas o normales entre 140 y 21 días antes del anuncio oficial del evento. Los rendimientos esperados son estimados con una regresión lineal siguiendo el modelo del mercado de capitales. Con esto obtiene los rendimientos en exceso mediante la diferencia entre los rendimientos realmente obtenidos y los esperados, que son analizados de manera acumulada en el periodo comprendido de veinte días antes y diez días después del anuncio oficial. Sus resultados rechazan la hipótesis de que existen movimientos atípicos antes del anuncio oficial y la información es reflejada muy cerca del periodo en que se da a conocer la información pública.
Valles (2012) reconoce que el marco regulatorio no es suficiente y que requiere ser complementado con la aplicación de la ley, por lo que sólo cuando la información privilegiada es castigada o sancionada es cuando el beneficio de la ley se puede materializar:
En el caso de México, se ha logrado poco a poco un progreso en la legislación para pasar una ley que estuviera alineada a los estándares internacionales. Resulta bastante curioso que en México los individuos han sido sancionados por usar información privilegiada, en parte debido a las funciones de supervisión y a la
regulación secundaria contenida en las disposiciones emitidas por la cnbv, aun antes que se convirtieran en leyes. (p. 67)
Actualmente, el lector puede ver en la página electrónica de la cnbv las sanciones administrativas y las suspensiones que ha impuesto a las casas de bolsa y a las bolsas de valores desde 2008. En resumen, el mensaje que nos dejaron Bhattacharya et al. (2000) y Tribukait (2002) fue que el uso de la información privilegiada en la bmv era la regla durante la mayor parte de la última década del siglo anterior. En contraste, Valles (2012) nos dice que, durante la mayor parte de la primera década de este siglo, el uso de información privilegiada es la excepción en el mercado accionario mexicano. Las dos aseveraciones no son mutuamente excluyentes ya que se refieren a periodos de tiempo diferentes con regulaciones distintas. Es cierto que, desde 2008, la cnbv ha impuesto sanciones administrativas a los infractores, cuyo monto no ha afectado significativamente la riqueza de éstos, aunque sí ha afectado su reputación, ya que hoy todos los nombres de los sancionados, así como sus montos y sus suspensiones se pueden encontrar en la página electrónica de la cnbv.
Pese a todo lo anterior, los resultados de Valles (2012) son opuestos a los encontrados por Griffin, Hirschey y Kelly (2011), por lo que se puede decir que existe una evidencia mixta para el uso de información privilegiada en la bmv durante la primera década de este siglo. Independientemente de lo anterior, es un hecho que nadie ha sido privado de su libertad por estos hechos, tema del que se hablará en los siguientes párrafos. El autor de este anexo advierte al lector que Griffin, Hirschey y Kelly (2011) utilizan 22 empresas con 47 eventos relevantes que se refieren a los anuncios de utilidades, y Valles (2012) analiza 75 emisoras con 412 eventos relevantes que incluyen adquisiciones, desinversiones del capital y cambios en la estructura de capital. ¿Será que los anuncios de utilidades contienen más información que los otros
eventos relevantes? El autor de este anexo no conoce trabajos de investigación del caso mexicano que se hayan realizado con las reglas actuales que provienen de la reforma de la ley del mercado de valores de 2014.
La periodista Michelle F. Davis publicó un artículo en inglés en la revista Bloomberg Businessweek en marzo de 2018 y el siguiente mes fue traducido al español en la versión de la misma revista publicada en México. La única diferencia entre las dos versiones es el título. En el artículo en inglés «El paraíso de la información privilegiada: Donde nadie va a la cárcel». En la edición en español es «¿En serio nadie vio nada grave en la cnbv?». Es claro que los diseñadores de la revista en México trataron de ser políticamente correctos con las autoridades mexicanas, aunque al final del día el contenido es el mismo de la versión inglesa. Se trata de un reportaje periodístico que se basa en algunas referencias académicas y entrevistas. Incluye a Bhattacharya et al. (2000) y a Griffin, Hirschey y Kelly (2011) pero no contempla a Valles (2012). En relación con los entrevistados algunos se identifican con nombre y apellidos y otros no. Por lo mismo, el autor de este anexo lo considera sesgado en cuanto a que no presenta la evidencia mixta que existe en la primera década del siglo xxi y es muy difícil hacer conclusiones con fuentes que no son reveladas. En la parte inicial del reportaje expresa que:
El uso de información privilegiada es moneda corriente en el mercado accionario mexicano de 400 mil millones de dólares y casi todos lo saben. Al igual que en Estados Unidos, en México esta práctica es ilegal. El regulador financiero ha publicado sanciones desde 2008 y solamente 28 personas han sido castigadas por ello en el país desde entonces, ninguno ha parado en prisión y las multas suman apenas alrededor de 60 mil dólares por persona. (Davis, 2018, p. 41)
Hace una comparación con lo que pasa en Brasil y Chile en donde en el primer caso ya hay cuando menos un caso de un infractor en prisión y en el segundo en donde las multas impuestas a un solo empresario representan el doble de lo que México ha sancionado en toda su historia. Menciona cerca de diez casos mexicanos en los que la actividad bursátil es inusual, aunque aclara que esto no es evidencia suficiente del uso de información privilegiada u otra ilegalidad.
En la parte final del artículo habla de la opinión de José Berrueta, socio de Ritch Mueller en la Ciudad de México, y agrega que «quienes están a cargo de la vigilancia de la cnbv se quejan, en privado, de que no tienen las herramientas necesarias o suficientes empleados para monitorear adecuadamente el mercado mexicano, de acuerdo con una persona presente en esas conversaciones» (Davis, 2018, p. 44). De acuerdo con el autor de este anexo, lo anterior no puede ser considerado como una conclusión, sino como una hipótesis para poder explicar el hecho de que ningún infractor en México ha terminado en prisión.
El informe anual de la cnbv correspondiente a 2019 reporta que supervisa a 4,876 entidades agrupadas en 71 figuras jurídicas con 1,404 servidores públicos. Si se toma como base lo mencionado en la sección anterior en donde se expresa que el fmi estima en un poco menos del 8% el total de empleados de la cnbv que están asignados al mercado de valores, se obtiene que son 112 los funcionarios públicos que siguen este proceso. Si se toman como base las 35 casas de bolsa o las 142 emisoras de acciones de las dos bolsas de valores, el número de personas parece adecuado, siempre y cuando tenga el equipo y la tecnología apropiada. Si se toman como base las 947,850 cuentas o contratos de intermediación bursátil, la situación cambia radicalmente. El informe anual también menciona que se aplicaron 869 sanciones en total por un monto superior a 207 millones de pesos. En lo correspondiente al sector bursátil, se sancionaron y amonestaron 33 conductas de casas de bolsa, 13 de emisoras y 65 de personas físicas que en total sumaron cerca de 39 millones de pesos.
Es claro que la historia de la cnbv muestra una mayor actividad de amonestaciones y sanciones administrativas, y también es evidente que la Secretaría de Hacienda y Crédito Público (shcp) no ha ejercido acción penal alguna contra los que probablemente han usado información privilegiada. Se aclara que de acuerdo con el artículo 388 de la Ley del Mercado de Valores, en términos generales, estos delitos se persiguen únicamente por la shcp, previa opinión de la cnbv. Podría existir el caso de que la cnbv haya emitido opiniones positivas para ejercer acción penal, pero que la shcp no haya querido perseguir la acción penal por diversas razones. En este sentido, es importante resaltar que el actual presidente de México (2018-2024) Andrés Manuel López Obrador presentó en el Palacio Nacional un plan de impulso al sector financiero el 8 de enero de 2019 en donde expresó su intención de que «haya un auténtico Estado de derecho, no la simulación de que la ley se respeta en la forma para violarse en el fondo». Esto se combina con la nueva Ley Federal de Austeridad Republicana publicada en el Diario Oficial de la Federación el 8 de octubre de 2019 que afecta de manera importante a la cnbv ya que establece en su artículo 24 que los servidores públicos de los altos mandos que por cualquier motivo se separen de su cargo, no podrán ocupar puestos en empresas que hayan supervisado, regulado o respecto de las cuales hayan tenido información privilegiada en el ejercicio de su cargo público, salvo que hubiesen transcurrido al menos diez años. Se verá si durante esta administración la intención de aplicar realmente la ley se puede combinar con menores incentivos al personal de la cnbv y la disposición política de la shcp.
¿Regreso
a lo básico?
Tanto en el capítulo único como en el «Primer camino» se habló de manera intermitente de las finanzas descriptivas como el camino de la encrucijada preferido por los practicantes del medio empresarial y financiero. En este apartado se han dado a conocer
más detalles de esta opción y se ha agregado que también es apoyado por un pequeño grupo de economistas e investigadores relacionados con la economía institucional, en donde las reglas formales e informales son vitales para poder entender el comportamiento de los inversionistas, intermediarios, integrantes de las bolsas de valores, así como de los reguladores.
Se trata de un regreso parcial a lo básico, en el sentido de que toma una parte del método de la «sabiduría convencional» prevaleciente en la primera mitad del siglo xx. Sin embargo, reconoce que se está operando en un entorno muy diferente al de aquella época y que existen nuevos jugadores y leyes diferentes. Es así como hoy predominan las negociaciones electrónicas y se han dejado atrás las operaciones de viva voz y el registro manual de las operaciones. También prevalece el hecho de que, actualmente, la mayoría de los ganadores en los mercados accionarios son los que actúan mucho más rápido, aprovechando las diferencias de precios temporales en diferentes plataformas de negociación, y no necesariamente los que tienen mejor información.
Es importante mencionar que lo único constante es el cambio para el caso de la actualización de las leyes bursátiles, su aplicación y régimen tributario. A este respecto las amplias y profundas modificaciones realizadas a las leyes mexicanas en 2014 forman la base actual de la reglamentación y operación del sistema financiero. Es aquí donde prácticamente surge una nueva ley del mercado de valores y se expide la ley para regular las agrupaciones financieras, en cuya estructura trabajan una gran cantidad de casas de bolsa (intermediarios) que operan una parte importante de las negociaciones. El régimen tributario también cambió en 2014. Las ganancias de capital obtenidas por los inversionistas en la Bolsa Mexicana de Valores dejaron de estar exentas y se les impuso una tasa de impuesto sobre la renta del 10%. En este resultado influyó la venta del grupo Banamex-Accival a Citigroup en 2001 en donde los dueños mexicanos de la primera empresa no tuvieron que pagar impuesto sobre la renta alguno y, al mismo tiempo, habían recibido ayuda del fondo bancario de protección al ahorro del Gobierno federal. Es así como en 2002 y 2007 se em-
pezaron a poner mayores requisitos para lograr la exención, hasta su eliminación en 2014. También en el caso de los dividendos en efectivo que pagan las empresas cotizadas en bolsa a las personas físicas, la reforma fiscal de 2014 aumentó una tasa del 10% que retiene y entera la casa de bolsa, y el receptor tiene que sumarlo a sus otros ingresos, y dependiendo de cada caso, puede llegar hasta una tasa progresiva del 35%.
En el primer y único capítulo se habló de que Frank H. Knight (1921) ponía en un extremo a los economistas matemáticos y los teóricos puros (deductivos) y en otro a los que abogan por una ciencia completamente descriptiva (inductivos), y entre estos dos puntos colocaba a todas las demás corrientes de opinión, para ubicarse en la mitad de estas. Argumentaba que la diferencia entre riesgo e incertidumbre se debía a que el primero se podía medir y la segunda era de un tipo no cuantificable. También se mencionó a Kay y King (2020), quienes engloban los conceptos de riesgo e incertidumbre desarrollados por Knight en un solo componente de incertidumbre, que tiene dos vertientes: una parte que tiene solución (resoluble) que llaman incertidumbre resoluble, y otra parte que no se puede resolver (irresoluble) que denominan incertidumbre radical. Con estos elementos, opinan que la economía debería ser más conocimiento práctico que teórico, y que hay formas de tomar decisiones más allá de los números, para lo cual es necesario usar narrativas.
Aunque la gran mayoría de los economistas de la academia argumentan que la incertidumbre no se puede medir o no tiene resolución alguna, existen unos pocos que han realizado esfuerzos con los prácticos para encontrar una forma indirecta para evaluar su intensidad. Tal es el caso del profesor Nicholas Bloom de la Universidad de Stanford, que junto con Hites Ahir y Davide Furceri, economistas del fmi, han desarrollado el Índice de Incertidumbre Global (wui por sus siglas en inglés). Este índice es construido con minería de texto de los reportes país que la compañía Economist Intelligent Unit (eiu) produce de manera trimestral y vende mediante suscripciones anuales que rondan los mil dólares por país. Su base de datos inició en la década de 1950 e incluyó 143
países, tanto desarrollados como en desarrollo, alrededor del mundo. La metodología que usan es contar el número de veces que la palabra incertidumbre, o sus variantes (incierto), son mencionados en cada reporte trimestral, y obtienen la frecuencia con que se menciona en relación con el número total de palabras de cada documento (normalizado). La escala de las frecuencias normalizadas es multiplicada por mil, en donde un número mayor significa mayor incertidumbre y viceversa.
Ahir, Bloom y Furceri (2019) han publicado un documento de trabajo en el que detallan el índice y adicionalmente mantienen la página electrónica www.worlduncertaintyindex.com para actualizar su información y sus resultados, portal que es de acceso gratuito. La base de datos de los 143 países es agregada para obtener el índice de incertidumbre global , cuya gráfica histórica muestra el punto más alto durante el gran confinamiento derivado del covid -19 en el primer trimestre de 2020. Desde entonces el índice ha descendido significativamente hasta el primer trimestre de 2021. Los resultados de estos autores muestran que el nivel promedio de incertidumbre de las economías con ingresos bajos es mayor que la de los países desarrollados. También encuentran que incrementos en el índice anticipan bajas significativas en el producto interno bruto.
El pico más alto del índice global no necesariamente coincide con el pico histórico de la incertidumbre de cada uno de los países en lo individual. Es así como el pico más alto del agregado mundial está ubicado en el primer trimestre de 2020, pero para el caso de México el pico del covid-19 es menor del obtenido en el cuarto trimestre de 2018. Se le aclara al lector que el reporte país de eiu usa un formato único e incluye factores económicos y políticos. ¿Será que los aspectos políticos crean más incertidumbre que los factores económicos? Una forma de saberlo es ir a los reportes de México e identificar las 12 y 19 veces que se menciona la palabra incertidumbre en los informes del primer trimestre de 2020 y cuarto trimestre de 2018, respectivamente, para saber si están relacionados con factores económicos o políticos. Sin embargo, mediante un rápido análisis costo-beneficio, desde el punto de vista
del autor de este anexo es mejor dejar las cosas como están, y hacer la hipótesis de que los 12 primeros son en su mayoría económicos y los 19 últimos son de carácter político. Los autores del índice muestran que éste tiende a aumentar en las fechas cercanas a las elecciones políticas de cada país.
El autor de este anexo recomienda al lector usar los índices individuales, regionales y globales de Ahir, Bloom y Furceri para sus análisis y toma de decisiones. Es claro que proviene de una fuente única con tendencias liberales, pero hasta el momento no parece existir una alternativa progresista con datos trimestrales para hacer mediciones de este tipo y realizar comparaciones internacionales. También es un hecho que tiene una metodología transparente y es gratuita.
Para tener una mayor perspectiva del análisis de la incertidumbre más allá del ámbito de los economistas, se menciona el artículo que Andy Stirling publicó en Nature en 2010 cuyo título se puede traducir como «Hazlo complejo (difícil)», en contraposición al tradicional proverbio de hazlo simple o hazlo sencillo. Stirling tiene una maestría en arqueología y antropología social, así como un doctorado en políticas de ciencia y tecnología. Stirling (2010) habla de que en cada caso particular se tiene o no un conocimiento tanto de los posibles resultados como sus probabilidades de ocurrencia. Si uno posee un alto conocimiento de ambos, se tiene una posición de riesgo. En el otro extremo, si no se tiene un conocimiento adecuado de ninguno de los dos, se ubica en un estado de ignorancia, en donde no se sabe que no se sabe (incógnitas desconocidas). Un tercer camino se refiere a la incertidumbre en donde el investigador no tiene problema en identificar los resultados posibles, pero no puede asignar probabilidades a cada uno de ellos. Finalmente, existen situaciones de ambigüedad en las que, por diversas razones, es muy problemático identificar los posibles resultados.
Stirling (2010) da a conocer que dentro de cada uno de los cuadrantes de la matriz en la que caben el riesgo, la incertidumbre, la ambigüedad y la ignorancia, existen métodos cuantitativos o cualitativos que se pueden usar. Para el caso del riesgo existen los
modelos de optimización y el análisis costo-beneficio. Para la incertidumbre , sobresalen los análisis de escenarios, de sensibilidad y de intervalos. En el caso de ambigüedad menciona la deliberación participativa, así como los grupos de enfoque y disenso. Para las situaciones en las que predomina la ignorancia no se puede hacer mucho más que las decisiones que se tomen sean fáciles de revertir y se tenga flexibilidad en los compromisos legales y financieros. Reconoce que existen presiones políticas para que los investigadores traten todos los temas reducidos al cuadrante de riesgo, pero que es necesario usar el conocimiento y aconsejar de manera más plural y hacer explícito las condiciones específicas en cada toma de decisiones. En resumen, se puede decir que el mensaje de Stirling (2010) es que cuando el conocimiento es incierto, los expertos o investigadores deberían de evitar la simplificación de sus consejos o recomendaciones.
En esta misma perspectiva Ian Scoones (2019) escribe un documento de trabajo que titula «¿Qué es la incertidumbre y por qué tiene importancia?», en donde agrupa tres de las cuatro dimensiones descritas por Stirling (2010). Distingue entre riesgo e incertidumbre, e incluye también a la ambigüedad y la ignorancia. Describe cinco formas diferentes para pensar la incertidumbre desde la perspectiva social, política, cultural, práctica e individual, y las examina en diferentes campos o dominios en los que sobresalen las finanzas, las infraestructuras, los brotes epidémicos y el cambio climático. Menciona que las dimensiones se refieren a estados del conocimiento y no a los estados de la naturaleza; es decir, reflejan puntos de vista desde diferentes perspectivas, pero no son afirmaciones de cómo es el mundo. Concluye que es necesario desarrollar una nueva forma de pensar en la que se debe de abrazar a la incertidumbre, lo que implica el aprovechamiento de los conocimientos de las diversas áreas y el rechazo de soluciones singulares, por lo que se requiere de una red transdiciplinaria y abierta.
Ian Scoones tiene una maestría en Administración Ecológica y un Ph. D. en Recursos Renovables. Junto con Andrew Stirling es codirector del centro steps que está alojado en la Universidad de
Sussex, localizado cerca de la ciudad de Brighton en el Reino Unido. El documento de trabajo de Scoones (2019) fue elaborado en parte para sustentar el simposio que steps organizó en julio de 2019 para discutir el tema de la política de la incertidumbre, que generó la publicación de un libro con el mismo título editado por Ian Scoones y Andy Stirling en 2020. El tema y el libro son muy oportunos ya que coinciden con el punto más alto del Índice de Incertidumbre Global (wui) de Ahir, Bloom y Furceri, mencionado en los párrafos anteriores de esta sección.
Para concluir, se reitera que lo mencionado en este camino es el reflejo de que hay una tendencia a regresar sólo parcialmente a lo básico con la alta incertidumbre que se está viviendo en 2021 en el mundo. Sin embargo, tal y como lo dice el título de este libro, éste es sólo uno de los cuatro caminos que puede tomar un inversionista o una persona que desee entrar al interesante mundo financiero. El lector tiene ahora elementos suficientes para resolver, de manera individual, su encrucijada financiera.
Ahir, H., Bloom, N. y Furceri, D. (2019). The world uncertainty index (Working paper no. 19-027). Stanford Institute for Economic Policy Research (siepr).
Bhattacharya, U., Daouk, H., Jorgensen, B. y Kehr, C. H. (2000). When an event is not an event: The curious case of an emerging market. Journal of Financial Economics, 55(1), 69-101.
Comisión Nacional Bancaria y de Valores (2020). Informe annual 2019.
Davis, M. F. (2018). Insider-trading Paradise: Where no one goes to jail. Bloomberg Businessweek. Davis, M. F. (2018). ¿En serio nadie vio nada grave en la cnbv? Bloomberg Businessweek. México.
Griffin, J., Nicholas, M., Hirschey, H. y Kelly, P. J. (2011). How important is the financial media in global markets? The Review of Financial Studies, 24(12), 3941-3992.
International Monetary Fund. (2016). Mexico: Financial system stability assessment. Country report no. 16/361.
International Monetary Fund. (2019). Mexico: Article iv consultation. Country report No. 19/336.
International Monetary Fund. (2020). Mexico: Article iv consultation. Country report No. 20/293.
Kay, J. y King, M. (2020). Radical uncertainty: Decision-making beyond the numbers. W. W. Norton & Company.
Knight, F. H. (1921). Risk, uncertainty and profit. Martino Publishing (2014).
La Porta, R., Florencio López de Silanes, A. y Vishny, R. (1998). Law and finance. Journal of Political Economy, 106(6), 1113-1155.
Ley del Mercado de Valores (2019). Cámara de Diputados del H. Congreso de la Unión.
North, D. C. (1991). Institutions. Journal of Economic Perspectives, 5(1), 97-112.
Scoones, I. (2019). What is uncertainty and why does it matter? steps working paper 105: steps Centre.
Scoones, I. y Stirling, A. (eds.) (2020). The politics of uncertainty: Challenges of transformation. Routledge and Earthscan.
Stirling, A. (2010). Keep it complex. Nature, (468), 1029-1031.
Tribukait-Vasconcelos, H. P. (2002). The invisible enforcer: Price behavior of Mexican firms cross-listed in the nyse around corporate announcements. Working paper. Harvard University.
Valles-Arellano, Y. (2012). Changes in the securities market law, the informative value of announcements and the use of insider information. cnbv Economic Studies, 1, 35-73.
Universidad de las Américas Puebla
Editorial udlap
Izraim Marrufo Fernández Director
Rosa Quintanilla Martínez
Jefa de departamento
Angélica González Flores
Guillermo Pelayo Olmos Coordinadores de diseño
Andrea Garza Carbajal Aldo Chiquini Zamora Coordinadores de corrección
Andrea Monserrat Flores Santaella Coordinadora de preprensa
Carolina Tepetla Briones Coordinadora administrativa
María Fernanda Ortiz de la Fuente Auxiliar administrativa
Guadalupe Salinas Martínez Coordinadora de producción
Jesús López Castillo
José Enrique Ortega Oliver Impresores
María del Rosario Montiel Sánchez Encuadernación y acabados
Directorio udlap
Martín Alejandro Serrano Meneses Decano de Investigación y Posgrado
Sergio Picazo Vela Decano de la Escuela de Negocios y Economía
Luis Ricardo Hernández Molina Director de Investigación y Posgrado
Finanzas en la encrucijada
fue preparado por el Departamento de Publicaciones de la Universidad de las Américas Puebla para su publicación electrónica el 29 de noviembre de 2021.
En la composición tipográfica se emplearon las familias Amster Pro, diseñada por Francisco Gálvez Pizarro, y Borges, de Alejandro Lo Celso.
Edición para consulta sin fines comerciales.
La economía financiera no es ya la única que domina el estudio, investigación y guía para invertir en los mercados accionarios y sus derivados. Este libro narra, de la manera más amigable posible, las cuatro alternativas que tienen tanto los inversionistas que buscan entrar en los mercados accionarios como los universitarios que desean estudiar un posgrado en Finanzas. Aunque las decisiones son personales, aquí podrán encontrar elementos para esclarecer sus dilemas.
La economía conductual y las neurofinanzas conforman también, desde 2013, la corriente dominante. Además, existen otros tres grupos minoritarios que ofrecen perspectivas muy interesantes. El primero utiliza el enfoque descriptivo usado por los practicantes de las finanzas que se han apoyado en la nueva economía institucional y en investigadores que reconocen que hay riesgos no cuantificables que generan incertidumbre en la toma de decisiones. El segundo está constituido por economistas que se han asociado con informáticos y físicos para llevar a cabo simulaciones computacionales que permiten ir más allá de los supuestos de racionalidad de los inversionistas y del equilibrio del mercado de valores. Estudia las finanzas como un sistema complejo que analiza la interacción entre sus agentes para llegar a describir la conducta emergente. Finalmente, algunos físicos que no desean mezclarse con «científicos» sociales han creado la econofísica en la que usan la física estadística para explicar la conducta macroscópica de los mercados de valores a través de un razonamiento asintótico, para lo cual emplean bases de datos cada vez más grandes.
Miguel Hakim Simón es doctor en Finanzas por la Universidad de Claremont, California. Ha sido catedrático universitario, ejecutivo del sistema financiero mexicano y consultor de organismos internacionales. Entre sus obras se encuentran The efficiency of the mexican stock market (1992), Finanzas: vestidas por unos y alborotadas por otros (2013), Finanzas para el desarrollo de México (2017) y Muchas cuentas, pocos cuentos: el pib de México y más allá (2020).