Por: J. Daniel Aromí - IIEP-Baires UBA-Conicet

Desde el papel que juegan las expectativas en los ciclos económicos hasta el ánimo de los inversores en los vaivenes del mercado financiero y la lingüística computacional, la economía asigna un rol clave a las creencias de las personas. De allí la necesidad de medir y monitorear qué piensan los ciudadanos.

Las dinámicas económicas son, en una importante medida, explicadas por estados subjetivos. Es por ello que nuestra comprensión de eventos económicos puede progresar a través de mejoras en la medición de aspectos subjetivos. Por ejemplo, en estudios de fluctuaciones económicas, es de interés conocer la evolución de las expectativas de crecimiento económico. Similarmente, la explicación de las oscilaciones en mercados financieros, puede avanzar en la medida en que se puedan documentar las evaluaciones de los participantes en los mercados. En muchas circunstancias, el éxito de políticas económicas es función del adecuado conocimiento y la gestión de las percepciones de los actores económicos.

Dado el interés en aspectos subjetivos, un recurso ampliamente utilizado está dado por las encuestas de opinión y expectativas en las que los participantes reportan sus creencias con respecto a temas económicos de interés. A partir de este recurso, se generan los conocidos indicadores de confianza del consumidor[1] y los compendios de pronósticos macroeconómicos  reportados por analistas profesionales.[2]De esta manera, la información subjetiva permite anticipar dinámicas económicas y mejorar la comprensión de mecanismos que explican dinámicas económicas de interés.

El valor de esta forma tradicional de medir estados subjetivos no está en duda. Sin embargo, esta evidencia puede ser complementada por otras fuentes de información. En particular, es posible que la lingüística computacional pueda contribuir al estudio de estados subjetivos.

 

El procesamiento automático de lenguaje natural

La lingüística computacional ha desarrollado un conjunto de herramientas que permiten la extracción automática de información desde textos expresados en lenguaje natural y, adicionalmente, ha avanzado en la generación automática de mensajes que pueden ser interpretados por humanos.

Este campo del conocimiento ha crecido rápidamente en los últimos años gracias a la disponibilidad de grandes cantidades de textos en formato digital, la expansión en la capacidad de cómputo y el desarrollo de nuevas técnicas que permiten extraer y generar información en forma automática. Entre sus aplicaciones más conocidas están la clasificación de textos, la traducción y la comunicación con humanos en aplicaciones comerciales.[3] Estas herramientas también son empleadas para medir percepciones del consumidor en marketing o la imagen de figuras políticas. Quizá sorprendentemente, entre los campos de aplicación de estas técnicas también se encuentra la medicina.[4]

En economía, estas herramientas pueden mejorar nuestra comprensión de aspectos subjetivos al extraer información con respecto al nivel de atención asignado a ciertos temas o las percepciones con respecto a eventos o agentes económicos. Por ejemplo, a través de estas técnicas se podría inferir el nivel de interés que se manifiesta por procesos de reforma fiscal, programas de política cambiaria o iniciativas de integración comercial. Más allá de los niveles de atención, el procesamiento de textos permite extraer información sobre evaluaciones positivas o negativas expresadas con respecto a entidades o procesos económicos de interés. Por ejemplo, se pueden construir indicadores de confianza con respecto a la economía de un país o con respecto a ciertas iniciativas de política. Como insumos de estos ejercicios se puede recurrir a diversas fuentes como textos en la prensa, transcripciones de discursos o programas de televisión, mensajes en las redes sociales, discusiones de hacedores de política, reportes de investigadores o documentos generados por consultoras o corporaciones.

Existen múltiples motivos para pensar que estas herramientas aumentan nuestra capacidad para medir aspectos subjetivos en economía. En primer lugar, la disponibilidad de grandes cantidades de textos permite generar medidas subjetivas para largos períodos de tiempo. A manera de ejemplo, vale destacar el trabajo de Garcia (2013) que utiliza textos del New York Times para generar medidas de sentimiento del inversor a lo largo de 100 años (1905-2005). Adicionalmente, el procesamiento automático de textos permite inferir aspectos de estados subjetivos que no pueden ser capturados a través de encuestas. Por un lado, existe un importante conjunto de literatura en psicología y neurociencias[5] que indica que una importante fracción de los procesos mentales que explican nuestra conducta y actitudes ocurre fuera de nuestro control consciente. De esta manera, es factible que exista un importante conjunto de información sobre estados subjetivos que no emerge en respuestas a cuestionarios pero puede ser inferida al resumir grandes cantidades de texto. Por otro lado, en algunas circunstancias, los reportes subjetivos pueden incluir un elemento de error asociado a motivaciones estratégicas.[6]

 

Cuestiones metodológicas

La extracción automática de información a partir de lenguaje natural requiere resolver importantes desafíos metodológicos. El lenguaje natural es difícil de interpretar debido a las muy diversas formas en que los humanos expresamos nuestras ideas. A diferencia del lenguaje formal, no existen reglas explícitas y las reglas no escritas cambian con el contexto. Los métodos utilizados deben adaptarse al contexto en que se generó el contenido, los recursos disponibles y al objetivo del ejercicio.

En algunos casos, las técnicas utilizadas al procesar texto automáticamente involucran análisis simples donde se mide la presencia de una palabra o un conjunto de palabras de interés previamente identificadas, por ejemplo, recesión.[7] En estos ejercicios la forma de resumir información ya está preestablecida, no existe aprendizaje con respecto a cómo extraer información. En contraste, en otros ejercicios, se utilizan metodologías de frontera en inteligencia artificial que aprenden a interpretar mensajes. Por ejemplo, existen métodos que aprenden a interpretar oraciones a través de redes neuronales recursivas.[8] En estos casos, el algoritmo aprende a interpretar la información más allá de cualquier información a priori que haya sido provista al inicio del ejercicio.

Como indicamos anteriormente, en estudios relacionados con economía, los ejercicios más divulgados tienen que ver con identificar la temática de un texto e inferir las evaluaciones positivas o negativas con respecto a economías, políticas o agentes. A continuación, describimos algunas de las técnicas comúnmente utilizadas para llevar a cabo ese tipo de tareas.

Una forma de identificar temas en un conjunto de textos consiste en generar subconjuntos  de textos según su similitud. Comúnmente se utilizan técnicas estadísticas que agrupan textos según la frecuencia con la que aparecen distintas palabras. La técnica más común en esta dirección es la Asignación de Dirichlet Latente.[9] En casos en que las categorías temáticas están previamente definidas, se suele utilizar un conjunto de textos previamente clasificados para que un algoritmo aprenda, por inducción, a clasificar nuevos textos. Entre estas técnicas de aprendizaje se encuentra el clasificador bayesiano ingenuo que aprende a clasificar agregando información sobre la frecuencia de palabras individuales. Una herramienta alternativa conocida como “máquinas de vectores de soporte”, involucra representar cada documento a través de vectores e identificar hiperplanos que separen textos en distintas categorías.[10] En algunos casos se extiende el análisis para analizar no sólo información sobre palabras sino también n-gramas, es decir, secuencias de “n” palabras.

Con respecto a la inferencia de evaluaciones, un método simple utilizado con éxito consiste en computar la presencia de palabras con contenido negativo o positivo. Las palabras negativas o positivas pueden corresponder a léxicos desarrollados anteriormente por lingüistas[11] o pueden involucrar listas generadas por el mismo investigador.[12] Similarmente a lo observado en el caso de clasificación temática, también se han utilizado métodos de aprendizaje supervisado como el clasificador bayesiano ingenuo o máquinas de vectores de soporte.[13] En algunos casos, las técnicas utilizadas procesan los textos en forma global intentando inferir el sentido de frases y oraciones. Por ejemplo, este es el caso del ya referido trabajo de Socher y coautores (2013).

 

Aplicaciones en economía

En economía existen diversas contribuciones que han explotado técnicas de procesamiento automático de textos con resultados positivos. Entre estas contribuciones, se destaca el trabajo ampliamente reconocido de Gentzkow y Shapiro (2010) que estudia los sesgos en la prensa escrita explotando las similitudes entre los discursos de congresistas y los textos de los diarios. Baker y coautores (2015) miden la presencia en los contenidos de la prensa de referencias a “incertidumbre de política económica” y encuentran que esta medida permite anticipar variaciones en la tasa de crecimiento y el nivel de desempleo. Hansen y coautores (2014) utilizan técnicas de lingüística computacional para analizar las deliberaciones de política monetaria (Hansen y coautores 2014). En el trabajo de Tetlock (2007) y el ya mencionado trabajo de Garcia (2013) se encuentra que medidas de optimismo en The Wall Street Journal y The New York Times permiten anticipar cambios en el retorno esperado en el mercado bursátil para los días siguientes.

Un tema central al estudio de la economía tiene que ver con la explicación de las fluctuaciones agregadas en el nivel de actividad. En este sentido, un determinante clave pero difícil de medir está dado por el nivel de confianza manifestado por los agentes económicos. El nivel de optimismo con respecto al desempeño económico de un país puede ser aproximado a través de estas herramientas. Un enfoque simple que ha generado resultados de interés consiste en computar la cantidad de palabras negativas en textos relacionados con el país en cuestión. El Gráfico 1 presenta este tipo de índice para Grecia entre 1984 y 2013. Para la confección de índice se ha recurrido a artículos publicados por The Wall Street Journal y The Economist. Se puede observar que hacia 2006 alrededor de un 5% de las palabras tenían contenido negativo. Ese valor constituye el valor más bajo de la serie, es decir, el mayor nivel de confianza. Tres años después se observa un violento aumento que coincide con la crisis de la economía griega. Hacia 2010 la frecuencia de palabras negativas había aumentado en aproximadamente un 80%.

 

Gráfico 1: Cantidad de palabras negativas en textos relacionados con Grecia

Fuente: Elaboración propia.

Fuente: Elaboración propia.

Más allá de la correlación contemporánea con el desempeño económico, es de interés destacar que estas mediciones permiten mejorar nuestra comprensión de los mecanismos que determinan los senderos de las distintas economías. Según estudios recientes, se observa que estos índices anticipan errores en las predicciones de crecimiento económico y diferenciales en los retornos de los activos financieros.[14] Estas asociaciones rezagadas indican que períodos de optimismo son seguidos, en promedio, por sorpresas negativas con respecto al crecimiento económico y  por pobre desempeño de los activos financieros.  Este tipo de información no sólo tiene valor académico sino que también puede guiar las decisiones de política económica.

En conclusión, las técnicas empleadas en un campo de conocimiento son función de la disponibilidad de recursos y de las creencias con respecto a las reglas que gobiernan el sistema. Es razonable pensar que, tanto debido a los recursos disponibles como debido a la importancia asignada a aspectos subjetivos, las actuales condiciones son propicias para una intensa utilización de las técnicas de lingüística computacional en estudios de economía con un  importante potencial.

 

 

Bibliografía

Aromí, D. 2015a. “Conventional views and asset prices: What to expect after times of extreme opinions?” Mimeo, IIEP-Baires UBA-Conicet.

Aromí, D. 2015b. “Evaluating the efficiency of growth forecasts”. Mimeo, IIEP-Baires UBA-Conicet.

Baker, S. R.; Bloom, N.; y Davis, S. J. 2015. Measuring economic policy uncertainty, No.w21633. National Bureau of Economic Research.

Blei, D. M.; Ng, A. y Jordan, M. I. 2003. “Latent Dirichlet allocation”, en: The Journal of Machine Learning Research, 3, 993-1022.

Chapman, W. W.; Nadkarni, P. M.; Hirschman, L.; D’Avolio, L. W.; Savova, G. K. y Uzuner, O. 2011. “Overcoming barriers to NLP for clinical text: the role of shared tasks and the need for additional creative solutions”, en: Journal of the American Medical Informatics Association, 18(5), 540-543.

Damasio, A. R. 2006. Descartes’ error. Random House.

Garcia, D. 2013. “Sentiment during recessions”, en: The Journal of Finance, 68(3), 1267-1300.

Gentzkow, M. y Shapiro, J. M. 2010. “What drives media slant? Evidence from US daily newspapers” en: Econometrica, 78(1), 35-71.

Hansen, S.; McMahon, M. y Prat, A. 2014. Transparency and deliberation within the FOMC: a computational linguistics approach.

Hirschberg, J. y Manning, C. D. 2015. “Advances in natural language processing”, en: Science, 349(6245), 261-266.

Kahneman, D. 2011. Thinking, fast and slow. Macmillan.

Loughran, T. y McDonald, B. 2011. “When is a liability not a liability? Textual analysis, dictionaries, and 10‐Ks”, en: The Journal of Finance, 66(1), 35-65.

Manning, C. D.; Raghavan, P. y Schütze, H. 2008. Introduction to information retrieval, 1(1), p. 496. Cambridge: Cambridge University Press.

Pang, B.; Lee, L. y Vaithyanathan, S. 2002. “Thumbs up?: sentiment classification using machine learning techniques”, en: Proceedings of the ACL-02 conference on Empirical methods in natural language processing, Volume 10 (pp. 79-86). Association for Computational Linguistics. Julio.

Socher, R.; Perelygin, A.; Wu, J. Y.; Chuang, J.; Manning, C. D.; Ng, A. Y. y Potts, C. 2013. “Recursive deep models for semantic compositionality over a sentiment treebank”, en: Proceedings of the conference on empirical methods in natural language processing (EMNLP), Vol. pp. 1631–1642 Octubre.

Tetlock, P. C. 2007. “Giving content to investor sentiment: The role of media in the stock market”, en: The Journal of Finance, 62(3), 1139-1168.

Tillmann, P. 2011. “Strategic forecasting on the FOMC”, en: European Journal of Political Economy, 27(3), 547-553.

 

 

 

[1]Ver por ejemplo las tradicionales encuestas de la Universidad de Michigan (http://www.sca.isr.umich.edu/).

[2]Ver por ejemplo los pronósticos difundidos por el Federal Reserve Bank of Philadelphia en: https://www.philadelphiafed.org/research-and-data/real-time-center/survey-of-professional-forecasters/ y Consensus Economics: http://www.consensuseconomics.com/.

[3]Para una reciente descripción del campo ver Hirschberg y Manning (2015).

[4]Ver, por ejemplo, Chapman y coautores (2011).

[5]Ver, por ejemplo, la clásica contribución de Damasio (1993) o lo discutido en Kahneman (2011).

[6] Ver, por ejemplo, Tillmann (2011).

[7] Ver http://www.economist.com/blogs/dailychart/2011/09/r-word-index.

[8] Ver Socher y coautores (2013).

[9] Blei y coautores (2003).

[10]Manning y coautores (2008) brinda una buena explicación accesible de estas técnicas.

[11]Por ejemplo, la clásica lista provista por General Inquirer (http://www.wjh.harvard.edu/~inquirer/homecat.htm) ha sido utilizada con buenos resultados.

[12]Ver, por ejemplo, Loughran y McDonald (2011).

[13]En este sentido se destaca la clásica contribución de Pang y coautores (2002) que implementa estas técnicas para inferir información a partir de críticas de cine.

[14]Ver Aromí (2015a y 2015b).