38 Informe económico y financiero #29 | A debate Cuando la máquina aprende cómo funcionan los datos, puede repetirse el mismo proceso para crear nuevos outputs y hacer predicciones utilizando datos nuevos. La principal ventaja frente a la programación genérica, que requiere algunos inputs y un algoritmo de programación formal para producir un output, es que las técnicas de machine learning ‘aprenden’ a programar de forma empírica mediante el uso de datos existentes. Este estudio (entre otros) muestra que la explotación del enorme mundo del big data puede predecir los rasgos de la personalidad humana sin la intervención de las habilidades sociocognitivas humanas. Si te preguntas cómo podrían ayudar esos hallazgos a la industria financiera, ¿y si te dijera que si trabajas en el departamento de riesgo crediticio de un banco, tienes que buscar acreedores diligentes? En igualdad de condiciones, una persona diligente suele mostrar una probabilidad mucho menor de impago que una que no lo es. En esta misma línea, Oded Netezer, Alain Lemaire y Michal Herzenstein (2016) utilizan la minería de textos y diferentes técnicas estadísticas para evaluar 18.000 solicitudes de préstamos de Prosper.com, una plataforma online de micromecenazgo, para mostrar qué palabras son más o menos representativas de una persona con una buena o mala solvencia. Los autores intentan responder a un problema muy delicado. Imagina de nuevo que eres un gestor de riesgo crediticio, o un simple oficinista que trabaja en un banco, y necesitas saber si debes prestarle o denegarle dinero a un cliente. ¿Qué palabras te gustaría escuchar de tu cliente? ¿Cuáles preferirías no oír? Resulta que palabras como ‘dios’, ‘gracias’, ‘hospital’, ‘prometo’, ‘después de impuestos’ y ‘pagaré’ las suelen decir personas con un mal historial crediticio, mientras palabras como ‘graduado’, ‘tipo de interés más bajo’ o ‘pago mínimo’ identifican a personas con un buen historial crediticio. Tanto el estudio de Youyou, Kosinski y Stillwell (2015) con el análisis de Facebook, como el de Netezer, Lemaire y Herzenstein (2016) que investiga las mejores palabras para determinar la solvencia de la gente, se basan en el uso de técnicas de machine learning. ¿Pero qué es exactamente el machine learning? Formalmente, es la combinación de diferentes herramientas estadísticas y econométricas y de una cantidad de datos significativa que permite a los ordenadores aprender de los datos sin que se les haya programado explícitamente para hacerlo. La principal ventaja frente a la programación genérica, que requiere algunos inputs y un algoritmo de programación formal para producir un output, es que las técnicas de machine learning ‘aprenden’ a programar de forma empírica mediante el uso de datos existentes. Una vez que la máquina ha aprendido empíricamente el patrón que hay en los datos (la fase de entrenamiento), puede producir nuevos outputs a partir de nuevos inputs (la fase de predicción). Hay que destacar que el machine learning es una subdivisión del campo mucho más amplio de la inteligencia artificial. Entre las diferentes técnicas de machine learning, se está convirtiendo en un enfoque especialmente exitoso el uso de redes neuronales. Teóricamente, las principales razones de la popularidad de las redes neuronales están relacionadas con el teorema de aproximación universal de Hornik et al. (1989). Según este teorema, (bajo condiciones específicas) si se le enseña adecuadamente con suficientes datos, una red neuronal siempre es capaz de aproximar una función continua cualquiera. A partir de esta sólida base teórica, las redes neuronales pueden aproximar cualquier función mediante la detección empírica de patrones a partir de grandes conjuntos de datos. De hecho, este hallazgo tiene consecuencias convincentes, en particular para problemas que implican funciones muy complejas. Al trabajar con grandes grupos de datos (y ser, por tanto, una técnica basada por completo en datos), tanto el aumento constante de la potencia de computación como la disponibilidad de datos clasificados y no clasificados han sido elementos clave para explicar los impresionantes resultados logrados por las redes neuronales en una amplia gama de tareas, como la clasificación de imágenes. Una vez más, una consecuencia de la tercera revolución industrial presente en la cuarta revolución industrial. La principal idea detrás de las redes neuronales es imitar el comportamiento del cerebro humano, en particular las actividades de las neuronas del cerebro, y crear una formulación matemática de ese cerebro para extraer información de los datos de entrada. Dejando a un lado los tecnicismos, la réplica del cerebro humano a través de una red neuronal empieza por alimentarla con algunos inputs (1, 2, n) y por la producción de uno o más outputs mediante diferentes reelaboraciones entre las capas ocultas. Los resultados de cada nodo en las capas ocultas y de salida, las mencionadas reelaboraciones, no son más que combinaciones lineales de las capas previas que imitan las actividades de las neuronas en el cerebro. Desde los inputs hasta los outputs, esta operación se repite muchas veces para entrenar al modelo, es decir, para dejar que la máquina detecte el patrón del conjunto de datos. Luego, cuando la máquina aprende cómo funcionan los datos, puede repetirse el mismo proceso para crear nuevos outputs y hacer predicciones utilizando datos nuevos. Las técnicas de machine learning suponen una gran ventaja siempre que (1) los inputs y los outputs tengan una relación no lineal, y (2) no exista una solución de fórmula cerrada (es decir, una fórmula única que represente la resolución de nuestro problema).