Tradicionalmente, los premios Nobel se otorgan a quienes hayan realizado aportaciones significativas en la Física, Química, Medicina, Literatura o la Paz. Sin embargo, en octubre del año pasado, el premio Nobel de Física causó cierta polémica en la comunidad científica pues fue otorgado por las aplicaciones de la Física al desarrollo de las redes neuronales artificiales. Es decir, se otorgó por el impacto de la Física en un área que conjuga las Matemáticas con la Computación, en lugar de ser otorgado por un descubrimiento físico. Por ejemplo, en 2017, Kip Thorne recibió el galardón por la detección de ondas gravitacionales, mientras que en 2023, L’Huillier, Agostini y Krausz lo ganaron por los métodos experimentales que desarrollaron para estudiar a los electrones.
Determinar sí fue correcto, o no, otorgar el Nobel de Física 2024 a John Hopfield y Geoffrey Hinton por la aplicación de herramientas de la Física a las redes neuronales nos puede llevar varias columnas. Sin embargo, es claro que las aportaciones de Hopfield y Hinton son merecedoras de un galardón de tal magnitud. Sus descubrimientos han contribuido a perfeccionar y hacer más eficientes a las redes neuronales artificiales (RNA). Sus descubrimientos han convertido a las RNA en una herramienta fundamental en la consolidación y expansión de la Inteligencia Artificial.
Particularmente, la red de Hopfield tiene la capacidad de reconstruir información a partir de datos que contienen ruido, es decir, que se encuentran incompletos. Por su parte, Hinton extendió la red anterior por medio de la física estadística (asociada al estudio de estados estocásticos) para la identificación y discernimiento de patrones considerando diferentes datos.
El éxito de las RNA radica en su capacidad para inferir información a partir de los datos disponibles gracias a la base matemática que hay detrás de ellas. Por un lado, iniciamos con una transformación que relaciona, de manera genérica, un espacio de características con uno de etiquetas. Posteriormente, lo anterior se puede parametrizar para construir diferentes modelos (RNA) cuyas predicciones se acerquen a la realidad. Así, el mejor modelo es aquel con los parámetros (pesos) que minimicen la ¿distancia? entre los espacios anteriores.
Aunque las distancias miden errores, su construcción es demandante. Así, mientras más datos omitidos haya, definir la distancia deja de ser claro. Por ello, las RNA suelen trabajar con funciones de pérdida; es decir, funciones que miden que tan diferente es la predicción del dato real, pero que pueden tomar valores negativos (cuando se recupera información) y cuyo valor mínimo siempre existe. Aunque fácil de escribir, minimizar funciones tan generales no es tan sencillo como al hacerlo con distancias tradicionales. Por ello, las aportaciones de Hopfield y Hinton ayudaron a reactivar, en la década de los 80, un área sobre la cual había muchas dudas por el limitado poder computacional que se tenía, y la complejidad matemática de los algoritmos.