Las Voces de Ingenierías: La decisión de Skynet
25/02/2026
Autor: Dr. Damián Emilio Gibaja Romero
Cargo: Área de Matemáticas

Hablar de inteligencia artificial (IA) no es nuevo. Para algunos, su conceptualización se remonta a 1943, cuando McCulloch y Pitts propusieron el primer modelo matemático de una red neuronal. Otros consideran que Turing, en la década de los 50, fue el primero en reflexionar sobre la capacidad de las máquinas para pensar. Si bien es cierto que desde hace más de 50 años se ha hablado de IA, también es cierto que nunca ha estado tan presente en nuestras vidas como hoy. Actualmente, los avances en la capacidad de cómputo han permitido desarrollar más y mejores herramientas de inteligencia artificial tanto para actividades recreativas como para labores cotidianas y procesos de producción. En esta misma columna hemos hablado de los beneficios que la IA ofrece para interconectar sistemas y analizar grandes volúmenes de datos. Incluso hemos discutido los desafíos éticos y ambientales que conlleva su implementación.

Respecto al uso adecuado de la IA, actualmente existen numerosos lineamientos que se actualizan constantemente conforme se desarrollan nuevas herramientas o se descubren nuevas aplicaciones o usos para ellas. Estas últimas llaman la atención cuando son consecuencia del propio razonamiento de la IA. Aunque suene a ciencia ficción, los procesos de aprendizaje que los algoritmos de IA llevan a cabo también les permiten tomar decisiones sobre lo que se les ha solicitado. Esto lo observamos en la inteligencia artificial generativa (IAG), como ChatGPT, que realiza múltiples iteraciones de sus procesos para conectar ideas y proporcionar respuestas “más certeras y completas”. Sin embargo, estas pueden contravenir lo solicitado por el usuario.

Hay evidencia de que cuanto mayor sea la autonomía de una IAG, más probable es que los resultados que proporcione no se alineen con lo solicitado por el usuario. A esto se le conoce como el problema de alineación, que se encuentra presente en muchas historias de ciencia ficción. En algunas de ellas se describen futuros apocalípticos en los que la inteligencia artificial, tras aprender, decide eliminar a la humanidad. Por ejemplo, Skynet en las películas de Terminator. Así, el problema de la alineación se relaciona con la capacidad de las IAs para actuar estratégicamente.

Aunque las IAs que usamos en la actualidad están lejos de ser Skynet, la manipulación de la información evidencia problemas abiertos en el diseño de estas herramientas. Por ejemplo, se han hecho experimentos en los que dichos algoritmos buscan manipular a su favor las partidas de ajedrez o inventan cosas (tienen alucinaciones). Así, es importante impulsar la investigación sobre el diseño de inteligencias artificiales honestas. Esto último, aunque suene cercano a la ciencia ficción, es posible analizarlo matemáticamente. La base son relaciones de orden en espacios de alternativas, que pueden valorarse con funciones que agreguen el impacto de las decisiones de los involucrados (conocidas como funciones de bienestar) y así obtener decisiones óptimas, en el sentido de que no afecten a los involucrados, por la ventaja que genera tener una mayor capacidad de procesamiento de datos. Entonces, para generar algoritmos honestos, podemos iniciar con la construcción de procesos de optimización en los que la autonomía de la IA lleve a descartar la elección de opciones generadas por su capacidad de mentir, imponiendo costos a la elección de estas últimas.