La IA es una herramienta complementaria y no un sustituto del pensamiento humano
26/02/2025
Autor: Juan Méndez
Foto: Juan Méndez

Estamos inmersos en la cuarta revolución industrial, caracterizada por la implementación de algoritmos de IA en diversos sectores. Estos mecanismos han demostrado ser herramientas eficaces para analizar grandes volúmenes de datos, mejorar la eficiencia y optimizar procesos tanto en la industria como en la vida cotidiana.

En un mundo cada vez más digitalizado, la inteligencia artificial (IA) juega un papel crucial en la toma de decisiones. Por ello, es fundamental reflexionar sobre los dilemas que plantea su uso y el papel insustituible del análisis humano. Así lo destacó Damián Emilio Gibaja Romero, Director del Departamento de Matemáticas de UPAEP, al abordar la relación entre las matemáticas y los dilemas derivados del uso de la inteligencia artificial.

Gibaja Romero señaló que vivimos la cuarta revolución industrial, caracterizada por la implementación de algoritmos de IA en diversos sectores. Estos mecanismos han probado ser herramientas eficaces para analizar grandes volúmenes de datos, mejorar la eficiencia y optimizar procesos tanto en la industria como en la vida cotidiana.

La inteligencia artificial ha demostrado ser una herramienta poderosa en diversas disciplinas del conocimiento, incluidas las matemáticas. Sin embargo, más allá de su potencial, es crucial reflexionar sobre su impacto y la necesidad de un uso responsable, señaló Gibaja.

"Las matemáticas están en todas partes y la inteligencia artificial ayuda a simplificar procesos laboriosos. Su potencial es enorme, puede servir como un gran asistente para resolver problemas complejos en una sociedad interconectada", explica Gibaja Romero. No obstante, advierte que la sobredependencia en estas tecnologías podría generar ceguera informativa, pues los usuarios pueden asumir los resultados de la IA sin un análisis crítico.

Desde la planificación de actividades hasta el monitoreo de la salud, la IA ha facilitado numerosas tareas. Sin embargo, su creciente incorporación también plantea desafíos relacionados con la toma de decisiones, especialmente en situaciones con implicaciones éticas y estratégicas.

Uno de los principales dilemas del uso de IA, según Gibaja Romero, es la sustitución total o parcial de tomadores de decisiones humanos. Por ejemplo, en la industria automotriz, los vehículos autónomos deben resolver situaciones críticas, como elegir entre proteger la vida del conductor o la de un peatón en caso de un accidente inminente. Estos conflictos éticos evidencian la necesidad de establecer parámetros claros sobre cómo deben actuar las IA ante situaciones de riesgo.

Otro dilema que señala el especialista es el de la racionalidad limitada. La IA toma decisiones basándose en sus datos de entrenamiento, pero su análisis puede carecer de una visión integral que considere el impacto a largo plazo y el contexto social más amplio.

Desde las matemáticas, particularmente desde la teoría de juegos, se estudian estos conflictos para comprender cómo la toma de decisiones individuales afecta el bienestar colectivo. Un ejemplo clásico es el "dilema del prisionero", que demuestra cómo la búsqueda de un beneficio individual puede resultar perjudicial para todas las partes.

Gibaja Romero advierte que, si todos los agentes de un sistema dependen de IA para tomar decisiones, podría generarse una racionalidad limitada colectiva, donde las decisiones optimizadas individualmente no necesariamente beneficien a la sociedad en conjunto. Este escenario subraya la necesidad de diseñar inteligencias artificiales que incorporen análisis estratégico y consideren el impacto de sus decisiones en todos los involucrados.

Para mitigar estos dilemas, es esencial desarrollar algoritmos más responsables y explicables. Una IA explicable permite que los humanos comprendan su proceso de toma de decisiones, evitando que actúe como una "caja negra" sin supervisión.

La teoría de juegos propone axiomatizar la cooperación dentro de los sistemas de IA. En este sentido, Gibaja Romero enfatiza que las matemáticas enfrentan el desafío de diseñar mecanismos que no solo optimicen la toma de decisiones, sino que también promuevan soluciones beneficiosas para la mayor cantidad de personas posible.

Si bien la inteligencia artificial ha revolucionado la forma en que analizamos y resolvemos problemas, su aplicación conlleva desafíos y dilemas éticos. Es indispensable que los sistemas de IA se diseñen con principios de cooperación y responsabilidad, garantizando que sus decisiones sean explicables y beneficiosas para toda la sociedad.

En este panorama, el análisis humano sigue siendo fundamental. La inteligencia artificial es una herramienta poderosa, pero la reflexión y el juicio crítico de las personas son esenciales para garantizar que su uso sea ético, equitativo y orientado al bien común.

Gibaja Romero enfatiza la necesidad de fomentar una "inteligencia artificial responsable" para evitar escenarios distópicos donde la IA supere el control humano. Cita a Japón y su concepto de "Sociedad 5.0" como modelo ideal, donde los robots colaborativos o "cobots" trabajan junto a los humanos sin sustituirlos. "Si permitimos una sustitución total de personas, podríamos regresar a dilemas éticos complejos", señala.

Un reto clave es que los estudiantes actuales conocen más herramientas digitales que sus profesores. "Antes, los docentes dominaban software como MATLAB y los alumnos aprendían de ellos. Ahora, los estudiantes utilizan aplicaciones como Photomath que resuelven problemas con solo una foto", comenta. La educación debe evolucionar hacia el desarrollo del pensamiento crítico para evaluar y validar las respuestas de la IA.

Damián Emilio Gibaja también destaca el avance de China en el desarrollo de IA, con iniciativas como Deep Sync, que compite con ChatGPT. "China ha seguido un plan a largo plazo, invirtiendo en educación e investigación. Muchos de sus estudiantes se han formado en las mejores universidades del mundo y ahora están desplazando tecnologías occidentales", afirma. Para el experto, Occidente ha descuidado la investigación en IA, lo que podría resultar en pérdida de competitividad futura.

Finalmente, el experto subraya que la IA debe considerarse una herramienta complementaria y no un sustituto del pensamiento humano. "No debemos perder la capacidad de reflexión y análisis. La inteligencia artificial puede ayudarnos a resolver problemas, pero la interpretación y el juicio deben seguir siendo humanos", concluye.