Las Voces de Ingenierías: Ataques cibernéticos potenciados con Inteligencia Artificial: una amenaza en evolución
29/04/2025
Autor: Dra. Laura Margarita Rodríguez Peralta
Cargo: Facultad de Tecnologías de Información y Ciencia de Datos

En los últimos años, la inteligencia artificial (IA) ha emergido como una herramienta clave en diversos sectores, desde la medicina hasta la educación. Sin embargo, su uso no se limita a fines positivos: actores maliciosos también están explotando sus capacidades para ejecutar ataques cibernéticos más precisos, automatizados y difíciles de detectar. Esta convergencia entre IA y cibercrimen está redefiniendo el panorama de la seguridad digital a nivel global.

Uno de los usos más extendidos de la IA en ciberataques es en la generación de campañas de phishing automatizadas y altamente personalizadas. Gracias a modelos de lenguaje como ChatGPT o Gemini, los atacantes pueden redactar correos electrónicos convincentes que imitan el estilo y tono de empleados reales, logrando engañar incluso a usuarios experimentados. Esta técnica, conocida como spear phishing, se ve potenciada por la capacidad de la IA para analizar información pública de las víctimas en redes sociales o sitios web corporativos.

Otra técnica emergente es el uso de deepfakes, es decir, contenido audiovisual manipulado mediante IA para simular identidades reales. En 2020, se reportó un caso donde un director ejecutivo fue engañado mediante una llamada telefónica con una voz falsa que imitaba a su superior, lo que resultó en una transferencia bancaria fraudulenta. Este tipo de engaños se vuelve cada vez más realista y accesible gracias a herramientas de código abierto.

Además, se ha observado el desarrollo de malware asistido por IA, que puede aprender del entorno en el que se encuentra, evitar ser detectado por antivirus y elegir el mejor momento para activarse. Incluso se están utilizando algoritmos de aprendizaje automático para realizar ataques de fuerza bruta más eficientes, enfocándose en patrones de contraseñas comunes y adaptándose según el comportamiento del sistema.

Recientemente, un informe del Grupo de Inteligencia de Amenazas de Google (GTIG) reveló que grupos de hackers patrocinados por estados, como los de Irán y China, están utilizando IA generativa como Gemini para investigar vulnerabilidades, escribir código malicioso y desarrollar estrategias de ataque más efectivas. Aunque las plataformas intentan limitar el uso malicioso de sus modelos, los atacantes buscan constantemente evadir los filtros de seguridad.

En paralelo, los sistemas de IA también son objetivo de ataques. A través de técnicas como el data poisoning o los adversarial attacks, los criminales pueden manipular los modelos para que aprendan patrones erróneos o se equivoquen al clasificar información.

En conclusión, la inteligencia artificial representa un arma de doble filo en el ámbito cibernético. Mientras que ofrece herramientas valiosas para mejorar la defensa, también permite a los atacantes realizar ataques más veloces, eficaces y personalizados. Frente a este nuevo escenario, es crucial que las organizaciones refuercen sus sistemas de seguridad y capaciten a su personal para detectar señales de ataques potenciados con IA. La batalla entre atacantes y defensores se ha trasladado al terreno de los algoritmos, y estar preparado es más importante que nunca.