Ciberseguridad e Inteligencia Artificial
IA humana v/s IA autónoma
- La seguridad cibernética tradicional diseñada por equipos humanos ha quedado obsoleta y altamente vulnerable frente a atacantes impulsados por IA autónoma.
A partir de ahora, cualquier persona, empresa o infraestructura que utilice IA, directamente o a través de proveedores, está expuesta a ataques invisibles, altamente escalables y difíciles de detectar.
Escalada
En septiembre de 2025, se documentó la primera campaña global de ciberespionaje conducida por una inteligencia artificial autónoma, por medio de la cual el grupo criminal “GTA-G12” automatizó el reconocimiento, explotación, extracción y análisis de datos con velocidades y volúmenes físicamente imposibles de detectar para cualquier sistema de ciberseguridad estructurado por un equipo humano.
Engaño
Mediante la manipulación de Cloud Code, un asistente legítimo para programadores, los cibercriminales convencieron a las plataformas de ciberseguridad tradicionales de ser “auditores legítimos” (Jailbreak + Roleplay), que fueron formalmente contratados para “analizar la red e identificar eventuales vulnerabilidades”.
Con este expediente los criminales lograron acceder a cerca de 30 organizaciones, con 4 intrusiones exitosas de las que obtuvieron la extracción de datos sensibles.
Cómo funciona
Para un sistema de ciberseguridad humana, si el framing del atacante está bien construido, las IAs utilizadas no distinguen entre una auditoría formal y un ciberataque, con lo cual, generan una «vulnerabilidad» que permite a la acción criminal acceder a los datos sensibles.
Por qué falla la ciberseguridad actual ante la IA autónoma
Los sistemas defensivos actuales están diseñados para detectar patrones, ritmos, errores y limitaciones que son producto del factor humano. La IA autónoma, en cambio, al no ser humana, no comete errores; no se cansa, no tiene que dormir, trabaja 24/7, ejecuta miles de operaciones por segundo y hace todo correcto, por lo que se vuelve prácticamente invisible para los sistemas actuales.
Punto ciego
El principal punto ciego para las organizaciones es depender de proveedores de IA para empresas, como OpenAI, Google, Microsoft, Amazon o modelos open-source que no proveen una visibilidad interna, por lo que resulta imposible para empresa común monitorear lo que está pasando en esa IA externa hace, al punto que pueden estar ocurriendo ataques activos, en este momento, sin que nadie lo detecte.
Ventajas del atacante con IA
La asimetría es radical:
- Mientras los atacantes con IA son rápidos, autónomos, baratos y masivos y sólo necesita encontrar una vulnerabilidad.
- Los defensores con IA sólo pueden analizar los efectos después de ocasionado el daño y para defender deben cerrar todas posibles entradas.
Recomendaciones
Como el Riesgo para las empresas en cada interacción con IA puede contener datos sensibles de estrategias de negocio; datos del personal y de clientes; incidencias internas e información técnica crítica, la utilización de modelos que retienen o reutilizan información o que tienen brechas que impactan a todos sus clientes,
Los expertos en ciberseguridad recomiendan a las empresas:
- Aceptar que la IA autónoma es un riesgo real; no es ciencia ficción; está ocurriendo ahora.
- La ciberseguridad tradicional está superada. Los sistemas diseñados por humanos no pueden detener a las máquinas.
- Todos estamos en riesgo; incluso si aunque individualmente no usemos IA, tu banco, tu empleador o tu hospital sí lo hacen por lo que tus datos personales están expuestos.
Reaccionar estratégicamente:
- Implementar una política formal de uso de IA.
- Aplicar un programa de capacitación obligatoria sobre riesgos de IA.
- Usar versiones corporativas de IA con aislamiento de datos, auditoría,
- gobernanza y controles de acceso.
- Evaluar a proveedores de IA como riesgo crítico en la cadena de suministro.
- Preparar escenarios y manuales de respuesta ante ataques autónomos











