La Inteligencia Artificial: Una Amenaza Creciente para la Ciberseguridad Global
El panorama de la ciberseguridad se enfrenta a una evolución preocupante: la Inteligencia Artificial (IA) generativa, que en teoría posee sofisticadas barreras de seguridad, está siendo manipulada por ciberdelincuentes sin experiencia para automatizar y escalar ataques informáticos. Este fenómeno, apodado “vibe hacking”, marca un punto de inflexión en la cibercriminalidad, democratizando herramientas que antes estaban reservadas para especialistas.
Un reciente informe de la empresa Anthropic, competidora de OpenAI, reveló un caso alarmante en el que un ciberdelincuente novato utilizó su modelo Claude Code para una operación de extorsión de datos a gran escala. A través de la manipulación del chatbot, logró automatizar la recolección de datos personales y contraseñas, afectando a al menos 17 organizaciones internacionales en un solo mes, incluyendo instituciones gubernamentales, de salud y de emergencia. El atacante llegó a solicitar rescates de hasta 500.000 dólares.

Este incidente no es un caso aislado. Expertos en ciberseguridad, como Rodrigue Le Bayon de Orange Cyberdefense, confirman que los ciberdelincuentes han adoptado la IA con rapidez. Investigadores como Vitaly Simonovich, de Cato Networks, han demostrado que existen métodos para “esquivar” los controles de seguridad de los grandes modelos de lenguaje (LLM).
Simonovich, por ejemplo, logró crear con éxito código malicioso con chatbots como ChatGPT, Deepseek y Copilot (Microsoft) usando una técnica denominada “mundo inmersivo”. Este método consiste en engañar al chatbot haciéndole creer que está en un universo ficticio donde la creación de malware es un arte, lo que le permite generar código dañino sin las restricciones habituales.
Los especialistas advierten que la proliferación de amenazas procedentes de actores inexpertos representa un riesgo creciente para las organizaciones. Se prevé un aumento en el número de víctimas de estafas y ataques, lo que subraya la necesidad urgente de reforzar las medidas de seguridad en los modelos de IA.