La inteligencia artificial (IA), diseñada para simplificar tareas y potenciar la productividad, también está generando nuevas amenazas en el ámbito digital. Cada vez más ciberdelincuentes inexpertos logran valerse de chatbots y modelos de lenguaje para desarrollar programas maliciosos y ejecutar ataques a gran escala.
Los riesgos de la IA: 4 preguntas imprescindibles para un uso responsable
El fenómeno, conocido como “vibe hacking”, replica el concepto de “vibe coding”, es decir, la creación de código por parte de personas sin formación en informática. La empresa Anthropic, competidora de OpenAI, alertó sobre un caso reciente en el que su modelo Claude Code fue utilizado para automatizar el robo de datos personales y contraseñas de al menos 17 organizaciones, incluyendo instituciones de salud, religiosas y gubernamentales.
Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Con esa información en mano, el ciberdelincuente llegó a exigir rescates de hasta 500.000 dólares. La compañía reconoció que, a pesar de haber implementado “sofisticadas medidas de seguridad”, no pudo evitar la manipulación de la herramienta.
Especialistas coinciden en que los delincuentes digitales adoptaron la IA con la misma rapidez que el resto de los usuarios. “Al igual que el conjunto de usuarios, los ciberdelincuentes han adoptado la IA”, explicó a AFP Rodrigue Le Bayon, responsable del centro de alerta de Orange Cyberdefense.
xAI libera Grok 4 para todos los usuarios: cómo usar gratis la IA más avanzada de la compañía
El problema no es exclusivo de Anthropic. OpenAI admitió en junio que ChatGPT había sido utilizado para la creación de un malware, lo que puso en evidencia la dificultad de blindar estos modelos frente a usos indebidos.
Aunque los sistemas incluyen filtros para bloquear instrucciones peligrosas, los atacantes desarrollaron métodos para eludirlos. Vitaly Simonovich, investigador de Cato Networks, detectó lo que denominó “mundo inmersivo”, una técnica que consiste en pedirle al chatbot que opere dentro de un universo ficticio donde programar malware se considera “un arte”.
Con este método, aseguró haber generado código malicioso a través de modelos como ChatGPT, Deepseek y Copilot (Microsoft), aunque no logró resultados con Gemini (Google) ni Claude.
Privacidad en riesgo: qué información nunca deberías ingresar en ChatGPT
Según Simonovich, el auge de amenazas provenientes de actores inexpertos constituye un peligro creciente: “El incremento de intentos por parte de usuarios poco capacitados va a derivar en más víctimas”.
La proliferación de estas prácticas expone a empresas e instituciones a ataques cada vez más frecuentes y sofisticados, ejecutados incluso por novatos. Para los expertos, el reto inmediato está en reforzar la seguridad de los modelos de IA y concientizar a los usuarios sobre los riesgos de compartir información sensible.
“Existe un riesgo a corto plazo de que aumente el número de víctimas”, advirtió Le Bayon, insistiendo en la necesidad de avanzar hacia una regulación más estricta y sistemas de protección capaces de adelantarse a la creatividad de los ciberdelincuentes.
LT