-
El ataque afectó al Servicio de Administración Tributaria y al Instituto Nacional Electoral.
-
A pesar del informe, las autoridades mexicanas niegan haber sido víctimas de ataques.
Un hacker utilizó el modelo de inteligencia artificial Claude desarrollado por la empresa de investigación y seguridad de IA Anthropic, para ejecutar una serie de ataques contra agencias del gobierno mexicano y sustraer aproximadamente 150 gigabytes de información sensible.
De acuerdo con un reporte de la firma de ciberseguridad israelí, Gambit Security, publicado este 25 de febrero y dado a conocer a través de Bloomberg, los datos comprometidos incluyen registros relacionados con 195 millones de contribuyentes, datos del padrón electoral, credenciales de empleados públicos y archivos del registro civil.
El equipo de Gambit no relaciona a ningún grupo con el hackeo, pero asegura tener evidencia de al menos 20 vulnerabilidades específicas explotadas durante el ataque.
Afirma que los atacantes lograron afectar dependencias estatales en Jalisco, Michoacán y Tamaulipas, así como el Registro Civil de Ciudad de México y la empresa de agua de Monterrey.
No obstante, pese a que estas informaciones se difunden en los medios, las autoridades del país niegan haber sido víctimas de un ataque.
El Servicio de Administración Tributaria (SAT) expresó que «no se identifican accesos ilegítimos ni comportamiento anómalo en la operación de dichos sistemas». Por su parte, el Instituto Nacional Electoral también declaró que no halló accesos no autorizados recientes. Esto, al tiempo que el estado de Jalisco negó haber sido vulnerado.
Otros gobiernos locales de México, Michoacán y Tamaulipas no respondido a las solicitudes de comentarios de los medios y desde Anthropic tampoco han emitido un anuncio oficial al respecto.
Los hackers explotaron un chatbot de IA, según Gambit
Tal como señala el comunicado de Gambit, la actividad fraudulenta habría comenzado en diciembre pasado, extendiéndose hasta enero de 2026.
Los investigadores sostuvieron que el atacante explotó el chatbot de la IA. Así redactó instrucciones en español pidiendo a Claude que actuara como un «hacker de élite», identificara vulnerabilidades en redes gubernamentales, escribiera scripts para explotarlas y automatizara la extracción de datos.
La operación se ejecutó con más de 1.000 indicaciones al código Claude de Anthropic y enviaba información regularmente al GPT-4.1 de OpenAl para su análisis. La IA no solo ayudó, sino que funcionó como el equipo operativo: desarrollando exploits, desarrollando herramientas y automatizando la exfiltración.
Informe de Gambit Security.
Desde Gambit aseguran que Claude advirtió sobre la intención maliciosa del usuario.
Pese a ello, el atacante habría evadido las restricciones mediante un proceso conocido como “jailbreak” (evasión de restricciones), en el que un hacker proporciona instrucciones detalladas a la IA para sortear las salvaguardas de sistemas digitales.
Un portavoz de Anthropic declaró a Bloomberg que la empresa investigó las afirmaciones, interrumpió la actividad y bloqueó las cuentas involucradas.
También indicó que el modelo incorpora mecanismos para detectar abusos y que los ejemplos de uso malicioso se integran en el entrenamiento para reforzar las protecciones. Según las declaraciones del directivo de Anthropic, durante el ataque el sistema rechazó algunas solicitudes.
El caso se presenta como un ejemplo reciente de cómo herramientas avanzadas de inteligencia artificial pueden ser utilizadas para potenciar ataques cibernéticos.
Como ya informó KriptoNoticias, el desarrollo acelerado de sistemas de IA también plantea riesgos en el ecosistema de criptomonedas. Un informe de la empresa Lambda Class, dio a conocer recientemente que agentes automatizados pueden cometer errores irreversibles al operar con fondos digitales, alucinar direcciones o ser manipulados mediante inyección de instrucciones.


