Vitalik Buterin alerta sobre las fallas de seguridad en los agentes de IA más populares

  • Agentes de IA pueden modificar su propio system prompt sin confirmación del usuario.

  • Buterin propone correr modelos de lenguaje localmente, sin servidores en la nube.

Vitalik Buterin publicó este 2 de abril en su blog personal una entrada en la que detalla su configuración de inteligencia artificial (IA) «local y soberana». En ese texto, el cofundador de Ethereum señala fallas de seguridad en agentes de IA de uso masivo, con foco en OpenClaw, actualmente el repositorio de GitHub de mayor crecimiento en la historia.

Buterin sostiene que gran parte del ecosistema de IA —incluso el segmento de código abierto— es «completamente descuidado» en materia de privacidad y seguridad. Apunta que estos agentes pueden modificar su propio prompt del sistema sin que el usuario lo apruebe, y que una página web maliciosa puede tomar control del agente y ordenarle ejecutar scripts externos. También indica que hay plugins que envían datos del usuario a servidores de terceros de forma silenciosa, y que aproximadamente el 15% de los plugins que analizó contenían instrucciones maliciosas.

Ante ese panorama, Buterin expresa su preocupación por que, justo cuando se avanzaba en privacidad con el cifrado de extremo a extremo y el software local, se esté normalizando alimentar la IA en la nube con datos sobre la vida privada de las personas. Su respuesta es una configuración que corre modelos de lenguaje completamente en local, sin servidores remotos. Aclara, sin embargo, que su propuesta es un punto de partida, no una solución terminada.

Una preocupación que viene de antes

No es la primera vez que Buterin se pronuncia sobre los riesgos de la IA. En septiembre de 2025, como informó KriptoNoticias, el desarrollador advirtió que una gobernanza basada en IA abría la puerta a manipulaciones: si un sistema asigna fondos de forma automatizada, los usuarios podrían intentar engañarlo mediante jailbreaks para obtener beneficios indebidos.

En marzo de 2026, señaló que el uso de IA para programar más rápido no garantiza código más seguro, y que un experimento de vibecoding logró construir una versión del roadmap 2030 de Ethereum en pocas semanas, pero con errores críticos y componentes incompletos.

La publicación del 2 de abril extiende esa línea de análisis al uso cotidiano de agentes de IA. Los problemas que Buterin señala ya eran conocidos por investigadores de seguridad tradicionales, lo que indica que las fallas no son nuevas para el sector, aunque siguen sin resolverse. Esto teniendo en cuenta que fallos en contratos inteligentes programados por IA ya han comenzado a causar estragos, como el caso de Moonwell, en el que un contrato defectuoso programado por IA y aprobado por humano, causó el hackeo de más de 1,7 millones de dólares.

Articulos Relacionados