-
La cifra refleja la creciente sofisticación de las amenazas que enfrentan los exchanges y usuarios.
-
Binance Research advirtió que la IA es “dos veces más efectiva” para explotar vulnerabilidades.
Binance aseguró este 11 de mayo que sus herramientas de seguridad impulsadas por inteligencia artificial permitieron evitar pérdidas potenciales por USD 10.530 millones entre el primer trimestre de 2025 y el segundo trimestre de 2026, en beneficio de millones de usuarios afectados por intentos de fraude con criptomonedas.
De acuerdo con la publicación, la plataforma indicó que ha desarrollado cerca de 24 funciones de protección basadas en IA para reforzar la detección de estafas y actividades sospechosas dentro de su ecosistema.
La empresa explicó que utiliza visión artificial para identificar comprobantes de pago manipulados y sistemas de análisis lingüístico en tiempo real para detectar patrones fraudulentos en operaciones P2P. Además, señaló que el 57% de sus controles antifraude ya funcionan con modelos de IA, lo que habría reducido entre 60% y 70% los casos de fraude con tarjetas frente a los niveles habituales del sector.
Binance también afirmó que sus sistemas de verificación KYC han evolucionado para combatir identidades sintéticas y falsificaciones profundas, logrando mejoras operativas hasta 100 veces superiores respecto a los procesos manuales tradicionales, no sólo con IA sino a través de herramientas, como el reciente lanzamiento de Withdraw Protection, una nueva función de seguridad que permite bloquear los retiros de criptomonedas durante un período configurable de entre 1 y 7 días, como lo explicó Criptonoticias.
Sin embargo, Binance Research advirtió en el pasado que la inteligencia artificial “es actualmente dos veces más efectiva para explotar vulnerabilidades que para detectarlas” y que las estafas potenciadas con IA pueden ser hasta 4,5 veces más rentables que las tradicionales.
El uso de la inteligencia artificial se ha intensificado tanto en el ecosistema, donde cada vez son más las compañías que implementan este tipo de tecnología, especialmente para reforzar la seguridad de los procesos.
Sin embargo, la IA también es utilizada entre ciberdelincuentes, quienes las emplean para desarrollar fraudes más complejos y malware avanzado, como el recién descubrimiento de Google, que aseguró haber detectado el primer caso documentado de una vulnerabilidad de día cero (o exploit zero-day) desarrollada con ayuda de inteligencia artificial, un hallazgo que podría marcar un punto de inflexión en la evolución de las ciberamenazas.


