
En febrero de 2024, el tesorero de una filial bancaria en Hong Kong transfirió US$25 millones tras una videollamada con su supuesto CFO, que resultó ser generado por inteligencia artificial. La imagen, voz y comportamiento eran casi perfectos. El fraude se concretó en minutos.
¿Qué falló?
La confianza fue total, y los protocolos de verificación no consideraban un escenario de suplantación hiperrealista. No se exigió confirmación multicanal ni hubo una política de control y aprobaciones duales para transferencias de alto valor.
¿Se pudo evitar?
Es probable que sí. Con protocolos que exijan doble validación por canales independientes (correo + firma física o telefónica), límites para aprobación individual y reglas de segregación de funciones, la transacción pudo haberse bloqueado.
¿Qué nos deja este caso?
Los riesgos evolucionan. Y los controles deben hacerlo también. El fraude con IA ya no es futurismo: es presente. Las empresas deben revisar sus matrices de riesgo y actualizar sus protocolos con visión realista de amenazas tecnológicas.