Caso Hong Kong – Suplantación con IA: el nuevo rostro del fraude

En febrero de 2024, el tesorero de una filial bancaria en Hong Kong transfirió US$25 millones tras una videollamada con su supuesto CFO, que resultó ser generado por inteligencia artificial. La imagen, voz y comportamiento eran casi perfectos. El fraude se concretó en minutos.

¿Qué falló?

La confianza fue total, y los protocolos de verificación no consideraban un escenario de suplantación hiperrealista. No se exigió confirmación multicanal ni hubo una política de control y aprobaciones duales para transferencias de alto valor.

¿Se pudo evitar?

Es probable que sí. Con protocolos que exijan doble validación por canales independientes (correo + firma física o telefónica), límites para aprobación individual y reglas de segregación de funciones, la transacción pudo haberse bloqueado.

¿Qué nos deja este caso?

Los riesgos evolucionan. Y los controles deben hacerlo también. El fraude con IA ya no es futurismo: es presente. Las empresas deben revisar sus matrices de riesgo y actualizar sus protocolos con visión realista de amenazas tecnológicas.