El 11/13/24, FinCEN emitió una alerta destinada a ayudar a las instituciones financieras a reconocer esquemas fraudulentos vinculados al uso de medios deepfake (medios ultrafalsos) generados por herramientas de inteligencia artificial generativa (“GenAI”). La alerta sobre medios deepfake describe las diversas tipologías relacionadas con estos esquemas, ofrece indicadores de alerta para ayudar en la detección y denuncia de actividades sospechosas y sirve como recordatorio a las instituciones financieras sobre sus obligaciones en virtud de la Ley de Secreto Bancario (“BSA”). FinCEN ha observado un aumento en la denuncia de actividades sospechosas por parte de las instituciones financieras, en particular en relación con el supuesto uso de tecnología deepfake. Esto incluye el uso fraudulento de documentos de identidad destinados a eludir los procesos establecidos de verificación y autenticación de identidad. El uso indebido de herramientas de inteligencia artificial generativa es un factor que contribuye a la escalada de delitos cibernéticos y fraudes, que son fundamentales para las prioridades nacionales de FinCEN en materia de lucha contra el blanqueo de dinero y la financiación del terrorismo. Esta alerta forma parte de la iniciativa integral del Departamento del Tesoro de los EE. UU. para brindar a las instituciones financieras información sobre los posibles beneficios y desafíos asociados con la implementación de la inteligencia artificial. En consecuencia, se alienta a las instituciones financieras a colaborar con profesionales de gobernanza corporativa que sean expertos en herramientas GenAI fraudulentas.
Herramientas GenAI disponibles públicamente para Medios Deepfake
La alerta de FinCEN afirma que la llegada de herramientas de IA Generativa (GenAI) ha disminuido significativamente los recursos necesarios para la creación de contenido sintético de alta calidad. Esto abarca medios que se generan completamente a través de procesos digitales o artificiales o medios que han sido alterados o manipulados utilizando diversas tecnologías, ya sean analógicas o digitales. En numerosos casos, GenAI ahora es capaz de producir contenido sintético que es indistinguible del material original o generado por humanos. El contenido generado por GenAI que exhibe un alto grado de realismo a menudo se denomina contenido «deepfake» o ultrafalso. Los deepfakes pueden fabricar eventos auténticos, como un individuo que parece realizar o articular acciones que realmente no realizó.
El análisis de los datos del BSA realizado por FinCEN indica que los delincuentes han utilizado GenAI para:
- crear documentos, fotografías y vídeos falsificados para eludir los controles de identificación, verificación y diligencia debida de los clientes de las instituciones financieras.
- alterar o generar imágenes utilizadas para documentos de identificación, como licencias de conducir o pasaportes y libros.
- combinar imágenes de GenAI con información personal identificable robada o información personal identificable completamente falsa para crear identidades sintéticas.
- abrir cuentas utilizando identidades fraudulentas que se sospecha que se han producido con GenAI y utilizar esas cuentas para recibir y lavar las ganancias de otros esquemas de fraude que incluyen estafas en línea, fraude con cheques, fraude con tarjetas de crédito, fraude con pagos automáticos, fraude con préstamos o fraude por desempleo.
- abrir cuentas fraudulentas utilizando GenAI, crear documentos de identidad y utilizarlos como cuentas de embudo.
Las instituciones financieras identifican con frecuencia GenAI y contenido sintético en los documentos de identidad al realizar reevaluaciones exhaustivas de la documentación presentada durante el proceso de apertura de la cuenta. Dicho esto, FinCEN afirma que hay tres indicadores que justifican un escrutinio adicional:
- Inconsistencias entre los múltiples documentos de identidad presentados por el cliente;
- La incapacidad de un cliente para autenticar satisfactoriamente su identidad, fuente de ingresos u otro aspecto de su perfil; y
- Inconsistencias entre el documento de identidad y otros aspectos del perfil del cliente.
Las instituciones financieras han implementado medidas de debida diligencia mejoradas para identificar documentos de identidad deepfake más allá del proceso inicial de apertura de la cuenta. Aunque los siguientes indicadores no indican definitivamente una actividad sospechosa, pueden dar lugar a una investigación más profunda:
- Acceso a una cuenta desde una dirección IP que no se alinea con el perfil establecido del cliente.
- Patrones observables de acciones coordinadas entre múltiples cuentas similares.
- Volúmenes de pago significativos dirigidos a destinatarios potencialmente de alto riesgo, como plataformas de juegos de azar en línea o intercambios de activos digitales.
- Una alta frecuencia de devoluciones de cargos o transacciones rechazadas.
- Patrones de transacciones rápidas de cuentas recién creadas o aquellas con un historial de transacciones mínimo.
- Retiros de fondos inmediatos después de los depósitos, en particular a través de métodos que complican las reversiones en casos sospechosos de fraude, como transferencias bancarias internacionales o pagos a sitios de apuestas en el extranjero e intercambios de activos digitales.
FinCEN ha identificado nueve indicadores de señales de alerta de medios deepfake para ayudar a las instituciones financieras a detectar, prevenir y denunciar posibles actividades sospechosas relacionadas con el uso de herramientas GenAI para fines ilícitos. A continuación, se incluyen los extractos:
- La foto de un cliente es internamente inconsistente (por ejemplo, muestra indicios visuales de haber sido alterada) o es inconsistente con su otra información de identificación (por ejemplo, la fecha de nacimiento de un cliente indica que es mucho mayor o menor de lo que la foto sugeriría).
- Un cliente presenta múltiples documentos de identidad que son inconsistentes entre sí.
- Un cliente utiliza un complemento de cámara web de terceros durante una verificación en vivo. Alternativamente, un cliente intenta cambiar los métodos de comunicación durante una verificación en vivo debido a fallas tecnológicas excesivas o sospechosas durante la verificación remota de su identidad.
- Un cliente se niega a utilizar la autenticación multifactor para verificar su identidad.
- Una búsqueda de imagen inversa o una búsqueda de código abierto de una foto de identidad coincide con una imagen en una galería en línea de rostros producidos por GenAI.
- La foto o el video de un cliente está marcado por un software de detección de deepfake comercial o de código abierto.
- El software de detección de GenAI señala el posible uso de texto GenAI en el perfil de un cliente o en las respuestas a las solicitudes.
- Los datos geográficos o del dispositivo de un cliente no coinciden con los documentos de identidad del cliente.
- Una cuenta recién abierta o una cuenta con poco historial de transacciones previas tiene un patrón de transacciones rápidas; altos volúmenes de pago a beneficiarios potencialmente riesgosos, como sitios web de juegos de azar o intercambios de activos digitales; o altos volúmenes de devoluciones de cargos o pagos rechazados.
Sepa esto
Los medios deepfake también diseñan ataques dirigidos a clientes y empleados de instituciones financieras, lo que facilita diversas estafas y actividades fraudulentas. Estas incluyen esquemas de compromiso de correo electrónico comercial (“Business Email Compromise” o “BEC”), phishing selectivo, explotación financiera de personas mayores, estafas románticas y fraude de inversión en moneda virtual.
¿Ha sido su institución financiera víctima de fraude de medios deepfake?
¿Tiene procesos establecidos su institución financiera para prevenir o reducir el riesgo de documentos de identidad deepfake?
¿Esta su institución financiera informada sobre actividades sospechosas relacionadas con el uso de herramientas GenAI para fines ilícitos?
¿Quién es su asesor de gobernanza corporativa? ©