
Las empresas se preparan para los pagos fraudulentos
Cómo identificar y combatir el fraude habilitado por IA
PUNTOS CLAVE
- Fraude mejorado por IA: Las herramientas de IA están haciendo que las actividades fraudulentas sean más sofisticadas y difíciles de detectar, lo que plantea riesgos significativos para las empresas.
- Medidas proactivas: La implementación de sistemas de detección de fraude impulsados por IA, la autenticación multifactor y el monitoreo continuo de transacciones son cruciales.
- Formación de empleados: La capacitación regular sobre tácticas de ingeniería social y protocolos de verificación es esencial para prevenir el fraude.
¿Cuándo fue la última vez que emitió un cheque físico? Una vez que la norma, el pago en efectivo y cheques ha sido reemplazado en gran medida por pagos electrónicos, un sistema caracterizado por la facilidad pero también susceptible al fraude mejorado por IA.
"A principios de los años 2000, Internet y la influencia de la tecnología móvil comenzaron a cambiar muchos pagos en línea, lo que hace que sea más rápido pagar facturas y realizar compras", dijo Tammy Foy, director de ventas de tesorería en BOK Financial®. "Ahora, la gente espera que estos pagos sean rápidos, fáciles y seguros, lo que también pone un mayor énfasis en proteger a las personas, y las empresas, del fraude y las estafas".
Junto con esta transición a sistemas de pago predominantemente digitales, ha habido un aumento correlativo en la amenaza de fraude, especialmente porque la inteligencia artificial (IA) ahora se ha integrado en tantas facetas del negocio.
Estafas de IA dirigidas tanto a consumidores como a empresas
Un informe mostró que las estafas generativas de IA aumentaron un 456% en el último año, en comparación con el año anterior, que ya había visto un aumento del 78% de 2022 a 2023. El Centro de Servicios Financieros de Deloitte estima que La IA generativa generará $40.000 millones de dólares en pérdidas para 2027, frente a los $12.3 millones de dólares en 2023 (una tasa de crecimiento anual compuesta del 32%).
"Estamos viendo un aumento significativo en la inteligencia y credibilidad.Estafas generadas por IA dirigido no solo a individuos, sino también a empresas e instituciones financieras para tratar de obtener acceso a información financiera crítica", dijo Paul Tucker, director de seguridad y privacidad de la información en BOK Financial. "Si bien las empresas de todos los tamaños están siendo atacadas, las pequeñas empresas son especialmente vulnerables debido a su tamaño y potencial para menos protecciones otorgadas a organizaciones de mayor escala".
Estas amenazas y los desafíos que presentan a las empresas fueron un tema constante a lo largo de la reciente Conferencia de Tesorería y Finanzas de TEXPO, donde expertos como Tucker discutieron cómo las empresas pueden protegerse del cambiante panorama de amenazas.
En su sesión, "AI and the Threat to Payment Security", Tucker describió algunas de las amenazas emergentes que está viendo en su papel, incluido el uso de falsificaciones profundas, ingeniería social y más para obtener acceso a información financiera crítica.
"Uno de los mayores desafíos en nuestra industria es que, mientras implementamos IA en nuestros sistemas para protegerlos mejor, los estafadores están utilizando las mismas herramientas para defraudar a las empresas, por lo que es fundamental comprender a qué nos enfrentamos", dijo Tucker.

La amenaza de estafa de IA para las empresas
Según Tucker, las herramientas de IA están haciendo que las actividades fraudulentas sean más sofisticadas y difíciles de detectar.
"Los delincuentes están utilizando el aprendizaje automático para analizar los patrones de transacción e identificar vulnerabilidades en los sistemas de pago, lo que les permite imitar mejor el comportamiento legítimo de los usuarios", dijo. En estos escenarios, los modelos de aprendizaje profundo facilitados por la IA ayudan a los estafadores a crear identidades falsas más convincentes al generar información personal realista, documentos falsos e incluso imágenes falsas profundas para evitar la verificación de identidad.
A falsificación profunda son medios generados por IA que utilizan algoritmos de aprendizaje profundo para reemplazar la imagen de una persona con la de otra persona, creando videos, imágenes o grabaciones de audio realistas pero falsos. "La tecnología puede hacer que parezca que alguien dijo o hizo algo que en realidad nunca hizo, a menudo haciendo que el contenido falso sea casi indistinguible de los medios auténticos", dijo Tucker.
La clonación de voz y las tecnologías deep fake permiten ataques de ingeniería social donde los estafadores se hacen pasar por ejecutivos o clientes para autorizar transacciones fraudulentas. La IA también ayuda a los delincuentes Optimizar el tiempo y la cantidad de transacciones fraudulentas para evitar activar alertas de seguridad debido a patrones inusuales.
En el nivel empresarial más grande, los bots impulsados por IA pueden ejecutar adquisiciones de cuentas a escala probando credenciales robadas en múltiples plataformas simultáneamente, al tiempo que automatizan la creación de numerosas cuentas falsas. "En estos casos, las empresas tienen la tarea de aumentar su debida diligencia en torno a la detección y abordar los problemas a medida que surgen, lo que supone una gran carga para los equipos internos de seguridad de la información", dijo Tucker.
La capacitación de los empleados es crítica
Tucker recomienda que las organizaciones inviertan tiempo y recursos en capacitar al personal sobre cómo detectar y abordar posibles fraudes antes de ser víctimas. Estos programas de capacitación deben centrarse en tácticas de ingeniería social, incluida la conciencia de falsificaciones profundas y protocolos de verificación para transacciones de alto valor.
"Cuanto más sepa su personal, más podrá ayudar a la organización a identificar amenazas potenciales y abordarlas", dijo Tucker. Esto podría incluir la implementación de pasos de verificación adicionales para transacciones de alto valor, especialmente para transferencias electrónicas o cambios de cuenta, entregadas a cuentas por pagar o profesionales financieros que procesan transacciones.
Foy agrega que los equipos de cuentas por pagar y cualquier persona que maneje sistemas de pago deberían estar obligados a tomar capacitación continua para mantenerse al día sobre las amenazas emergentes.
"Invertir en individuos de los sectores corporativo y de servicios financieros para asistir a conferencias y capacitaciones enfocadas en identificar y abordar el fraude en los sistemas de pago es una parte vital de la solución", dijo Foy. "Esta inversión les permite proteger y educar mejor a las organizaciones sobre las amenazas del mundo real planteadas por tácticas de fraude cada vez más sofisticadas y habilitadas para la IA".
Protegiendo su negocio
Tucker y Foy recomiendan que las empresas sigan seis pasos para protegerse:
- Implementar sistemas de detección de fraude impulsados por IA que utilizan el aprendizaje automático para identificar patrones inusuales y adaptarse a nuevas técnicas de fraude en tiempo real, yendo más allá de los sistemas tradicionales basados en reglas.
- Desplegar autenticación multifactor (MFA), incluida la verificación biométrica, las huellas dactilares del dispositivo y la autenticación del comportamiento para dificultar significativamente la toma de control de cuentas.
- Monitoree los patrones de transacción continuamente con sistemas de IA que pueden detectar anomalías sutiles en el comportamiento del usuario, los patrones de gasto y el tiempo de transacción que podrían indicar fraude.
- Cree una arquitectura de seguridad en capas con cifrado, tokenización, API seguras y segmentación de red para limitar el impacto de cualquier punto único de falla.
- Implemente controles de velocidad y límites de gasto que puedan marcar o bloquear automáticamente volúmenes de transacciones inusuales o cantidades que son diferentes de los patrones establecidos.
- Llevar a cabo regularmente Auditorías de seguridad y pruebas de penetración diseñado específicamente para probar defensas contra ataques habilitados para IA e intentos de ingeniería social.
"Al final del día, combinar la educación y capacitación de su fuerza laboral e invertir en sistemas que puedan ayudar a identificar y frustrar posibles fraudes es su mejor apuesta para proteger su negocio de técnicas avanzadas destinadas a comprometer los datos", dijo Tucker.