Cómo los bancos deben aprovechar la IA responsable para abordar el crimen financiero

Uso responsable de IA en bancos para combatir crimen financiero

El fraude ciertamente no es algo nuevo en el sector de servicios financieros, pero recientemente ha habido una aceleración que vale la pena analizar en detalle. A medida que la tecnología se desarrolla y evoluciona a un ritmo acelerado, los criminales han encontrado aún más formas de romper las barreras de cumplimiento, lo que ha llevado a una carrera tecnológica entre aquellos que intentan proteger a los consumidores y aquellos que buscan causarles daño. Los estafadores están combinando tecnologías emergentes con manipulación emocional para estafar a las personas de miles de dólares, dejando la responsabilidad firmemente en los bancos de actualizar sus defensas para combatir eficazmente la amenaza en evolución.

Para abordar la creciente epidemia de fraude, los propios bancos están comenzando a aprovechar la nueva tecnología. Con los bancos que disponen de una gran cantidad de datos que antes no se utilizaban en su máximo potencial, la tecnología de IA tiene la capacidad de capacitar a los bancos para detectar comportamientos delictivos antes de que ocurran mediante el análisis de vastos conjuntos de datos.

Riesgos de fraude aumentados

Es positivo ver que los gobiernos de todo el mundo adoptan un enfoque proactivo cuando se trata de IA, especialmente en Estados Unidos y en Europa. En abril, la administración de Biden anunció una inversión de $140 millones en investigación y desarrollo de inteligencia artificial, un paso importante sin duda. Sin embargo, no se puede subestimar la epidemia de fraude y el papel de esta nueva tecnología en facilitar el comportamiento delictivo; algo que creo que el gobierno debe tener firmemente en su radar.

El fraude le costó a los consumidores $8.8 mil millones en 2022, un aumento del 44% con respecto a 2021. Este aumento drástico se puede atribuir en gran medida a la tecnología cada vez más disponible, incluida la IA, que los estafadores están comenzando a manipular.

La Comisión Federal de Comercio (FTC, por sus siglas en inglés) señaló que la forma más prevalente de fraude reportado son las estafas de impostores, con pérdidas reportadas de $2.6 mil millones el año pasado. Hay múltiples tipos de estafas de impostores, desde criminales que pretenden ser de organismos gubernamentales como el IRS hasta familiares que fingen estar en problemas; ambas tácticas utilizadas para engañar a los consumidores vulnerables y hacer que transfieran dinero o activos de manera voluntaria.

En marzo de este año, la FTC emitió una advertencia adicional sobre criminales que utilizan clips de audio existentes para clonar las voces de familiares a través de la IA. En la advertencia, se afirma “No confíes en la voz”, un recordatorio importante para ayudar a guiar a los consumidores para que no envíen dinero involuntariamente a los estafadores.

Los tipos de fraude utilizados por los criminales son cada vez más variados y avanzados, y las estafas románticas siguen siendo un problema importante. El informe reciente de Feedzai, “El impacto humano del fraude y el delito financiero en la confianza del cliente en los bancos”, encontró que el 42% de las personas en Estados Unidos han sido víctimas de una estafa romántica.

La IA generativa, capaz de generar texto, imágenes y otros medios en respuesta a indicaciones, ha permitido a los criminales trabajar en masa, encontrando nuevas formas de engañar a los consumidores para que les entreguen su dinero. ChatGPT ya ha sido explotado por estafadores, lo que les permite crear mensajes altamente realistas para engañar a las víctimas haciéndoles creer que son otra persona, y eso es solo la punta del iceberg.

A medida que la IA generativa se vuelve más sofisticada, será aún más difícil para las personas diferenciar entre lo que es real y lo que no lo es. Por lo tanto, es vital que los bancos actúen rápidamente para fortalecer sus defensas y proteger a sus bases de clientes.

IA como herramienta defensiva

Sin embargo, al igual que la IA puede ser utilizada como una herramienta criminal, también puede ayudar a proteger eficazmente a los consumidores. Puede trabajar a gran velocidad analizando grandes cantidades de datos para tomar decisiones inteligentes en un abrir y cerrar de ojos. En un momento en el que los equipos de cumplimiento están muy sobrecargados, la IA está ayudando a decidir qué transacción es fraudulenta y cuál no lo es.

Al adoptar la IA, algunos bancos están construyendo imágenes completas de los clientes, lo que les permite identificar cualquier comportamiento inusual rápidamente. Los conjuntos de datos de comportamiento, como las tendencias de transacciones o la hora a la que las personas suelen acceder a su banca en línea, pueden ayudar a construir una imagen del comportamiento habitual de una persona.

Esto es particularmente útil para detectar el fraude de toma de cuenta, una técnica utilizada por los criminales para hacerse pasar por clientes genuinos y tomar el control de una cuenta para realizar pagos no autorizados. Si el delincuente se encuentra en una zona horaria diferente o comienza a intentar acceder a la cuenta de manera errática, se marcará esto como un comportamiento sospechoso y se generará un SAR, un informe de actividad sospechosa. La IA puede acelerar este proceso generando automáticamente los informes y completándolos, lo que ahorra tiempo y costos para los equipos de cumplimiento.

Una IA bien entrenada también puede ayudar a reducir los falsos positivos, una gran carga para las instituciones financieras. Los falsos positivos ocurren cuando se identifican transacciones legítimas como sospechosas y podrían llevar al bloqueo de una transacción de un cliente o, peor aún, de su cuenta.

Identificar erróneamente a un cliente como un estafador es uno de los principales problemas a los que se enfrentan los bancos. La investigación de Feedzai encontró que la mitad de los consumidores abandonarían su banco si se detiene una transacción legítima, incluso si se resolviera rápidamente. La IA puede ayudar a reducir esta carga construyendo una mejor vista única del cliente que puede trabajar rápidamente para determinar si una transacción es legítima.

Sin embargo, es fundamental que las instituciones financieras adopten IA que sea responsable y sin sesgos. Aún siendo una tecnología relativamente nueva, dependiente de habilidades de aprendizaje a partir de comportamientos existentes, puede adoptar comportamientos sesgados y tomar decisiones incorrectas que también podrían afectar a los bancos y las instituciones financieras de manera negativa si no se implementa correctamente.

Las instituciones financieras tienen la responsabilidad de aprender más sobre la IA ética y responsable y alinearse con socios tecnológicos para supervisar y mitigar los sesgos de la IA, al mismo tiempo que protegen a los consumidores de fraudes.

La confianza es la moneda más importante que posee un banco y los clientes quieren sentirse seguros sabiendo que su banco está haciendo todo lo posible para protegerlos. Actuando rápidamente y de manera responsable, las instituciones financieras pueden aprovechar la IA para construir barreras contra los estafadores y estar en la mejor posición para proteger a sus clientes de amenazas criminales en constante evolución.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Desbloqueando la Composicionalidad Sistemática en Redes Neuronales Un Avance con el Enfoque de Meta-Aprendizaje para la Composicionalidad (MLC)

Los campos de la Inteligencia Artificial y el Aprendizaje Automático son cada vez más prevalentes. Una de las princip...

Aprendizaje Automático

8 cosas potencialmente sorprendentes que debes saber sobre los Modelos de Lenguaje Grandes (LLMs)

En los últimos meses, ha habido un aumento de interés y actividad por parte de defensores, políticos y académicos de ...

Inteligencia Artificial

Investigadores del MIT proponen AskIt un lenguaje específico de dominio para agilizar la integración de modelos de lenguaje grandes en el desarrollo de software.

Investigaciones recientes han puesto de manifiesto las extraordinarias capacidades de los Modelos de Lenguaje Grandes...