Deloitte en la prensa

La inteligencia artificial que las empresas necesitan adoptar para combatir el fraude

Cronista.com  – Mayo 2024

En diálogo con El Cronista, Andrés Sarcuno, socio líder de Forensic Analytics de Deloitte Spanish Latin America, analiza las potencialidades de esta tecnología para las diferentes industrias.

”Esta tecnología es una innovación que permite al ser humano hacer mejor las cosas. Como toda herramienta, si la usas bien te va a simplificar procesos”, resume Andrés Sarcuno, socio líder de Forensic Analytics de Deloitte Spanish Latin America, en diálogo con Matías Castro, editor de El Cronista México.

Sarcuno habla sobre la inteligencia artificial (IA), la tecnología que la mayoría de las personas identifica con Chat GPT pero que está presente en el desarrollo de modelos y sistemas capaces de realizar tareas con mínima intervención humana.

”El potencial de la inteligencia artificial es exponencial para ambos lados: el bueno y el malo. Dependerá de los incentivos que tengan quienes la utilicen”, agrega. Esta tecnología tiene la capacidad de analizar grandes volúmenes de datos y detectar patrones que podrían pasar desapercibidos para el ojo humano. Por eso, y a medida que la inteligencia artificial se actualiza y avanza, se utiliza cada vez más para prevenir y detectar fraudes, una práctica que hoy en día es imprescindible en las organizaciones.

”La inteligencia artificial generativa derribó la barrera del lenguaje de programación. Ahora los especialistas pueden dialogar directamente con los datos, lo que aumenta la velocidad en la búsqueda de patrones. Este es para mí el principal avance”, explica.

La IA es una herramienta clave para identificar anomalías en grandes conjuntos de datos. Mediante esta tecnología, los algoritmos de detección de anomalías buscan desviaciones significativas de los patrones normales de comportamiento. Entrenar modelos de inteligencia artificial al interior de las organizaciones les permite identificar prácticas sospechosas y anticiparse al fraude.

”Las empresas y organizaciones tienen que tener especialistas que piensen escenarios de esquemas de fraude para poner medidas de control en función de los posibles delitos. Si el investigador considera que, por ejemplo, el delito va a estar en facturas que presenten una descripción larga y genérica ya que da mayor lugar al fraude, podrá usar la IA generativa para que las identifique y analice. Pero para que la herramienta haga eso, alguien tiene que pensar que ese es el esquema posible”, ejemplifica.

Según Sarcuno, uno de los principales problemas que presentan los modelos de aprendizaje es la imposibilidad de predecir una transacción fraudulenta si no cuentan con una gran cantidad y calidad de datos: ”De mil transacciones, tal vez una sola es un fraude. Entonces a cualquier modelo que armemos le va a costar identificar el fraude porque no los ve en cantidad”.

Sin embargo, menciona la posibilidad que tiene la IA generativa de crear datos sintéticos. Las organizaciones, al generar los datos que necesitan, pueden complementar datos reales que son limitados o difíciles de obtener, para entrenar modelos de IA ante diferentes situaciones y contextos.

”La inteligencia artificial evolucionó mucho y su correcto funcionamiento va a depender de cómo se la utilice: cuanto mejor sepas qué pedirle, mejor será el output”.

Asimismo, esta tecnología avanzó significativamente en la capacidad de interpretar y analizar texto no estructurado, es decir, datos que no tienen un formato predefinido o una estructura clara, como pueden ser los correos electrónicos, documentos de texto, publicaciones, registros de llamadas, entre otros.

”Por ahora el estadio es intentar optimizar procesos. Si una empresa quiere buscar transacciones que puedan ser sospechosas, entonces lo que se agiliza es el tiempo que antes tomaba hablar con los datos para tener ese resultado. Hoy una empresa puede interactuar con el modelo que tiene implementado de agente virtual de código: el código le sugerirá algo, y la empresa tendrá que tener el conocimiento para interpretarlo y empezar a correrlo sobre los datos que tiene”, indica Sarcuno.

El promedio de tiempo que le toma a una empresa detectar un fraude es de 18 meses. Con la inteligencia artificial y gente correctamente capacitada para utilizar esta herramienta, esa ventana de tiempo puede reducirse significativamente.

”El investigador de fraude está todo el tiempo procesando textos, datos y clasificando. La inteligencia artificial puede ayudar en todo este proceso: dónde buscar, cómo interpretar, clasificar y analizar”, destaca.

Sarcuno también alerta sobre esta tecnología: ”Toda tecnología tiene el potencial de amplificar riesgos. Los especialistas tienen que aprender cómo funciona la inteligencia artificial generativa para detectar los nuevos casos que van a ocurrir por la propia aparición de esta herramienta”.

Muchos modelos de inteligencia artificial son complejos y actúan como cajas negras, lo que significa que es difícil entender cómo llegan a sus decisiones. Esto puede ser un problema en sectores donde la transparencia y la protección de los datos es crucial.

”Es necesario regular lo antes posible el input que se le puede dar a esta tecnología y las barreras de la respuesta. No hay que asustarse: hay que aprender, involucrarse, tener precaución con no sesgar y no invadir la privacidad de terceros. Por eso vamos más despacio que el perpetrador porque claramente no está preocupado por estas cuestiones”, concluye.

Leé la nota completa

Cronista.com
¿Encontró útil el contenido?