Los bancos que no recurren a la inteligencia artificial para hacer sus procesos más eficientes deberían hacérselo mirar. Nueve de cada diez empresas financieras utilizan aprendizaje automático como una parte fundamental de su estrategia, según una encuesta realizada a 450 directivos financieros por la firma Refinitiv. Todo el mundo se ha subido al carro de esta tecnología por las posibilidades que les ofrece para mejorar su negocio.

El problema, como en la mayoría de los casos, viene cuando nos ponemos manos a la obra. En este mismo estudio, el 43% de los encuestados citaron la baja calidad de los datos como el mayor obstáculo para implementar soluciones basadas en esta tecnología. El siguiente problema que citaron los profesionales entrevistados también tiene que ver con la información: el 38% se quejó de la falta de disponibilidad de datos con los que nutrir sus sistemas.

La inteligencia artificial se alimenta de datos del mismo modo que un león lo hace de carne: cuanto más come, más crece. Y, del mismo modo que al león le puede sentar mal un filete en mal estado, los algoritmos necesitan que la información que reciben sea lo más limpia y correcta posible.

“No podemos enseñar a un niño las tablas de multiplicar mal y sorprendernos al ver que el resultado de sus operaciones está equivocado”, señala Miguel Montañez, responsable de servicios financieros en Accenture. “Al fin y al cabo, la IA es sencilla y compleja al mismo tiempo, como la vida misma”.

  • ¿Eso es un uno o un siete?

“Los datos de mala calidad son aquellos que no reflejan la realidad o representan una visión parcial de la misma”, explica Ignacio Álvaro, director de tecnología de datos y analítica de Minsait. La casuística es extensa: datos caducados, ausencia de ellos para un periodo de tiempo, inconsistencias, valores anormales, información incompleta, falta de trazabilidad desde la fuente que la genera, errores de interpretación cuando los datos cambian de manos… Todo esto sin hablar de la información directamente falsa: las famosas fake news.

MÁS INFORMACIÓN

No obstante, la mala calidad de los datos suele tener más que ver con la fragmentación de los sistemas que originan los datos que con la manipulación deliberada. “Las empresas financieras son grandes generadores y consumidores de información, lo que ha dado lugar a un incremento de la fragmentación de los datos para ciertos usos más departamentales”, recuerda Álvaro. “Esto les complica tener una visión única de los datos de negocio, sus clientes, las operaciones o los riesgos”.

El experto apunta que la mala praxis en el tratamiento de datos suma un problema para las grandes empresas que tiene que ver con la competencia con startups y pymes que han nacido en la era digital. En ellas, se concibe la inteligencia de negocio como algo clave para su labor y carecen del legado de las empresas tradicionales. “Revertir esta situación y romper los silos de información es un reto de primera magnitud para estas compañías”, resume.

  • Malos datos, peores decisiones

La diferencia entre trabajar con datos limpios o hacerlo con información corrupta es, como puede imaginarse, abismal. La consecuencia principal de entrenar algoritmos de inteligencia artificial con datos de mala calidad es una reducción de sus niveles de acierto, con la consecuente pérdida de eficacia que esto conlleva. Montse Medina, responsable de analítica avanzada en Deloitte, calcula que el margen de mejora que puede tener un sistema que trabaja con datos correctamente tratados puede ser de en torno al 50%.

Cuando los datos no son buenos, es complicado hacer mejoras en los algoritmos

Montse Medina, responsable de analítica avanzada en Deloitte

“Cuando los datos no son buenos, es complicado hacer mejoras en los algoritmos”, sentencia. “La calidad de la información y la capacidad de las empresas para transformarla en algo que pueda ser valioso para el sistema es el elemento que más va a condicionar el rendimiento del mismo”.

En ciertas ocasiones, el dato es bueno, pero la empresa que lo gestiona no está preparada para transformarlo correctamente para su uso. Datos de buena calidad de los que no podemos sacar todo el potencial. “Puede ser una cuestión de formato”, aventura Medina. “Una empresa que tiene interacciones telefónicas con su cliente y guarda las conversaciones no tiene información de mala calidad; simplemente está en un formato que debe transformar para poder utilizar”.

Transformar esta información, igual que luchar contra otros retos que se presentan en la recopilación y analítica de los datos, depende de las empresas: la tecnología para solucionar este problema existe y está disponible. La experta opina que las compañías deben construir infraestructuras que permitan diseñar procesos y arquitecturas escalables, de manera modular. La principal dificultad en este sentido reside en saber adaptar los procesos que se utilizaban tradicionalmente. “No se puede ir añadiendo capas tecnológicas y poniendo parches en vez de dar un paso atrás y replantearse la estrategia. Tomar atajos suele pasar factura”, advierte.

Fuente: El País