Del Big Data a la Inteligencia Artificial

¿Cómo han evolucionado las tecnologías Big Data y por qué es la Inteligencia Artificial la que se encuentra ahora en fase de adopción? Este fue el punto de partida de mi ponencia, el pasado 28 de junio,  en la Jornada de Digitalización y Big Data para el sector asegurador, invitado por el Executive Forum y la Universidad Camilo José Cela. También pude explicar la experiencia de GFT en proyectos que combinan Big Data e Inteligencia Artificial, tanto para bancos como aseguradoras; proyectos siempre impulsados por nuestro Laboratorio de Innovación Digital y nuestros distintos centros de excelencia, los canalizadores para llevar la innovación a nuestros clientes. En GFT creemos que la adopción de la Inteligencia Artificial en el sector industrial va a ser muy rápida con aplicaciones desde la personalización de la experiencia de usuario hasta la automatización de procesos.

Recorrido del Big Data

La adopción del Big Data por parte del sector industrial comenzó en el año 2006 con la aparición de la primera solución open source Big Data, la ahora muy popular Hadoop. A partir de entonces, y tras una fase inicial de evaluación y pruebas, su adopción fue considerablemente rápida. A día de hoy y en poco más de 10 años, el uso de las tecnologías Big Data se ha normalizado y es una más dentro del stack tecnológico de prácticamente cualquier empresa. Lo mismo, o incluso aún más rápido, ocurrió con las tecnologías Cloud. Tanto Big Data como el Cloud se han convertido en commodity technologies.

Por otro lado, en el campo de la Inteligencia Artificial, técnicas con más de 30 años como las redes neuronales complejas o de varias capas (Deep Learning) siempre se han mostrado muy precisas para la realización de tareas inherentemente humanas como el reconocimiento de imágenes o videos o el procesamiento de lenguaje natural. En contrapartida, estas técnicas requieren de una gran cantidad de datos y cómputo, convirtiéndose en barrera de acceso.

Los datos son la auténtica gasolina que mueve la inteligencia artificial

A día de hoy, tras todos estos años acumulando grandes cantidades de datos gracias a las tecnologías Big Data, junto con la democratización en el acceso a altas capacidades de cómputo a un coste asequible en el Cloud, se dan las circunstancias para que técnicas de Deep Learning abandonen el ámbito académico en el que estaban recluidas y den el salto al sector industrial. Una vez en esta situación, el afloramiento de librerías y frameworks de más alto nivel como el popular TensorFlow de Google o Caffe2 de Facebook no han hecho más que contribuir a su adopción y popularización.

En general, el desarrollo de un proyecto de Inteligencia Artificial requiere diseñar, entrenar y ajustar un modelo. La precisión de este modelo dependerá del tamaño del conjunto de datos de entrenamiento. Y a mayor tamaño de datos, mayor será también la inversión requerida en capacidad de cómputo. Pero, ¿qué compañía dispone a día de hoy de la mayor cantidad de videos? Google, por ejemplo, dispone de una cantidad prácticamente ilimitada tanto de videos como de cómputo. ¿No la convierte eso en la mejor candidata a poder desarrollar un modelo de reconocimiento de videos? Es por ello que, en este tipo de casos genéricos como reconocimiento de video o imágenes o procesamiento de texto, estas grandes compañías (GAFA – Google, Amazon, Facebook y Apple, entre otras) se convierten en proveedores de modelos ya entrenados accesibles vía API y pagando simplemente por uso.

Evidentemente, en los casos en los que haya que desarrollar un modelo para un dominio concreto (recomendación de productos, evaluación de riesgo, etc.) nadie dispondrá de más o mejores datos que uno mismo, por lo que invertir en la construcción del modelo cobra todo el sentido. En casos más genéricos como los citados anteriormente, nos podemos ahorrar la construcción del modelo y acceder a uno ya entrenado. Así pues, a día de hoy, añadir capacidades de Inteligencia Artificial a nuestra solución puede ser tan sencillo como invocar una API remota, algo impensable hace unos pocos años.

Aplicación en el sector financiero

En general, la Inteligencia Artificial puede aplicarse en cualquier proceso donde existe intervención humana. Así, en el sector financiero o asegurador sus aplicaciones pueden ser muy variadas y que podemos agrupar en las siguientes categorías:

  • La personalización de la experiencia de usuario para ofrecer al usuario productos más adaptados y, por lo tanto, más atractivos.
  • La construcción de sistemas de soporte a la toma de decisiones (DSS) para que los expertos puedan tomar decisiones más precisas y con mayor certeza.
  • La automatización de procesos para disminuir los tiempos de respuesta y, por lo tanto, los costes operacionales.

La Inteligencia Artificial es una realidad

La adopción de la Inteligencia Artificial ya está aquí y muy posiblemente esta adopción va a ser muy rápida. La existencia de modelos de gran precisión, ya entrenados y fácilmente accesibles van a acelerar aún más esta adopción. En mi opinión, va a ser más rápida aún que la del Big Data. Viendo que hemos sido capaces de hacer en 10 años de Big Data en términos de analítica, podemos imaginar las posibilidades de la Inteligencia Artificial durante los próximos 10 años.

GreenCoding

Con GreenCoding el desarrollo de software se convierte en parte integrante de tu programa de sostenibilidad

Más información