Strata Data confirma que la adopción de inteligencia artificial es una realidad


En el sector Big Data, una de las conferencias de referencia a nivel internacional es, sin duda, Strata Data, organizada por O’Reilly. La edición de este año en Londres se celebró entre el 22 y el 25 de mayo, a la que asistieron unas 2.000 personas para compartir experiencias y conocer las últimas novedades en torno a las tecnologías Big Data y a la aplicación de técnicas de machine learning. En GFT no hemos perdido la oportunidad de asistir y en este post os contamos lo más destacado del evento.

El programa de Strata Data, como viene siendo habitual, se dividió en dos bloques: los dos primeros días para workshops más prácticos y los dos últimos para algunas muy inspiradores keynotes y más de 100 presentaciones. La conferencia reflejó los intereses del sector y los principales temas fueron Automatic Intelligence, Streaming Analytics y Data Lakes.

Automatic Intelligence

Comparado con anteriores eventos o conferencias, la comunidad parece haberse movido de una primera fase inicial de contacto (realizar pilotos y pruebas de concepto) a una segunda fase de adopción (con sistemas ya en producción). Así pues, la adopción de machine learning (ML) y artificial intelligence (AI) en el sector es definitivamente una realidad.

Algunas sesiones centraron su atención en deep learning y más en concreto, en TensorFlow de Google. Respecto a este último, Google anunció una nueva API de más alto nivel con el objetivo de facilitar la adopción de su tecnología, que ya es muy alta.

Streaming Analytics

El procesamiento batch está obsoleto. La competitividad presiona para proporcionar respuestas y predicciones instantáneas a usuarios.

En este escenario, Apache Kafka se muestra como la infraestructura por defecto para arquitecturas de procesamiento en streaming. Y como tecnologías de procesamiento para estas arquitecturas, tanto Apache Beam como Apache Kafka Streams están captando la atención de la comunidad, además del ya popular Apache Spark Streaming.

Apache Beam proporciona un API que permite seleccionar el sistema de streaming a utilizar en runtime.. Pero su gran valor no es poder abstraerse de las tecnologías subyacentes sino que es el driver para que éstas evolucionen, influyendo directamente en sus roadmaps. Por su parte, Apache Kafka Streams aprovecha la gran adopción de su infraestructura de base para colocar su tecnología de procesamiento.

Data Lakes

Tanto ML como AI necesitan un entorno en el que data scientists puedan construir modelos de clasificación o predicción y, sin duda, esta plataforma es el Data Lake.

Durante la conferencia, distintas organizaciones, algunas de ellas en el sector financiero, explicaron tanto los retos a los que se enfrentaron para proporcionar dicha plataforma a sus analistas de negocio y data scientists como los beneficios obtenidos posteriormente.

Los retos principales son, sin duda, la integración de gran cantidad de fuentes de datos muy diversas, ponerlas disponibles a los usuarios para su explotación y coordinar la ejecución de muchas aplicaciones consumiendo estos datos en un entorno compartido. Los beneficios son la generación de modelos de predicción y clasificación más precisos.

Conclusiones

Siendo uno de los congresos de referencia en el sector Big Data, la cantidad y calidad de las sesiones fue muy alta. El compromiso, desde GFT, es incorporar estas tendencias y hacerlas realidad en nuestros clientes. La lista completa de sesiones se puede encontrar aquí y en los siguientes días, todas las presentaciones y videos se podrán encontrar aquí.

Además, Cloudera escogió Strata para anunciar su nueva PaaS (Platform-as-a-Service): Cloudera Altus. Este servicio cloud permite crear clusters de Cloudera on-the-fly y on-demand. De momento, está limitado a Amazon AWS pero en el futuro planean incluir otros proveedores cloud.

Finalmente, me gustaría compartir la reflexión de Aida Mehonic durante su keynote:

Definitivamente AI está lista para el mundo financiero pero, ¿está el mundo financiero preparado para AI?