2ª Edição do Google Cloud Summit trouxe muitas novidades

Dois dias de evento, 20 sessões sobre desenvolvimento de aplicações, infraestrutura, segurança; quatro conferências ao mesmo tempo e no mesmo auditório, carrinhos de controle remoto autônomos e muito conteúdo sobre cloud e machine learning. Confira neste artigo tudo que vimos no evento da Google.

A convite do time de práticas da GFT, participei do segundo Cloud Summit 2018, que aconteceu no começo de dezembro no Memorial da América Latina em São Paulo – a edição deste ano marcou o primeiro ano completo da região São Paulo.

Já na entrada, após o credenciamento, me deparei com uma espécie de pista de carrinhos de controle remoto, no entanto, a novidade é que estes andavam sozinhos sem ninguém controlando. Um engenheiro do Google nos explicou que aquilo era uma customização feita nos carrinhos, que, por meio de um arduino com uma câmera integrada e um modelo pré-treinado com Tensorflow possibilitou essa condução autônoma. Durante uma conversa sobre o desenvolvimento desta prova de conceito, eles nos contaram que todo o processo de captura do dataset, treinamento e integração da solução IoT com o modelo de machine learning levou em torno de uma semana, algo super rápido.

Uma surpresa interessante foi o palco das palestras, que estava divido em duas frentes. Durante o keynote de abertura, os apresentadores já utilizaram desse recurso para simular o ambiente de um escritório, onde quatro pessoas, cada uma em um canto do palco, conversavam entre si e colaboravam em tempo real para co-criar documentos e apresentações.

Após as apresentações iniciais e demais formalidades, houve uma pausa para que fossem feitas as modificações no auditório, e na volta, já havia sido feito a separação das duas frentes do palco, no entanto, ainda assim havia dois espaços para apresentação em cada lado do palco, de modo que, ao utilizar fones de ouvido os participantes podiam selecionar qual apresentação gostariam de assistir. Com isso, quatro palestras simultâneas ocorriam sem que uma ‘atrapalhasse’ a outra.

Entre as opções de palestras do bootcamp que aconteceram no primeiro dia, eu escolhi a trilha de Big Data & ML. E posso afirmar que foi sensacional, uma verdadeira aula com os engenheiros que cuidam dessas soluções. Um dos destaques, entre todo o conteúdo denso que eles compartilharam, foi o produto AutoML, que hoje permite que você suba grandes datasets de treinamento no storage da cloud e utilize esse bucket para fazer o treinamento nos servidores deles mesmos. Isso permite que quase todo o processo seja feito por interface visual, simplificando a vida de quem quer ter um modelo de ML customizado sem o esforço tradicional e com uma rapidez muito maior que os meios comuns de se fazer.

No segundo dia do summit, o auditório foi dividido entre quatro trilhas: MODERNIZE SUA INFRAESTRUTURA, APP DEVELOPMENT, BIG DATA & MACHINE LEARNING e TRANSFORME SEU AMBIENTE DE TRABALHO. Entre as talks que assisti neste dia, o case apresentado pela startup Portal Telemedicina se destacou na minha opinião. Foi muito interessante ver uma empresa brasileira, que nasceu para ajudar no diagnóstico de doenças, conseguir aumentar em 10 vezes os modelos sendo treinados por dia, após mudar o seu modelo de treinamento de on premise para cloud, passando de 10 para mais de 100 modelos. Com isso, essa startup acelerou brutalmente o seu poder de reconhecer patologias e ajudar no diagnóstico clínico.

Outro ponto interessante deste segundo dia foi uma demonstração na qual os palestrantes mostraram o poder da combinação das tecnologias de cloud, ML e IoT. Nesta prova de conceito, foi simulada a necessidade de uma loja varejista em saber a situação de seu estoque em tempo real. Para isso, foi treinado um modelo que utilizava AutoML de forma que, por meio de uma imagem, fosse feito o reconhecimento para verificar se aquele estoque estava cheio, parcial ou vazio. O próximo passo foi utilizar a cloud e criar uma API para o acesso ao serviço de previsão de estoque. Na sequência, uma câmera conectada com um arduino fazia a parte do IoT, coletando imagens do estoque, que eram enviadas para o serviço de reconhecimento e, dependendo da movimentação de caixas no estoque, acionavam uma espécie de semáforo que acendia uma luz verde, amarela ou vermelha.

Isso pode não ser uma grande novidade para alguns, visto que esta tecnologia já é utilizada em grandes indústrias, o interessante foi ver a simplicidade desta prova de conceito e trazer todo esse poder de processamento para qualquer porte de negócio. 

E para quem é Dev essa informação pode ser especialmente interessante, a Google está encorajando fortemente a comunidade a fazer os treinamento de cloud associated, data engineer entre outros, e por isso eles traduziram alguns treinamentos para português e até ofereceram voucher’s para utilizar no quick labs e treinamentos oficiais na Coursera.

Participar de um dos principais eventos de cloud do Brasil, assistir a casos de sucesso de grandes empresas e conhecer mais a fundo os diversos desdobramentos e os benefícios da adoção da nuvem na prática foi algo muito enriquecedor, até o ano que vem e obrigado GFT! 🙂