TDC 2018
São Paulo
Um dos maiores encontros de comunidades e empresas no Brasil

Trilha BigData Dar valor aos dados é a alma da nossa trilha!

Vamos falar sobre dados, como trabalhar com eles e qual valor eles podem ter para a sua empresa.

Palestras

Importante: A grade de palestras está sujeita a alterações sem prévio aviso.
Conteúdo
08:00 às 09:00 Credenciamento e recepção dos participantes

Todas as pessoas inscritas, palestrantes, coordenadores e de imprensa, devem retirar seus crachás e kit do congressista nos balcões de credenciamento localizados na entrada do evento, para obterem acesso às salas e Auditório Principal.

09:00 às 10:00 Abertura do evento no Auditório Principal

Após o credenciamento, convidamos os participantes a comparecerem ao auditório para receberem as boas vindas por parte dos realizadores e patrocinadores.

Neste keynote de abertura, todos serão orientados sobre o funcionamento do evento, destaques e outras novidades.

10:10 às 11:00 Apache Flink a Quarta Geração do Big Data
Marcio Junior Vieira

Será apresentada uma visão geral do Apache Flink e suas características , assim como uma comparação com apache Spark e Map Reduce e como montar um cluster com Flink.

11:10 às 12:00 A construção de um datalake e um datawarehouse - Acertos, erros e lições aprendidas, direto das trincheiras
Tiago de Freitas Lima / Renato Sardinha

Dados relevantes podem vir de qualquer lugar e qualquer aplicação. Esse cenário traz alguns desafios: como analisar todas essas informações, de maneira que façam sentido juntas? Como padronizar o formato, sem adicionar complexidade? Como disponibilizar dados em um modelo consistente e útil para análise/exploração por engenheiros e áreas de negócio? Quais ferramentas podemos utilizar?

Nesta palestra, apresentaremos os desafios e lições aprendidas na construção de um datalake e um datawarehouse. Nosso modelo de coleta de dados e processamento de grandes volumes, como garantimos consistência de dados entre eventos e como armazenamos as informações para análise exploratória.

12:10 às 13:00 Processando dados de acidentes de trânsito em streaming com PySpark
Isadora Barros

Processar dados em streaming, ou, em bom português, processar dados que chegam num fluxo contínuo, muitas vezes demanda uma ação imediata sobre os dados que traga resultados em tempo real.

Essa palestra vai utilizar a API Python do Spark, o PySpark, para mostrar a construção de uma aplicação simples que recebe dados de acidentes de trânsito ocorridos em Recife e realiza seu processamento em tempo real, mostrando como fazer isso mirando a resiliência e robustez da aplicação.

Mais Falados - Usando a Interação Social para a Recomendação de Vídeos
Igor Coutinho / Priscilla Lusie

Nos últimos anos a convergência de plataformas digitais se tornou realidade. Além disso, com disponibilidade massiva de conteúdo, torna-se obrigatório oferecer sempre o conteúdo mais relevante. Este trabalho demonstra um método que introduz a dinamicidade de comentários das redes sociais em algoritmos de recomendação de vídeo usando técnicas de Motores de Busca e Processamento de Linguagem Natural. Essa abordagem foi criada e desenvolvida na TV Globo na área de Pesquisa e Desenvolvimento e aplicada na plataforma do GloboPlay, no início de 2017. O resultado da recomendação tem se provado muito acurado e o trilho de vídeos recomendados está constantemente entre os mais acessados do aplicativo.

13:10 às 14:00 Intervalo para Almoço
Uma excelente oportunidade de todas as pessoas no evento interagirem e trocarem ideias, colaboradores, empresas patrocinadoras e apoiadoras, palestrantes e coordenadores.
14:10 às 15:00 Big Data Governance - Como estabelecer uma Governança de Dados em Big Data
Bergson Lopes

Para ter sucesso em sua adoção o BIG DATA não deve ser encarado somente dentro de um viés tecnológico. Pessoas e Processos também são fundamentais para alcançar os objetivos de uma iniciativa analítica. Para isto, é fundamental estabelecer uma Governança sobre os dados, a fim de garantir qualidade, disponibilidade, privacidade e alinhamento com a estratégia corporativa.

15:10 às 16:00 Experimentação na OLX Brasil: Desafios na construção de uma plataforma de teste A/B em grande escala.
VITOR VINICIUS DA SILVA CASSIANO / Felipe Leite

Há um anos atrás a OLX Brasil começou a construir sua própria plataforma de experimentação para facilitar o processo de validação de mudanças no produto. Nesta palestra mostraremos o que motivou e como foi o processo de criação e evolução da plataforma de experimentação, mostrando alguns dos maiores desafios técnicos e culturais para a segmentação, tracking e análise dos dados e as soluções encontradas para dar a escala e agilidade necessárias à OLX

16:00 às 16:30 Coffee-break e Networking

Durante o intervalo de coffee-break, serão entregues kits contendo suco e biscoitos. Um delicioso intervalo para relaxar, conhecer novas pessoas e estreitar contatos.

Neste tempo, também surge a oportunidade de todas as pessoas no evento interagirem entre sí, participantes das trilhas, empresas patrocinadoras e apoiadoras, palestrantes e coordenadores.

16:40 às 17:30 Arquitetura Flafka: Ingestão de dados de forma robusta e flexível
Enrique Sampaio dos Santos

A palestra apresenta uma arquitetura capaz de processar dados em near real-time de forma robusta e confiável através da combinação Apache Flume + Apache Kafka, que permite criar um pipeline de ingestão de dados completo apenas realizando as devidas configurações e combiná-las de diversas formas de acordo com a necessidade do usuário. Durante a apresentação serão exibidos alguns exemplos de aplicações, assim como as formas nas quais essas duas tecnologias podem ser combinadas no pipeline para satisfazer tais casos.

17:40 às 18:30 7 passos para DataOps
Rafael Barbosa

Vivemos na era do Big Data, mas você já entende quais os controles que fazem tudo isso possivel e escalável? Venha ver quais são os passos que permitem você e sua empresa a ficarem sempre a frente da evolução garantindo bons resultados. E ainda por cima tem uma demo live no final.

O que não te falam sobre ir de uma pipeline de dados de batch para streaming
Thaisa Mirely Barbosa da Silva

Com o passar do tempo as ferramentas, técnicas, carga de dados e requisitos não funcionais, vem mudando no mundo de processamento em larga escala. Precisamos garantir além de tudo a resiliência a perda de dados e resiliência no processamento. O objetivo dessa conversa é compartilhar um pouco da vivência de projeto(aprendizados técnicos e não técnicos) sobre o que foi considerado para garantir o suporte de processamento de dados em streaming em um curto período de implementação, em um pipeline que anteriormente realizava apenas processamento em batch.

18:40 às 19:00 Encerramento e Sorteios

No horário de encerramento, todas as trilhas serão direcionadas de suas salas para o Auditório Principal, mesmo local da abertura.

Após a apresentação de resultados do dia muitos sorteios fecharão o dia.

Data e Local

Quinta-feira, 19 de Julho de 2018

10 às 19h

Universidade Anhembi Morumbi

Rua Casa do Ator, 275
Vila Olímpia | São Paulo - SP

Informações sobre Data e Local


Público Alvo

DBAs, Cientistas de Dados, entusiasmados pela área de dados, pessoas que trabalhem com big data ou inteligência artificial.


Investimento

presencial:R$ 265,00

Fazendo sua inscrição presencial, você terá acesso a esta trilha e no mesmo dia também:
TDC Expo: Venha conversar com pessoas e conhecer empresas incríveis.

Trilha Stadium: Você poderá assistir às palestras da trilha Stadium do mesmo dia.


Palestrantes desta trilha

Felipe Leite
Felipe Leite
OLX Brasil
Isadora Barros
Isadora Barros
ThoughtWorks
Marcio Junior Vieira
Marcio Junior Vieira
Ambiente Livre

Patrocinadores

Diamond





Patrocinio TDC Online


Patrocinios e Apoios Trilha e Workshop


Realização

Companhia Aérea Oficial