TDC 2017
Porto Alegre
Um dos maiores encontros de comunidades e empresas no Brasil

Trilha BigData Big data na nuvem, uma boa idéia?

Já imaginou todo (todo mesmo) seu Business Intelligence na nuvem? Não? Então imagine. Será realmente uma boa idéia? Confiabilidade? Disponibilidade? Performance?

Entenda todos os pontos críticos para, além de construir um big "cloud" data, tenha a qualidade esperada de um data center dedicado ou superior. Venha discutir e entender todo o processo desde o planejamento, a arquitetura, a captação, o processamento e a visualização dos dados, como tudo isso funciona, no céu e na terra, para criação de aplicações incríveis.

Palestras

Importante: A grade de palestras está sujeita a alterações sem prévio aviso.
Conteúdo
08:00 às 09:00 Credenciamento e recepção dos participantes

Todas as pessoas inscritas, palestrantes, coordenadores e de imprensa, devem retirar seus crachás e kit do congressista nos balcões de credenciamento localizados na entrada do evento, para obterem acesso às salas e Auditório Principal.

09:00 às 10:00 Abertura do evento no Auditório Principal

Após o credenciamento, convidamos os participantes a comparecerem ao auditório para receberem as boas vindas por parte dos realizadores e patrocinadores.

Neste keynote de abertura, todos serão orientados sobre o funcionamento do evento, destaques e outras novidades.

10:10 às 11:00 Arquitetura Big Data para Gestão de Regras de Negócios e Processamento de Eventos Complexos
Leandro Mendes Ferreira

A palestra aborda um caso de uso (instituição financeira) onde construímos arquitetura simples, robusta e de baixo custo, para um sistema completo de Processamento de Eventos Complexos (acrônimo em inglês CEP) juntamente com um Sistema de Gerenciamento de Regra de Negócios (acrônimo em inglês BRMS) baseado em ferramentas de Big Data.

Para isto foi utilizado o BRMS JBoss Drools, com sua interface gráfica para criação regras conhecida como Kie Workbanch. Os artefatos gerados pelo Drools foram submetidos no Apache Spark. Aditivamente foi utilizado o Apache Kafka como subsídio para processamento em streaming junto ao Apache Spark.

Como integrar as soluções dos times de Data Engineering e Data Science?
Tiago Vinicius Remigio da Costa

A integração de soluções desenvolvidas pelos times de Data Engineering e Data Science nem sempre é trivial. Discutiremos tecnologias e boas práticas adotadas no Serasa Experian Datalabs, incluindo ecossistema Hadoop aliado a ferramentas sobre GPU, que buscam maximizar a capacidade de entrega conjunta dos times. Mostraremos exemplos de atividades que vão desde análise exploratória, processamento de grandes volumes de dados à deploy de modelos em produção.

11:10 às 12:00 Implementando uma arquitetura de BI e Big Data na nuvem em tempo recorde
Ricardo Lima

Na era da informação é praticamente um pecado capital não utilizar dados e informações concretas para a tomada de decisão. No entanto, montar uma arquitetura capaz de aproveitar o potencial de tamanha disponibilidade e volume de dados não é uma tarefa simples. Nesta apresentação, discutiremos um caso real de implementação de uma solução de BI e Big Data na nuvem e nos aprofundaremos na estratégia adotada. Quais os prós? Quais os contras? Quais as possíveis variações dessa estratégia? Essas serão as perguntas respondidas aqui!

12:10 às 13:00 Integração de Dados com ferramentas de Big Data. 100x mais capacidade, 10x menos custos.
Leandro Mendes Ferreira

Palestra sobre como fazer integração de dados com Big Data, as vantagens competitivas e de negócios, aumento de capacidade de processamento, e diminuição de custo. É abordado o caso de uma instituição financeira que trocou ferramentas tradicionais de integração de dados por ferramentas de Big Data.

13:10 às 14:00 Intervalo para Almoço
Uma excelente oportunidade de todas as pessoas no evento interagirem e trocarem ideias, colaboradores, empresas patrocinadoras e apoiadoras, palestrantes e coordenadores.
14:10 às 15:00 A jornada para construir um Data Lake na nuvem
Matheus Espanhol

Da arquitetura até a implementação de um Data Lake nos deparamos com uma grande quantidade de ferramentas opensource e serviços na nuvem para agregar ao universo Big data. Juntar essas ?peças? para construir algo que gere valor para o negócio é um desafio. O objetivo dessa palestra é compartilhar os erros e acertos na implantação de um Data Lake através da análise de trade-offs e resultados de benchmarks realizados durante a jornada. Utilizando comparativos de funcionalidades e custo, serão apresentadas as opções analisadas para as camadas de armazenamento e processamento, como cloud storages e soluções como Presto, Bigquery, Athena e Redshift Spectrum.

15:10 às 16:00 Utilizando o Apache Kudu como Workload Analítico
Alan Silva / Claudio Seidi Takamiya

Um dos grandes desafios quando desenvolvemos um sistema de Workload Analítico em Tempo Real é trabalhar com dados que mudam de forma rápida em um intervalo de tempo muito baixo.

A proposta dessa apresentação é justamente demonstrar como o Apache Kudu pode facilitar a utilização desse tipo de caso de uso e ao final realizar uma demonstração na prática de uma solução que contempla essa questão.

16:00 às 16:30 Coffee-break e Networking

Durante o intervalo de coffee-break, serão entregues kits contendo suco e biscoitos. Um delicioso intervalo para relaxar, conhecer novas pessoas e estreitar contatos.

Neste tempo, também surge a oportunidade de todas as pessoas no evento interagirem entre sí, participantes das trilhas, empresas patrocinadoras e apoiadoras, palestrantes e coordenadores.

16:40 às 17:30 IBM BigSQL - Engine de consulta de dados de alto desempenho para Hadoop
Julio Boehl

O IBM BigSQL é uma engine de execução relacional de alto desempenho desenvolvida para trazer novos níveis de desempenho e funcionalidade ao mundo SQL/Hadoop.

Construída com base nos mais de 40 anos de experiência da IBM em bases de dados relacionais, o BigSQL permite em uma única Engine:

  • Alto desempenho para consultas SQL em ambiente Hadoop.
  • Compatibilidade com SQL ANSI, incluindo suporte a SQL procedural além do suporte ao dialeto Oracle e PL/SQL.
  • Avançado nivel de segurança e gerenciamento de Workload.
  • Integração avançada com o eco-sistema Hadoop incluindo Yarn, Hive e Ranger.
  • Federação com outras bases de dados, como Oracle, PostgreSQL e SQL Server.
17:40 às 18:30 Escalabilidade, Performance e Arquitetura do Apache Kafka para Event-Driven Architectures
Alexandre Gama

Já se deparou com o problema de Distributed Messages? E replicação e partição de dados em um sistema de Stream Real Time? E quando temos muitos dados e precisamos de Cluster horizontal? E se precisarmos de garantia de entrega? E o desafio de recebimento de mensagens na sequência? Veja nesta palestra como o Apache Kafka responde todas essas perguntas e como a sua Arquitetura baseada em Eventos pode se beneficiar!

18:40 às 19:00 Encerramento e Sorteios

No horário de encerramento, todas as trilhas serão direcionadas de suas salas para o Auditório Principal, mesmo local da abertura.

Após a apresentação de resultados do dia muitos sorteios fecharão o dia.

Data e Local

Sexta-feira, 10 de Novembro de 2017

8:30 às 19:00 h

UniRitter

Rua Orfanotrófio, 555
Alto Teresópolis | Porto Alegre - RS

Informações sobre Data e Local


Público Alvo

Analistas, cientistas e arquitetos de dados, desenvolvedores, pessoas interessadas em geral em conhecer mais sobre Big Data, BI e Cloud.


Investimento

presencial:R$ 240,00

Fazendo sua inscrição presencial, você terá acesso a esta trilha e no mesmo dia também:
TDC Expo: Venha conversar com pessoas e conhecer empresas incríveis.
Trilha Stadium: Você poderá assistir às palestras da trilha Stadium do mesmo dia.