Big Data com Confluent Cloud: Sistema Nervoso Central para Eventos
12 horas imersivas e intensas onde você vai aprender como desenvolver soluções em tempo real seguindo as melhores práticas de mercado para extrair o máximo da plataforma que revoluciona o conceito de nuvem escalável, segura e de alta disponibilidade.
4 vantagens de aprender Big Data com Confluent Cloud
1. Facilidade de uso: Os serviços gerenciados de streaming de dados em tempo real, permitem que você possa começar a usá-lo rapidamente, sem a necessidade de gerenciar uma infraestrutura complexa.
2. Escalabilidade: Possibilita trabalhar com grandes volumes de dados de forma eficiente e escalando conforme sua necessidade.
3. Integração: Facilidade de integração de diferentes ferramentas e fluxos de trabalho em sua análise através de integrações com outras ferramentas de análise de dados e de fluxo de trabalho de nuvem como Apache Spark, Apache Avro e Apache Hive.
4. Segurança: Com segurança de dados embutida, incluindo criptografia de dados em trânsito e repouso, autenticação e autorização, e monitoramento de segurança, o que garante a proteção de seus dados.
Acelere sua carreira de Big Data transformando dados em insights valiosos com Confluent Cloud
O segredo para tomar decisões em tempo real baseadas em dados.
Repositório Exclusivo GitHub
Documentação fim a fim
Carga Horária
12 horas
1 ano de acesso
Assista quantas vezes quiser e aprenda no seu ritmo.
Certificado
Permaneça atualizado e à frente do mercado.
Vagas limitadas para participação das aulas ao vivo!
Conteúdo Programático:
FASE 1
Confluent Cloud: A Plataforma de Streaming de Dados
Só pra começar vamos desenvolver detalhadamente a arquitetura que será usada durante todo o treinamento, além de, é claro, provisionar o ambiente. Faremos isso cobrindo todo o checklist abaixo:
Checklist:
Fundamentos de Apache Kafka & Conceitos da Área de Dados
O que é o Confluente Cloud
Quais são as características mais marcantes do Confluente Cloud como plataforma gerenciada
Produtos Open-source & Confluent Cloud
Overview dos Recursos do Confluent Cloud
Use-cases e Personas: use-cases e modelos de sistemas distribuídos para mensageria
Criação e Provisionamento do Confluent Cloud
Use-case: Como é uma entrega fim a fim de um projeto de Real-time Analytics com Confluent Cloud?
Por que escolher a ferramenta Confluent Cloud e como ter segurança de ter feito a escolha correta?
Para responder essas perguntas, no use-case da FASE 1 vamos, não apenas provisionar o ambiente, mas também, desenvolver detalhadamente a arquitetura que será usada durante todo o treinamento.
E o melhor: você poderá, além de acompanhar tudo em tempo real, tirar suas dúvidas durante a aula!
FASE 2
Construindo um Enterprise Data Hub como Sistema Nervoso Central
Na FASE 2 você vai entender:
Como criar um hub de dados dentro de uma organização usando Confluent Cloud
Como realizar a ingestão de dados e processamento
Como fazer o output dos dados
Checklist:
Confluent Cloud Sistema Nervoso Central
Kafka Connect Serverless
KSQLDB Server
Fontes de Dados Externas e Técnicas de Ingestão de Dados
Kappa Architecture
Use-case: Você verá a criação de um pipeline de dados fim a fim:
INGESTÃO de dados de bancos de dados externos
PROCESSAMENTO de streams usando SQL
ENTREGA dos dados enriquecidos para data stores otimizados para consulta colunar para analytics.r o output dos dados
FASE 3
Desenvolvendo Sistemas de Streaming com Confluent Cloud
Existem muitos casos na Engenharia de Dados que precisamos codificar, por isso na FASE 3 você vai aprender:
Como criar produtores e consumidores usando as melhores práticas para escrever e ler dados no Confluent Cloud
Como usar Schema Registry para gestão de Schemas integrado ao Confluent Cloud.
Checklist:
Melhores práticas de desenvolvimento de Aplicação Producer com autenticação do Confluent Cloud
Desenvolvimento de Aplicação Consumer com autenticação do Confluent Cloud
Utilizando Schema Registry no Confluent Cloud
Implementando colaboração e qualidade com Stream Catalog & Stream Quality em nosso pipeline de dados
Use-case: Aprenda como criar um pipeline de dados fim a fim utilizando os recursos do Confluent Cloud para tornar a experiência ainda mais fácil e com alto grau de gestão.
FASE 4
Data Mesh Pathway
Veja a implementação de um caso real de Data Mesh:
Como funciona essa arquitetura,
Como desenhar o processo
Como implementar utilizando Confluent Cloud como o coração do projeto
Checklist:
Conceitos de Data Mesh
Confluent Cloud & Data Mesh
Construindo um Data Plane utilizando Confluent Cloud
Use-case: Aprenda como criar uma arquitetura de Data Mesh e implementar o Data Plane usando o Confluent Cloud como solução central de integração de produtos de dados.
Acesso a Comunidade do Curso
O Ambiente ideal para você tirar as suas dúvidas e ainda criar networking.
Repositório no GitHub
Documentação fim a fim.
Aprenda a escalar e gerenciar fluxos de dados em tempo real com Confluent Cloud
Confluent Cloud: a maneira mais fácil de executar Apache Kafka.
Faça parte da primeira turma do Crash-course
Big Data com Confluent Cloud: Sistema Nervoso Central para Eventos
e garanta um presente exclusivo da Comunidade de Dados The Plumbers:
Série Os Fundamentos
Os Fundamentos é um presente exclusivo da Comunidade de Dados The Plumbers para você desenvolver e solidificar conhecimentos fundamentais para um Profissional de Dados.
LIBERAÇÃO IMEDIATA: Essa série é liberada imediatamente para você na Plataforma de Cursos após sua inscrição.
Veja alguns episódios disponíveis e aproveite o potencial máximo dos serviços dentro das Clouds Providers:
OLAP
OLTP
Data Warehouse
Data Lake
Data Governance
Computação distribuída
Teorema CAP & Base
Arquitetura Kappa
Vagas limitadas para participação das aulas ao vivo!
Crash-Course
Big Data com Confluent Cloud: Sistema Nervoso Central para Eventos
1 ano de acesso ao Crash-Course: Big Data com Confluent Cloud
1 ano de acesso à Série Os Fundamentos
Acesso à Comunidade de Alunos
Repositório Exclusivo GitHub
Certificado de conclusão
Por apenas
12xR$ 89,70
ou R$897,00 à vista.
Crash-Course
Big Data com Confluent Cloud: Sistema Nervoso Central para Eventos
1 ano de acesso ao Crash-Course: Big Data com Confluent Cloud
Aprenda com um especialista certificado em Kafka e membro da Confluent Community Catalyst
Professor: Mateus Oliveira
Profissional com mais de 8 anos de experiência trabalhando com dados, somado a mais de 6 anos dedicado ao mercado financeiro, na parte de administração de dados. Destes, passou 3 anos atuando junto com Lead Data Engineer especializado Apache Kafka e foi encarregado de projetos com diferentes portes, buscando soluções de Big Data para clientes, tanto em ambientes de nuvem Azure, GCP e AWS, quanto ambientes conteinerizados - Big Data no Kubernetes.
Possui certificação em Apache Kafka e Apache Airflow. Também já foi palestrante em diferentes eventos regionais, como SQL BH, MPV Conf, além do evento internacional, Kafka Summit.
Recentemente, recebeu um novo reconhecimento de Apache Kafka, fornecido pela Confluent, tornando-se um dos poucos brasileiros membros do Confluent Community Catalyst.
Roadmap Crash-Course: Big Data com Confluent Cloud