Florian travaille depuis plus de 8 ans dans le conseil, il est co-fondateur et CEO de StreamThoughts. Au cours de sa carrière, il a travaillé sur divers projets impliquant la mise en oeuvre de plateformes d’intégration et de traitement de la data à travers les mondes technologiques de Hadoop et de Spark. Passionné par les systèmes distribués, il se spécialise dans les technologies d’event-streaming comme Apache Kafka, Apache Pulsar. Aujourd’hui, il accompagne les entreprises dans leur transition vers les architectures orientées streaming d’événements. Florian est certifié Confluent Administrator & Developer pour Apache Kafka. Il est nommé deux années consécutive (2019 et 2020) “Confluent Community Catalyst” pour ses contributions sur le projet Apache Kafka Streams et son implication dans la communauté open-source. Il fait partie des organisateurs du Paris Apache Kafka Meetup.
Apache Kafka
Introduction à la plateforme de streaming d'évenements
Pour plus d'informations sur cette formation, veuillez contacter :
training@streamthoughts.io
Description
Cette atelier d'une journée donne aux participants un aperçu de la plate-forme Apache Kafka et Confluent.Inc. Nous présenterons et discuterons des concepts d'architecture et des utilisations de Kafka Core, de Kafka Connect et de Kafka Streams.
Objectifs du cours
Ce cours permet aux participants d'acquerir les compétences suivante :
- Comprendre les concepts de base d'Apache Kafka.
- Comprendre l’écosystème et les usages de la solution Apache Kafka.
- Comprendre les usages de solutions Kafka Connect.
- Comprendre les usages de solutions Kafka Streams.
Pédagogie
80% théorie, 20% pratique
Qui Peut Participer ?
Cet atelier est destiné aux Développeurs d'applications, aux Architectes, aux Data Ingénieurs et aux Chefs de projet techniques.
Durée
1 Jour
Pré-requis
Il n'y a pas de pré-requis pour ce cours
Programme de formation
Module 1 : Introduction
- Event Streaming, Les Motivations ?
- Qu’est-ce qu’ Apache Kafka ?
- Le projet Apache Kafka
- Les principaux avantages de Kafka
- Quel sont les usages ?
- Les solutions alternatives
- La plate-forme Confluent
Module 2 : Kafka, Les Fondamentaux
- Broker, Message, Topic & Partitions
- Principes de bases des Producers
- Consumers & Consumer Groups
- Réplication et tolérance à la panne
- Rétention et compression des données
- Comprendre les rôles de zookeeper
- Comprendre les performances de Kafka
Module 3 : Intégration de données avec Kafka Connect
- Introduction à Kafka Connect
- Architecture de Kafka Connect
- Les Converters et les Single Message Transforms (SMTs)
- Les modes de déploiements
- Exemples de cas d’utilisations
Module 4 : Traitement de données avec Kafka Streams
- Introduction à Kafka Streams
- Les concepts : Streams et Tables
- Les opérations : Stateless et Stateful.
- Les agrégations fenêtrées et les jointures
- Interactive Queries
- Introduction à ksqlDB
Module 5 : Gouvernance et modèles de données
- La sérialisation des données
- Introduction à Avro
- Gérer l’évolution des schémas
- Comprendre le rôle d’un Schema Registry