top of page
  • dorian.ruiz

Kafka, comment ça fonctionne ?

Introduction


Créé par Linkedin en 2011 pour servir de service de messagerie instantanée et repris par Apache, Kafka est un système de streaming open source distribué utilisé pour le traitement des flux, les pipelines de données en temps réel et l'intégration des données à grande échelle. L'outil a rapidement évolué de file d'attente de messagerie à une plateforme de streaming à part entière capable de gérer plus d'un million de messages par seconde et des milliers de milliards de messages par jour.


1. Composants clés

  • Producers: Ce sont les entités qui publient des données sur les topics Kafka. Les producers envoient des données aux brokers Kafka. 

  • Topics: Un topic est une catégorie ou un nom de flux auquel les enregistrements sont envoyés par les producers. Les topics sont partitionnés et répliqués pour garantir une haute disponibilité et une scalabilité. 

  • Brokers: Les brokers Kafka sont des serveurs qui stockent les données. Chaque broker peut gérer des centaines de milliers de lectures et d'écritures par seconde de la part de milliers de clients. 

  • Consumers: Ce sont les entités qui s'abonnent aux topics et traitent les données. Les consumers lisent les données des brokers. 

  • ZooKeeper: Il est utilisé pour gérer et coordonner les brokers Kafka. Il aide à maintenir les métadonnées, l'élection du leader et la gestion de la configuration. 



2. Le rôle de Leader dans Kafka 

Chaque partition d'un topic a un "leader" et plusieurs "répliques". Le leader est le broker qui gère toutes les opérations de lecture et d'écriture pour cette partition. Les autres brokers contiennent des répliques de la partition, appelées "followers", qui synchronisent les données depuis le leader. En cas de défaillance du broker leader, un nouveau leader est automatiquement élu parmi les followers, garantissant ainsi la continuité du service sans interruption majeure. Cette élection est gérée par ZooKeeper. 



3. Workflow 

  • Production de données: Les producers génèrent des données et les envoient aux topics Kafka. Chaque topic peut avoir plusieurs partitions, et les données dans chaque partition sont ordonnées. 

  • Stockage des données: Les brokers Kafka stockent les données publiées sur un topic. Chaque message dans une partition de topic reçoit un offset unique. 

  • Consommation de données: Les consumers s'abonnent aux topics et lisent les données des brokers. Ils suivent l'offset pour s'assurer qu'ils lisent chaque message exactement 1 ou N nombre de fois selon les besoins. 

  • Réplication: Pour garantir la fiabilité et la tolérance aux pannes, Kafka réplique les données sur plusieurs brokers. Si un broker tombe, un autre prend le relais, garantissant aucune perte de données. 



4. Quand utiliser Kafka 


Dans le domaine du traitement de données à grande échelle, Kafka se distingue par ses capacités à gérer des flux configurables et scalables. Kafka est une solution idéale pour construire des solutions de traitement de données résilientes et efficaces, adaptées à des tâches telles que l'agrégation de logs, de métriques opérationnelles et le traitement de flux IoT.  

L'un des avantages clés de Kafka réside dans sa capacité à réutiliser les données en réorientant les flux existants, offrant ainsi une flexibilité et une efficacité accrues dans la gestion des données. Kafka occupe une place stratégique en tant que middleware de gestion de flux de données, facilitant la communication entre les systèmes d'ingestion comme Apache NiFi. Il peut rapidement recevoir des données de NiFi à grande vitesse, permettant aux applications de les extraire selon leur propre rythme. 

Kafka se comporte également comme une base de données de logs, offrant une introspection des messages récents pour des analyses avancées. Cette capacité, combinée à sa flexibilité en tant que base de données de messagerie hybride, permet de répondre à divers cas d'usage, allant des processus analytiques aux flux de données avec plusieurs abonnés. L'architecture sous-jacente de Kafka est conçue pour résoudre les défis associés à ces types d'usages, offrant un système de stockage tolérant aux pannes, des fonctionnalités de haute performance et d'élasticité, ainsi qu'une gestion efficace des données via la compression. 

En résumé, Kafka est particulièrement utile dans les situations nécessitant un traitement des données en temps réel, un débit élevé et une possibilité de scalabilité horizontale. Voici quelques exemples de cas d'utilisation courants : 


  • Analyse en temps réel: Kafka peut traiter de grands flux de données en temps réel, il s’interface parfaitement avec des applications d'analyse. 

  • Event Sourcing: Capturer les changements d'état comme une série d'événements, Kafka garantit une architecture pilotée par les événements fiable. 

  • Agrégation de log: Kafka peut permettre de centraliser les logs de divers serveurs, simplifiant ainsi le monitoring et le débogage. 

  • Intégration de données: Kafka peut agir comme un hub de données central, intégrant les données de diverses sources et les distribuant vers plusieurs destinations. 

  • Microservices: Kafka facilite la communication entre les microservices en les découplant et en garantissant une livraison fiable des messages. 

 


5. Kafka VS ses concurrents 

  

Kafka 

RabbitMQ 

Pulsar 

Architecture 

- Conception basée sur des partitions pour le traitement de flux à haut débit en temps réel.  

- Les producteurs publient des messages sur des sujets et des partitions auxquels les consommateurs sont abonnés (modèle pull)    

- Conçue pour le routage de messages complexes.  

 

- Les producteurs envoient des messages aux consommateurs avec des règles différentes (modèle push). 

- Architecture segmentée avec des topics partitionnés et une séparation entre le traitement et le stockage.  

- Les producteurs publient des messages sur des topics qui peuvent être partitionnés (modèle push-pull hybride).    

Gestion des messages 

- Les consommateurs suivent la récupération des messages grâce à un outil de suivi offset.  

- Kafka conserve les messages conformément à la politique de conservation. Il n'y a pas de priorité pour les messages.     

- Les courtiers RabbitMQ surveillent la consommation de messages.  

Il supprime les messages une fois qu'ils ont été consommés (prise en charge de la priorité des messages). 

- Mécanisme de curseur pour le suivi des messages consommés.  

- Stocke les messages dans BookKeeper (stockage segmenté) et prend en charge les politiques de rétention configurables. 

Performances 

- Kafka permet de transmettre en temps réel jusqu'à des millions de messages par seconde.    

- RabbitMQ a une faible latence. Il envoie des milliers de messages par seconde. 

- Latence faible et des performances élevées, similaires à Kafka, avec une capacité à traiter des millions de messages par seconde. 

Langage et protocole de programmation 

- Le choix de langages de programmation de Kafka est plus limité et les librairies permettant l’interfaçage sont moins matures.  

- Il utilise le protocole binaire via TCP pour la transmission de données.  

- RabbitMQ prend en charge un large éventail de langages et de protocoles existants. 

- Utilise principalement AMQP (Advanced Message Queuing Protocol) mais supporte également : STOMP, MQTT, HTTP(S), WebSocket    

- Pulsar prend en charge plusieurs langages de programmation (Java, Python, Go, C++) et protocoles (Pulsar, Kafka, AMQP, MQTT), offrant une flexibilité comparable à RabbitMQ. 

Scalabilité  

- Mieux adapté aux débits élevés et à la scalabilité horizontale grâce à son modèle de logs partitionnés et à la distribution automatique des données. 

- Offre un routage flexible et une livraison garantie, mais nécessite plus d'efforts et est plus complexe à utiliser lors de la gestion de grands volumes. 

- Ses mécanismes de curseur et de réplication assurent une haute disponibilité et une reprise rapide, tout en simplifiant la gestion de grandes quantités de données. 

Interfaçage  

Capacités d’interfaçage robustes grâce à son écosystème riche et ses intégrations étendues :  

- Kafka Connect pour les BDD 

- Kafka Streams facilite l’intégration avec Flink et Spark.  

Kafka est fréquemment utilisé en conjonction avec des plateformes de Big Data et d’analyse, telles qu’Elasticsearch, Hadoop, et des systèmes de cloud comme AWS, Google Cloud, et Microsoft Azure, offrant ainsi une flexibilité et une extensibilité considérables pour les architectures de données modernes. 

Reconnu pour sa flexibilité grâce à son support de multiples protocoles de messagerie. Cette polyvalence lui permet de s'intégrer facilement avec de nombreux langages et frameworks. 

Il dispose également de plugins qui facilitent l’interfaçage avec d’autres outils (HTTP pour la gestion et le monitoring via des interfaces web), ou les plugins de federation et shoveling pour relier plusieurs instances RabbitMQ.  

Cela permet à RabbitMQ de s’intégrer de manière fluide dans des environnements hétérogènes et de servir de hub de messagerie centralisé pour divers systèmes et applications. 

Interopérabilité avancée grâce à son support multi-protocoles et ses bibliothèques client pour divers langages de programmation. Il est conçu pour s'intégrer facilement avec des systèmes de Big Data et d’analyse, tels que Flink et Storm, via des connecteurs dédiés.  

Pulsar Functions, permet le traitement en temps réel des flux de données, facilitant l'intégration avec des systèmes de traitement de données complexes.  

De plus, Pulsar s'intègre bien avec des solutions de stockage comme Hadoop HDFS et Amazon S3, permettant une gestion efficace des données à grande échelle. 

 

6. Best practices Kafka 

  • Partitionnement approprié des topics: Concevoir les topics avec un nombre adéquat de partitions pour équilibrer la charge et optimiser les performances. 

  • Facteur de réplication: Utiliser un facteur de réplication adéquat (généralement 3) pour garantir la durabilité des données et la haute disponibilité. 

  • Surveillance et alertes: Mettre en place une surveillance et des alertes complètes pour les clusters Kafka en utilisant des outils comme Prometheus, Grafana ou Kafka Manager. 

  • Sécurité: Sécuriser les clusters Kafka en activant le chiffrement (TLS) et l'authentification (SASL) pour protéger les données en transit et au repos. 

  • Conception efficace des consumers: Concevoir des consumers pour gérer efficacement le traitement des messages, en s'assurant qu'ils peuvent suivre le flux de données. 


7. Les KPI de Kafka  

  • Broker Metrics : Les brokers Kafka jouent un rôle central dans le transport et la réplication des données à travers le cluster. 

    • Replicated byte rate: Surveille l'efficacité de la réplication des données. 

    • Produced and Consumed byte rate : Aide à évaluer le débit des données. 

    • CPU, Memory, and Disk I/O usage: Métriques systèmes basiques. 

    • Offline Partitions and Leader Election Rates: Ils sont essentiels pour évaluer la stabilité de votre flux de données et les problèmes potentiels de leadership du cluster. 

  

  • Topic Metrics : Les topics sont les flux de données dans lequel les messages sont publiés. 

    • Nombre de messages produits/consommés : Reflète la vitesse du flux de données. 

    • Replication factor and In-sync replicas : Cruciaux pour la redondance des données et la tolérance aux pannes. 

    • Under-replicated partitions : Indicateur permettant de prévenir des problèmes de réplication.    

  • Producer Metrics : Les producers envoient des données dans les topics Kafka. Leur efficacité affecte directement la rapidité et la fiabilité de l'ingestion des données dans Kafka. 

    • Number of messages produced : Surveille le taux d'entrée des données. 

    • Producer latency : Mesure du délai d'entrée des données. 

    • Producer retries and errors : Indicateurs clés des problèmes liés à la publication des données.    

  • Consumer Metrics : Les consumers récupèrent des données des topics Kafka. Une consommation efficace garantit la disponibilité des données en temps voulu pour les applications. 

    • Number of messages consumed : Permet de connaître les taux de consommation. 

    • Consumer latency and lag : Indicateurs du retard pris dans le traitement des données. 

 

Conclusion 

Kafka peut s'avérer être un outil de taille pour les entreprises cherchant à traiter des données en temps réel. Son architecture partitionnée couplée à sa capacité de scalabilité horizontale garantissent une haute disponibilité et grande tolérance aux pannes. 

Plus performant et simple d’utilisation qu’un RabbitMQ, plus mature qu’un Apache Pulsar, Kafka se distingue par la gestion de débits élevés et la réorientation des flux de données, ce qui le rend idéal pour l'analyse en temps réel, l'intégration de données et la communication entre microservices.  

En résumé, Kafka est une solution robuste et flexible pour les besoins modernes de traitement de données, offrant des performances élevées, une scalabilité et une résilience robuste, tout en s'intégrant efficacement avec divers systèmes et technologies, notamment grâce à Kafka Connect et Kafka Stream. 

31 vues0 commentaire

Posts récents

Voir tout

Comments


bottom of page