Je construis une application simple qui fait ci-dessous dans l'ordre -

1) Lit les messages à partir d'un IBM MQ distant (le système hérité ne fonctionne qu'avec IBM MQ)

2) Écrit ces messages dans le sujet Kafka

3) Lit ces messages à partir du même sujet Kafka et appelle une API REST.

4) D'autres consommateurs pourraient lire ce sujet à l'avenir.

J'ai appris que Kafka a la nouvelle API de flux qui est censée être meilleure que le consommateur de Kafka en termes de vitesse / simplicité, etc. dans mon processus, je peux le brancher?

6
Avinash Kawale 19 avril 2017 à 22:49

2 réponses

Meilleure réponse

1) Lit les messages à partir d'un IBM MQ distant (l'ancien système fonctionne uniquement avec IBM MQ)

2) Écrit ces messages dans le sujet Kafka

J'utiliserais l'API Connect de Kafka pour (1) et (2).

3) Lit ces messages à partir du même sujet Kafka et appelle une API REST.

Vous pouvez utiliser l'API Streams ainsi que l'API Consumer de niveau inférieur de Kafka, selon ce que vous préférez.

4) D'autres consommateurs pourraient lire ce sujet à l'avenir.

Cela fonctionne immédiatement - une fois que les données sont stockées dans une rubrique Kafka conformément à l'étape 2, de nombreuses applications et «consommateurs» différents peuvent lire ces données indépendamment.

9
Michael G. Noll 20 avril 2017 à 08:24

Il semble que vous n'effectuez aucun traitement / transformation une fois que vous avez consommé votre message de votre IBM MQ ou même après votre rubrique Kafka.

Le premier -> d'IBM Mq à votre sujet Kafka est une sorte de pipeline et deuxièmement -> Vous appelez simplement l'API REST (je suppose sans traitement)

Compte tenu de ces faits, il semble être un bon choix pour utiliser Simple consumer.

N'utilisons pas une technologie uniquement parce qu'elle est là :)

0
Anil Singh 20 déc. 2018 à 11:58