Apache Kafka offre des opportunités d'analyse du big data grâce à une plateforme à grande échelle et à faible latence pour l'ingestion et le traitement des flux de données actives. Des données de valeur étant gérées dans toute une variété de bases de données, les entreprises peuvent bénéficier de l'ingestion de ces données par Kafka pour supporter leurs initiatives d'analyse ou de lacs de données.

L'ingestion de ces données en temps réel peut poser problème du fait de l'impact potentiel sur les systèmes sources, de la complexité du développement personnalisé et de la nécessité d'évoluer efficacement pour supporter un grand nombre de sources de données. Attunity Replicate relève ces défis avec une ingestion de données efficace, en temps réel et évolutive, depuis de nombreux systèmes de base de données source tirant parti de la technologie CDC à faible impact.

“Attunity est un partenaire important à la fois pour Confluent et pour l'ensemble de la communauté Kafka. Leur technologie simplifie l'intégration avec Kafka et permet d'obtenir plus rapidement une plus grande valeur métier à partir des données, avec moins d'efforts.”

Confluent, la société fondée par les créateurs d'Apache Kafka.  

Temps réel et faible impact

Attunity Replicate apporte de nombreux avantages aux départements informatiques:

  • Capture de données en temps réel. Transférez les changements de la base de données active vers les agents de message Kafka avec une faible latence.
  • Réplication à faible impact. La CDC basée sur le journal des transactions réduit l'impact de la réplication et une architecture unique à empreinte zéro élimine la nécessité d'installer des agents sur les systèmes de base de données source. 

Déploiement simple et automatisé

  • Aucun codage. Utilisez une interface intuitive et configurable pour préparer facilement et rapidement les transferts de données, sans codage manuel. 

Universel et évolutif

  • Support de nombreuses sources de données. Une seule plateforme qui supporte de nombreux types de sources, notamment tous les SGBDR majeurs, les entrepôts de données et les systèmes mainframe.  
  • Grande échelle. Une architecture et un logiciel qui évolue pour ingérer les données de centaines, voire de milliers, de bases de données, fournissant des fonctionnalités de surveillance et de gestion centralisées.
Dev Tool:

Request: solutions/hadoop-big-data/streaming-ingest-kafka
Matched Rewrite Rule: (.?.+?)(?:/([0-9]+))?/?$
Matched Rewrite Query: pagename=solutions%2Fhadoop-big-data%2Fstreaming-ingest-kafka&page=
Loaded Template: page.php