Apache Kafka macht Big Data-Analysen möglich, indem es eine hoch skalierbare Plattform mit kurzen Wartezeiten für die Erfassung und Verarbeitung von Live-Datenstreams bereitstellt. Und wenn Unternehmen ihre wertvollen Daten, die in den verschiedensten Datenbanken geführt werden, über Kafka erfassen lassen, profitieren davon auch ihre Analyse- oder Data Lake-Initiativen.

Die Datenerfassung in Echtzeit kann sich problematisch gestalten, da die Quellsysteme möglicherweise belastet werden, komplexe benutzerdefinierte Entwicklungsarbeiten erforderlich sein können und die Datenerfassung effizient skaliert werden muss, um eine große Anzahl von Datenquellen zu unterstützen. Attunity Replicate löst diese Probleme durch Einsatz der CDC-Technologie, mit deren Hilfe Daten effizient, skalierbar und in Echtzeit aus vielen Datenbank-Quellsystemen erfasst werden können, ohne die Systeme stark zu belasten.

“Attunity ist sowohl für Confluent als auch für die gesamte Kafka-Community ein wichtiger Partner. Die Technologie dieses Unternehmens vereinfacht die Integration mit Kafka und ermöglicht es unseren Kunden, schneller und mit weniger Aufwand einen größeren geschäftlichen Nutzen aus ihren Daten zu ziehen.”

– Confluent (ein von den Machern von Apache Kafka gegründetes Unternehmen).

In Echtzeit und ohne größere Systemlast 

Attunity Replicate bietet IT-Organisationen die folgenden Vorteile:

  • Echtzeitdatenerfassung. Einspeisung von Live-Datenbankänderungen in Kafka-Message-Broker mit niedriger Latenz
  • Replikation mit geringer Systembelastung. Dank protokollbasiertem CDC werden die Systeme kaum belastet, und eine einzigartige, fast aufwandslose Architektur („Zero Footprint“) macht es überflüssig, dass Agenten auf Datenbank-Quellsystemen installiert werden müssen. 

Einfache und automatisierte Bereitstellung

  • Keine manuelle Erstellung von Programmcode.  Datenfeeds können in einer intuitiven und konfigurierbaren Benutzeroberfläche schnell und einfach eingerichtet werden, ohne dass dazu Programmcode erstellt werden muss.‭

Universell und skalierbar

  • Unterstützung für viele Datenquellen. Eine einzige Plattform unterstützt viele Typen von Quellen, inklusive aller gängigen RDBMS, Data Warehouses und Mainframe-Systeme.  
  • Hohe Skalierbarkeit. Eine Architektur und Software, die die Datenerfassung auf Hunderte oder Tausende von Datenbanken skalieren kann, was die Möglichkeit zur zentralisierten Überwachung und Verwaltung bietet.
Dev Tool:

Request: solutions/hadoop-big-data/streaming-ingest-kafka
Matched Rewrite Rule: (.?.+?)(?:/([0-9]+))?/?$
Matched Rewrite Query: pagename=solutions%2Fhadoop-big-data%2Fstreaming-ingest-kafka&page=
Loaded Template: page.php