La voie rapide vers les lacs de données prêts pour l'analyse

Automatisez votre pipeline de données

Attunity Compose for Hive automatise le pipeline de données pour créer des données prêtes pour l'analyse.  En automatisant l'ingestion de données, la création du schéma Hive, et les mises à jour continues, les organisations retirent plus rapidement de la valeur de leurs lacs de données.

Ingestion universelle des données

Attunity supporte la gamme de sources et de cibles la plus large de l'industrie ce qui permet d'ingérer des données dans un lac de données sur site, dans le cloud ou dans un environnement hybride. Ces sources comprennent:

  • SGBDR: Oracle, SQL, DB2, MySQL, Sybase, PostgreSQL
  • Entrepôts de données: Exadata, Teradata, IBM Netezza, Vertica, Pivotal
  • Hadoop: Hortonworks, Cloudera, MapR
  • Cloud: AWS, Azure, Google Cloud
  • Systèmes de messagerie: p. ex., Apache Kafka
  • Applications: par exemple, SAP
  • Systèmes existants: IMS/DB, DB2 z/OS, RMS, VSAM

Structuration et transformation simples des données

Générez automatiquement le schéma et les structures dans le Catalogue Hive pour les ODS (Operational Data Stores) et les HDS (Historical Data Stores) - sans codage manuel.

  • Processus intuitif et guidé pour la modélisation, l'exécution et les mises à jour
  • Traitement Pushdown vers Hadoop. Toute la logique de transformation nécessaire est générée automatiquement et poussée vers Hadoop pour traitement sous forme de flux de données via le pipeline

Mises à jour continues

Vous avez la certitude que l'ODS et l'HDS correspondent exactement votre système source.

  • Utilisation de la capture des données modifiées (CDC) pour une véritable analyse en temps réel avec moins de surcharge administrative et de traitement
  • Traitement efficace des charges de Big Data avec le Parallel Threading
  • Partitionnement basé sur le temps avec cohérence transactionnelle : seules les transactions terminées dans le délai indiqué sont traitées

Garantir la cohérence des données

Exploitez les dernières avancées SQL de Hive, dont la nouvelle opération ACID MERGE pour traiter efficacement les insertions de données, les mises à jour et les suppressions tout en assurant l'intégrité des données et en évitant tout impact des utilisateurs.

Dimensions à évolution lente

Pour analyser les données historiques, votre HDS peut supporter les dimensions de type 2 à évolution lente et ajouter de nouvelles lignes à mesure que des mises à jour arrivent des systèmes sources. Ce nouvel enregistrement est horodaté, ce qui permet de réaliser facilement des analyses de tendances et d'autres analyses axées sur le temps.

Pour en savoir plus ou participer au programme beta, cliquez ici pour vous inscrire!

Dev Tool:

Request: products/compose/compose-for-hive
Matched Rewrite Rule: (.?.+?)(?:/([0-9]+))?/?$
Matched Rewrite Query: pagename=products%2Fcompose%2Fcompose-for-hive&page=
Loaded Template: page.php