Depuis de nombreuses années, les entrepôts de données servent de base à l'analyse d'entreprise et ont évolué pour supporter l'augmentation des volumes de données ainsi que les charges de travail liées à l'ETL et à l'analyse. Avec le temps cependant, certaines données vieillissent et sont rarement utilisées, voire pas du tout. Les charges de travail ETL mises en œuvre en tant que transformations à l'intérieur de l'entrepôt de données peuvent évoluer jusqu'à utiliser beaucoup de cycles CPU, avec des répercussions sur les ressources supportant les processus d'analyse critiques. 

Hadoop sert de complément moderne à l'entrepôt de données d'entreprise avec un coût bien inférieur pour le stockage et le traitement de grands volumes de données. Avec Hadoop, les entreprises peuvent délester leur entrepôt de données de certaines charges telles que les processus ETL et les données de moindre valeur, libérant ainsi de précieuses ressources tout en réduisant le coût total de possession.

Pour pouvoir tirer parti de cette opportunité, les entreprises doivent identifier avec précision les données et les charges de travail pouvant être retirées et doivent comprendre l'impact potentiel de ce déplacement sur les utilisateurs, les rapports et les ressources informatiques. Cette tâche peut s'avérer difficile étant donné la complexité de l'environnement de l'entrepôt de données d'entreprise et de ses multiples couches.

Grâce à sa plateforme unique d'analyse de l'utilisation des données Attunity Visibility peut faciliter cette tâche. Cette plateforme supporte en effet toutes les plateformes d'entrepôt de données majeures dont Teradata, Exadata et IBM Pure Data for Analytics (Netezza). Attunity fournit en outre un logiciel pour l'exécution du transfert de données et la redirection de l'ingestion de données directement vers Hadoop.

Succès client

  • Pfizer a économisé 400 000 dollars par an en réduisant ses besoins de stockage pour les données RH et ses temps de chargement ETL.es
  • Une agence de voyage en ligne a réduit de 6 millions de dollars ses coûts d'entreposage de données en délestant des données et des charges de travail vers Hadoop.
  • Une banque du Fortune 50 a évité 15 millions de dollars de coûts de mise à niveau sur trois ans pour son entrepôt de données grâce au délestage des données inutilisées vers Hadoop et à l'adoption d'un programme de hiérarchisation du stockage en continu.

Augmentez et optimisez votre entrepot de données

Attunity Visibility fournit une analyse complète de l'utilisation des données et de la charge de travail pour toutes les plates-formes d'entrepôt de données de premier plan. Avec des informations et des informations basées sur une analyse approfondie et multidimensionnelle de l'environnement de l'entrepôt de données, il peut être facilement utilisé dans des tableaux de bord et des rapports pour permettre une planification informée et fondée sur les faits pour le déchargement et la migration vers Hadoop.

Avec Attunity Visibility, les entreprises peuvent:

  • Décharger les données de manière intelligente, en identifiant les données de l’entrepot de données inutilisées et rarement utilisées pour décharger Hadoop, libérant de la capacité et des ressources précieuses de l’entrepot de données.
  • Décharger les flux de travail ETL, en découvrant les flux de travail intensifs de l’ETL qui peuvent également être déplacés vers Hadoop, y compris une analyse approfondie de leurs instructions SQL.
  • Ressources EDW gratuites, en déchargeant des données et des flux de travail, en mettant davantage de ressources disponibles pour répondre à des besoins analytiques commerciaux importants

Délester les données vers Hadoop de façon efficace

Avec Attunity Replicate, les entreprises peuvent:

  • Accélérer le délestage des données, par réplication de données depuis leur entrepôt de données vers Hadoop.
  • Ingérer les données vers Hadoop à partir de nombreuses sources de données, permettant au département IT de transférer des données vers Hadoop pour le support des processus ETL délestés
  • Charger les données Hadoop dans l'entrepôt de données, en répliquant les résultats des processus ETL exécutés dans Hadoop et en les chargeant vers tout entrepôt de données. 
Dev Tool:

Request: solutions/hadoop-big-data/data-warehouse-optimization-hadoop
Matched Rewrite Rule: (.?.+?)(?:/([0-9]+))?/?$
Matched Rewrite Query: pagename=solutions%2Fhadoop-big-data%2Fdata-warehouse-optimization-hadoop&page=
Loaded Template: page.php