Améliorez la gestion et la qualité des données avec la stratégie Data Fabric .
Améliorez la gestion et la qualité des données avec la stratégie Data Fabric .
Pour gagner en performance, les entreprises doivent bien gérer leurs données et améliorer leur qualité en s’éloignant des méthodes traditionnelles.
Il est bien connu que l’extraction de valeur à partir de données externes et internes nécessite de se concentrer à la fois sur la gestion et la qualité des données. Gartner définit la gouvernance des données comme « la définition des droits de décision et des cadres de responsabilité pour garantir un comportement approprié en ce qui concerne l’évaluation, la création, la consommation et le contrôle des données et des analyses ». La qualité des données est largement déterminée par la précision et l’actualité des informations ; Sans données précises et sans savoir qui utilise les informations dans votre organisation, il est très difficile d’épuiser ces connaissances.
Bien qu’il soit bien connu que la gestion et la qualité des données sont d’une importance primordiale pour les organisations – et compte tenu des progrès considérables de la technologie et des capacités des données – les organisations ont encore du mal à assurer la qualité et la gestion des données.
Vérifiez également :
Une étude récente d’EY a révélé que 41 % des organisations considèrent que la qualité de leurs données est le plus grand défi. Gartner suggère que la mauvaise qualité des données coûte aux organisations en moyenne 12,9 millions de dollars par an.
En outre, le rapport d’EY a révélé que 14 % des organisations ont des problèmes pour accéder à l’infrastructure technologique et aux données associées. Sans une disponibilité, une technologie et une infrastructure de données adéquates, il est extrêmement difficile pour les entreprises de mettre en œuvre un cadre efficace de gestion des données.
Défis liés à la centralisation des données
Bon nombre des obstacles qui empêchent les entreprises d’atteindre leurs objectifs de qualité et de gestion des données découlent de l’approche traditionnelle centrée sur les données. Au fur et à mesure que l’organisation se développe, l’afflux de ressources opérationnelles crée des silos de données. Les entreprises tentent de surmonter ce problème en rassemblant les données de ces sources en un seul endroit. Bien qu’il n’y ait eu aucun argument en faveur de ce raisonnement ces dernières années, à une époque où la quantité et la complexité des données augmentent, il a conduit à de nombreux défis importants.
Par exemple, l’intégration de nouvelles sources de données dans un environnement centralisé demande beaucoup de temps et d’efforts. Le coût de la centralisation des données est important compte tenu de l’investissement dans le stockage, les ordinateurs et les interfaces, et de la tâche de standardisation des formats de données sur toutes les sources de données. Pendant ce temps, les silos de données sont en augmentation car il existe une séparation naturelle entre ceux qui créent et consomment des données – et les ingénieurs de données expérimentés dans les outils de Big Data. En effet, les ingénieurs manquent d’expertise métier et de domaine, et les propriétaires de produits de données manquent d’expertise technique. Par conséquent, les organisations n’ont pas la possibilité de voir la consommation de données dans l’ensemble de l’entreprise.
Les aspects techniques de la centralisation des données peuvent également contribuer aux effets négatifs de la politique réglementaire ; La concurrence interne peut amener les ministères à refuser de partager leurs actifs de données avec d’autres ministères. Le manque de visibilité et de disponibilité dans un environnement centré sur les données peut encourager le stockage des actifs de données et donc la perte de nombreuses initiatives de monétisation des données par l’entreprise.
Les problèmes de consolidation des données dans un environnement centralisé entraînent également l’utilisation de données obsolètes. Par exemple, à mesure que l’organisation se développe au fil du temps, un tiers peut interagir avec de nombreuses unités commerciales différentes au sein de l’organisation, chacune avec un système d’exploitation différent. Cela conduit à un manque de synchronisation des données – certaines données sont à jour et d’autres informations ne sont plus exactes. Cela entrave la mise en œuvre et la découverte des connaissances et affecte donc les résultats commerciaux.
Enfin, les entreprises ne peuvent pas dicter la manière dont les données sont utilisées. Lorsque les données sont centralisées, il est compliqué de mettre en place les contrôles d’accès les moins précis et les plus précis, donc la mise en place de la gouvernance d’entreprise et de la conformité est un défi.
Une nouvelle approche décentralisée des données
Il est donc clair que l’approche traditionnelle et centrée sur les données présente aux organisations de nombreux défis à relever. Une stratégie alternative consiste à adopter une approche décentralisée. Le concept Data Fabric – l’une des orientations stratégiques les plus importantes de Gartner pour 2022 – peut aider, sur la base de plusieurs technologies de gestion des données fonctionnant en tandem, à améliorer la récupération et l’intégration des données dans l’écosystème de l’entreprise.
L’une de ces technologies est la virtualisation des données, qui permet d’accéder aux ressources de données à partir de n’importe quelle source d’exploitation sans avoir à les répéter. En d’autres termes, au lieu de copier les données d’une source opérationnelle vers un entrepôt de données central, les ensembles de données peuvent être visualisés et analysés (même à l’aide de techniques d’IA complexes) depuis leur emplacement. L’approche réelle Data Fabric permettrait également la création de lacs de données virtuels en temps réel selon les besoins ; Cela signifie que les lacs de données peuvent être créés et supprimés à tout moment sans affecter les applications et l’infrastructure existantes.
Cela offre une alternative plus simple et plus rentable à l’intégration des sources et des fournisseurs de données, et permet une vue unique du flux de données dans l’entreprise. En atteignant ce niveau de visibilité, les organisations peuvent agir sur les données de plusieurs manières. Premièrement, grâce à l’utilisation de mécanismes de contrôle avancés basés sur les caractéristiques et les rôles, il peut restreindre la visibilité et l’accès au niveau le plus bas et le plus détaillé, permettant de mieux appliquer les décisions de contrôle.
Deuxièmement, comme les ressources de données sont plus accessibles, les organisations peuvent coordonner le partage de données entre les équipes et réduire les ressources de données isolées. Cette capacité à améliorer dynamiquement l’utilisation des données fait partie de la véritable valeur de Data Fabric, selon Gartner. La société de recherche affirme que l’analyse dans le cadre de Data Fabric peut réduire les efforts de gestion des données jusqu’à 70 % et accélérer le délai de rentabilisation.
Il est important de noter que l’excellente approche de Data Fabric ne signifie pas l’abandon des lacs de données centraux ou des entrepôts existants, mais plutôt l’intégration des données en leur sein dans le cadre d’une infrastructure dynamique et résiliente. Data Fabric peut être utilisé par une application ou une plateforme et permet d’enrichir, de traiter et de visualiser les données à tout moment, afin que les entreprises cessent de verrouiller leurs données dans des silos ou de les répliquer sur plusieurs applications.
Les organisations qui cherchent à améliorer les résultats commerciaux en modernisant la qualité, la gestion et la découvrabilité des données doivent réfléchir à leur approche des données de bout en bout et se demander si une approche traditionnelle et centralisée peut les aider à atteindre leurs objectifs. Une stratégie qui utilise la texture des données peut certainement faire exactement cela.
auteur:
Docteur. David Amzalaj – Chef de produit et PDG de la transformation numérique, BlackSwan Technologies.
Source : IDG Connect