مواضيع عامة

تحسين إدارة البيانات وجودتها بفضل استراتيجية Data Fabric

تحسين إدارة البيانات وجودتها بفضل استراتيجية Data Fabric

لتحسين الأداء ، تحتاج الشركات إلى إدارة بياناتها بشكل صحيح وتحسين جودتها من خلال الابتعاد عن الأساليب التقليدية.

من المعروف أن استخراج القيمة من البيانات الخارجية والداخلية يتطلب التركيز على كل من إدارة البيانات وجودة البيانات. تُعرِّف شركة Gartner إدارة البيانات بأنها “تعريف حقوق اتخاذ القرار وأطر المساءلة لضمان السلوك المناسب فيما يتعلق بالتقييم والإنشاء والاستهلاك والتحكم في البيانات والتحليلات.” يتم تحديد جودة البيانات إلى حد كبير من خلال مدى دقة المعلومات وحداثتها ؛ بدون بيانات دقيقة ومعرفة من يستخدم المعلومات في مؤسستك ، من الصعب للغاية صرف هذه المعرفة.

على الرغم من أنه من المعروف جيدًا أن إدارة البيانات وجودة البيانات لها أهمية قصوى بالنسبة للمؤسسات – وبالنظر إلى التقدم الهائل في تكنولوجيا البيانات وقدراتها – لا تزال المؤسسات تكافح لضمان جودة البيانات وإدارتها.

تحقق أيضًا من:

وجدت دراسة حديثة أجرتها EY أن 41٪ من المؤسسات تجد أن جودة بياناتها هي التحدي الأكبر. يقترح جارتنر أن جودة البيانات الرديئة تكلف المؤسسات في المتوسط ​​12.9 مليون دولار في السنة.

بالإضافة إلى ذلك ، وجد تقرير EY أن 14٪ من المنظمات لديها مشاكل في الوصول إلى البنية التحتية للتقنية والبيانات ذات الصلة. بدون التوافر الكافي والتكنولوجيا والبنية التحتية للبيانات ، من الصعب للغاية على الشركات تنفيذ إطار فعال لإدارة البيانات.

التحديات المتعلقة بمركزية البيانات

تنبع العديد من العوائق التي تمنع الشركات من تحقيق أهدافها المتعلقة بجودة البيانات وإدارة البيانات من النهج التقليدي المركزي للبيانات. مع نمو المنظمة ، يؤدي تدفق المصادر التشغيلية إلى إنشاء صوامع البيانات. تحاول الشركات التغلب على هذه المشكلة من خلال جمع البيانات من هذه المصادر في مكان واحد. بينما لم تكن هناك حجج لهذا المنطق في السنوات الأخيرة ، إلا أنه في أوقات زيادة كمية البيانات وتعقيدها ، أدى إلى العديد من التحديات الكبيرة.

على سبيل المثال ، يتطلب دمج مصادر البيانات الجديدة في بيئة مركزية الكثير من الوقت والجهد. تعتبر تكلفة مركزية البيانات كبيرة بالنظر إلى الاستثمار في التخزين وأجهزة الكمبيوتر والواجهات ومهمة توحيد تنسيقات البيانات عبر جميع مصادر البيانات. وفي الوقت نفسه ، تتزايد صوامع البيانات نظرًا لوجود فصل طبيعي بين أولئك الذين ينشئون البيانات ويستهلكونها – ومهندسي البيانات ذوي الخبرة في أدوات البيانات الضخمة. وذلك لأن المهندسين يفتقرون إلى الخبرة في مجال الأعمال والمجال ، ويفتقر أصحاب منتجات البيانات إلى الخبرة الفنية. نتيجة لذلك ، لا تتمتع المؤسسات بإمكانية رؤية استهلاك البيانات عبر المؤسسة.

يمكن للجوانب التقنية لمركزية البيانات أن تساهم أيضًا في الآثار السلبية للسياسة التنظيمية ؛ يمكن أن تؤدي المنافسة الداخلية إلى رفض الإدارات مشاركة أصول البيانات الخاصة بها مع الإدارات الأخرى. يمكن أن يؤدي الافتقار إلى الرؤية والتوافر في بيئة البيانات المركزية إلى تشجيع تخزين أصول البيانات وبالتالي فقدان العديد من مبادرات تسييل البيانات من قبل المؤسسة.

تؤدي مشاكل دمج البيانات في بيئة مركزية أيضًا إلى استخدام بيانات قديمة. على سبيل المثال ، مع نمو المنظمة بمرور الوقت ، يمكن لطرف ثالث التفاعل مع العديد من وحدات الأعمال المختلفة داخل المنظمة ، ولكل منها نظام تشغيل مختلف. هذا يؤدي إلى نقص في مزامنة البيانات – بعض البيانات محدثة وبعض المعلومات الأخرى لم تعد دقيقة. هذا يعيق التنفيذ واكتشاف المعرفة وبالتالي يؤثر على نتائج الأعمال.

أخيرًا ، لا تستطيع الشركات فرض طريقة استخدام البيانات. عندما تكون البيانات مركزية ، يكون من المعقد وضع ضوابط الوصول على الأقل والأكثر دقة ، لذا فإن تحقيق حوكمة الشركات والامتثال يمثل تحديًا.

نهج جديد لامركزي للبيانات

لذلك من الواضح أن النهج التقليدي والمركزي للبيانات يقدم للمنظمات العديد من التحديات التي يجب التغلب عليها. الإستراتيجية البديلة هي تبني نهج لامركزي. يمكن لمفهوم Data Fabric – أحد أهم الاتجاهات الإستراتيجية لشركة Gartner لعام 2022 – أن يساعد في ذلك ، استنادًا إلى تقنيات إدارة البيانات المتعددة التي تعمل جنبًا إلى جنب ، وتحسين استرجاع البيانات وتكاملها في جميع أنحاء النظام البيئي للشركة.

إحدى هذه التقنيات هي محاكاة البيانات الافتراضية ، والتي تتيح الوصول إلى موارد البيانات من أي مصدر تشغيل دون الحاجة إلى تكرارها. بمعنى آخر ، بدلاً من نسخ البيانات من مصدر تشغيلي إلى مستودع بيانات مركزي ، يمكن عرض مجموعات البيانات وتحليلها (حتى باستخدام تقنيات الذكاء الاصطناعي المعقدة) من مكان وجودها. من شأن نهج Data Fabric الحقيقي أن يمكّن أيضًا من إنشاء بحيرات بيانات افتراضية في الوقت الفعلي حسب الحاجة ؛ هذا يعني أنه يمكن إنشاء بحيرات البيانات وإزالتها في أي وقت دون التأثير على التطبيقات والبنية التحتية الحالية.

يوفر هذا بديلاً أبسط وأكثر فعالية من حيث التكلفة لدمج مصادر البيانات ومقدميها ، ويتيح وجهة نظر واحدة لتدفق البيانات عبر المؤسسة. من خلال تحقيق هذا المستوى من الرؤية ، يمكن للمؤسسات العمل على البيانات بعدة طرق. أولاً ، من خلال استخدام آليات تحكم متقدمة تستند إلى السمات والأدوار ، يمكنها تقييد الرؤية والوصول إلى المستوى الأدنى والأكثر تفصيلاً ، مما يسمح بإنفاذ قرارات التحكم بشكل أفضل.

ثانيًا ، نظرًا لأنه يمكن الوصول إلى موارد البيانات بشكل أكبر ، يمكن للمؤسسات تنسيق مشاركة البيانات بين الفرق وتقليل موارد البيانات المنعزلة. تعد هذه القدرة على تحسين استخدام البيانات ديناميكيًا جزءًا من القيمة الحقيقية لـ Data Fabric ، وفقًا لشركة Gartner. تقول شركة الأبحاث إن التحليلات كجزء من Data Fabric يمكنها تقليل جهود إدارة البيانات بنسبة تصل إلى 70٪ وتسريع الوقت المستغرق في القيمة.

الأهم من ذلك ، أن نهج Data Fabric الممتاز لا يعني التخلي عن بحيرات أو مستودعات البيانات المركزية الحالية ، بل يعني دمج البيانات داخلها كجزء من بنية تحتية ديناميكية ومرنة. يمكن استخدام Data Fabric بواسطة تطبيق أو نظام أساسي ويتيح إثراء البيانات ومعالجتها وتصورها في أي وقت ، بحيث تتوقف الشركات عن قفل بياناتها في الصوامع أو نسخها عبر تطبيقات متعددة.

تحتاج المنظمات التي تسعى إلى تحسين نتائج الأعمال من خلال تحديث جودة البيانات وإدارتها وقابلية الاكتشاف إلى النظر في نهج البيانات الشامل الخاص بها وتسأل نفسها عما إذا كان النهج التقليدي والمركزي يمكن أن يساعدها في تحقيق أهدافها. يمكن للاستراتيجية التي تستخدم نسيج البيانات أن تفعل ذلك بالتأكيد.

مؤلف:

الدكتور. ديفيد أمزالاج – رئيس المنتج والرئيس التنفيذي للتحول الرقمي ، BlackSwan Technologies.

المصدر: IDG Connect

 

Related Articles

一般主题

使用 Data Fabric 改进数据管理和质量。

使用 Data Fabric 改进数据管理和质量。

为了提高绩效,公司需要通过摆脱传统方法来正确管理其数据并提高其质量。

众所周知,从外部和内部数据中提取价值需要同时关注数据管理和数据质量。Gartner 将数据治理定义为“决策权和问责制框架的定义,以确保与数据和分析的评估、创建、消费和控制相关的适当行为。” 数据质量很大程度上取决于信息的准确性和最新程度;如果没有准确的数据和关于谁在您的组织中使用这些信息的知识,就很难耗尽这些知识。

尽管众所周知,数据管理和数据质量对组织至关重要——鉴于数据技术和能力的巨大进步——组织仍在努力确保数据质量和管理。

还要检查:

安永最近的一项研究发现,41% 的组织认为他们的数据质量是最大的挑战。Gartner 表示,糟糕的数据质量使组织每年平均损失 1290 万美元。

此外,安永报告发现,14% 的组织在访问技术基础设施和相关数据时遇到问题。如果没有足够的可用性、技术和数据基础设施,公司很难实施有效的数据管理框架。

与数据集中化相关的挑战

阻碍公司实现其数据质量和数据管理目标的许多障碍源于传统的以数据为中心的方法。随着组织的发展,运营资源的涌入会产生数据孤岛。公司正试图通过在一个地方收集来自这些来源的数据来克服这个问题。尽管近年来这种推理没有任何争论,但在数据量和复杂性增加的时代,它带来了许多重大挑战。

例如,将新数据源集成到集中式环境中需要大量时间和精力。考虑到对存储、计算机和接口的投资,以及跨所有数据源标准化数据格式的任务,数据集中化的成本很高。与此同时,数据孤岛正在上升,因为创建和使用数据的人与在大数据工具方面经验丰富的数据工程师之间存在着天然的分离。这是因为工程师缺乏业务和领域专业知识,而数据产品所有者缺乏技术专长。因此,组织无法查看整个企业的数据消耗情况。

数据集中的技术方面也可能导致监管政策的负面影响;内部竞争可能导致部门拒绝与其他部门共享其数据资产。在以数据为中心的环境中缺乏可见性和可用性会鼓励存储数据资产,从而导致企业失去许多数据货币化计划。

集中式环境中的数据整合问题也会导致使用过时的数据。例如,随着组织的发展,第三方可以与组织内的许多不同业务部门进行交互,每个业务部门都有不同的操作系统。这导致缺乏数据同步——一些数据是最新的,而另一些信息不再准确。这会阻碍实施和知识发现,从而影响业务成果。

最后,公司不能规定如何使用数据。当数据集中时,实施最少和最准确的访问控制是很复杂的,因此实现公司治理和合规性是一个挑战。

一种新的去中心化数据方法

因此很明显,传统的以数据为中心的方法给组织带来了许多需要克服的挑战。另一种策略是采用分散的方法。Data Fabric 概念是 Gartner 2022 年最重要的战略方向之一,它可以基于多种数据管理技术协同工作,改善整个公司生态系统的数据检索和集成。

一种这样的技术是数据虚拟化,它允许从任何操作源访问数据资源,而无需重复它们。换句话说,无需将数据从操作源复制到中央数据仓库,而是可以从数据集所在的位置查看和分析(甚至使用复杂的 AI 技术)。真正的 Data Fabric 方法还可以根据需要实时创建虚拟数据湖;这意味着可以随时创建和删除数据湖,而不会影响现有的应用程序和基础设施。

这为集成数据源和提供者提供了一种更简单、更具成本效益的替代方案,并支持跨企业数据流的单一视图。通过实现这种可见性级别,组织可以通过多种方式对数据采取行动。首先,通过使用基于特征和角色的高级控制机制,它可以将可见性和访问限制在最低、最详细的级别,从而更好地执行控制决策。

其次,由于数据资源更易于访问,组织可以协调团队之间的数据共享,减少孤立的数据资源。据 Gartner 称,这种动态改善数据使用的能力是 Data Fabric 真正价值的一部分。该研究公司表示,作为 Data Fabric 一部分的分析可以将数据管理工作减少多达 70%,并加快实现价值的时间。

重要的是,Data Fabric 的出色方法并不意味着放弃现有的中央数据湖或仓库,而是将其中的数据集成为动态且有弹性的基础架构的一部分。Data Fabric 可由应用程序或平台使用,并允许随时丰富、处理和可视化数据,从而使公司不再将数据锁定在孤岛或跨多个应用程序复制数据。

寻求通过现代化数据质量、管理和可发现性来改善业务成果的组织需要考虑他们的端到端数据方法,并问自己传统和集中的方法是否可以帮助他们实现目标。使用数据纹理的策略当然可以做到这一点。

作者:

医生。David Amzalaj – BlackSwan Technologies 数字化转型产品负责人兼首席执行官。

资料来源:IDG 连接

 

Related Articles

General topics

Improve data management and quality with the Data Fabric . strategy

Improve data management and quality with the Data Fabric . strategy

To improve performance, companies need to properly manage their data and improve its quality by moving away from traditional methods.

It is well known that extracting value from external and internal data requires a focus on both data management and data quality. Gartner defines data governance as “the definition of decision rights and accountability frameworks for ensuring appropriate behavior in relation to the assessment, creation, consumption, and control of data and analytics.” Data quality is largely determined by how accurate and current the information is; Without accurate data and knowledge of who is using the information in your organization, it is very difficult to drain that knowledge.

Although it is well known that data management and data quality are of paramount importance to organizations – and given the tremendous advances in data technology and capabilities – organizations still struggle to ensure data quality and management.

Check also:

A recent study by EY found that 41% of organizations find the quality of their data to be the biggest challenge. Gartner suggests that poor data quality costs organizations an average of $12.9 million per year.

In addition, the EY report found that 14% of organizations have problems accessing technology infrastructure and related data. Without adequate availability, technology, and data infrastructure, it is extremely difficult for companies to implement an effective data management framework.

Challenges related to data centralization

Many of the barriers preventing companies from achieving their data quality and data management goals stem from the traditional data-centric approach. As the organization grows, the influx of operational resources creates data silos. Companies are trying to overcome this problem by gathering data from these sources in one place. While there have been no arguments for this reasoning in recent years, in times of increased amount and complexity of data, it has led to many significant challenges.

For example, integrating new data sources into a centralized environment requires a lot of time and effort. The cost of data centralization is significant given the investment in storage, computers, and interfaces, and the task of standardizing data formats across all data sources. Meanwhile, data silos are on the rise because there is a natural separation between those who create and consume data — and data engineers experienced in big data tools. This is because engineers lack business and domain expertise, and data product owners lack technical expertise. As a result, organizations do not have the ability to see data consumption across the organization.

Technical aspects of data centralization can also contribute to the negative effects of regulatory policy; Internal competition can result in departments refusing to share their data assets with other departments. Lack of visibility and availability in a data-centric environment can encourage storage of data assets and thus the loss of many data monetization initiatives by the enterprise.

Data consolidation issues in a centralized environment also lead to the use of outdated data. For example, as the organization grows over time, a third party can interact with many different business units within the organization, each with a different operating system. This leads to a lack of data synchronization – some data is up to date and some other information is no longer accurate. This hinders implementation and knowledge discovery and thus affects business outcomes.

Finally, companies cannot dictate how data is used. When data is centralized, it is complicated to put in place the least and most accurate access controls, so achieving corporate governance and compliance is a challenge.

A new decentralized approach to data

It is therefore clear that the traditional and data-centric approach presents organizations with many challenges to overcome. An alternative strategy is to adopt a decentralized approach. The Data Fabric concept – one of Gartner’s most important strategic directions for 2022 – can help, based on multiple data management technologies working in tandem, improving data retrieval and integration across the company’s ecosystem.

One such technology is data virtualization, which allows access to data resources from any operating source without having to repeat them. In other words, instead of copying data from an operational source to a central data warehouse, data sets can be viewed and analyzed (even using complex AI techniques) from where they are. The real Data Fabric approach would also enable the creation of virtual data lakes in real time as needed; This means that data lakes can be created and removed at any time without affecting existing applications and infrastructure.

This provides a simpler and more cost-effective alternative to integrating data sources and providers, and enables a single view of the data flow across the enterprise. By achieving this level of visibility, organizations can act on data in many ways. First, through the use of advanced control mechanisms based on traits and roles, it can restrict visibility and access to the lowest, most detailed level, allowing control decisions to be better enforced.

Second, because data resources are more accessible, organizations can coordinate data sharing between teams and reduce isolated data resources. This ability to dynamically improve data usage is part of the true value of Data Fabric, according to Gartner. The research firm says analytics as part of Data Fabric can reduce data management efforts by up to 70% and speed up time to value.

Importantly, Data Fabric’s excellent approach does not mean abandoning existing central data lakes or warehouses, but rather integrating data within them as part of a dynamic and resilient infrastructure. Data Fabric can be used by an application or platform and allows data to be enriched, processed and visualized at any time, so that companies stop locking their data in silos or replicating it across multiple applications.

Organizations seeking to improve business outcomes by modernizing data quality, management, and discoverability need to consider their end-to-end data approach and ask themselves whether a traditional and centralized approach can help them achieve their goals. A strategy that uses the texture of data can certainly do just that.

author:

Doctor. David Amzalaj – Head of Product and CEO of Digital Transformation, BlackSwan Technologies.

Source: IDG Connect

 

Related Articles

Thèmes généraux

Améliorez la gestion et la qualité des données avec la stratégie Data Fabric .

Améliorez la gestion et la qualité des données avec la stratégie Data Fabric .

Pour gagner en performance, les entreprises doivent bien gérer leurs données et améliorer leur qualité en s’éloignant des méthodes traditionnelles.

Il est bien connu que l’extraction de valeur à partir de données externes et internes nécessite de se concentrer à la fois sur la gestion et la qualité des données. Gartner définit la gouvernance des données comme “la définition des droits de décision et des cadres de responsabilité pour garantir un comportement approprié en ce qui concerne l’évaluation, la création, la consommation et le contrôle des données et des analyses”. La qualité des données est largement déterminée par la précision et l’actualité des informations ; Sans données précises et sans savoir qui utilise les informations dans votre organisation, il est très difficile d’épuiser ces connaissances.

Bien qu’il soit bien connu que la gestion et la qualité des données sont d’une importance primordiale pour les organisations – et compte tenu des progrès considérables de la technologie et des capacités des données – les organisations ont encore du mal à assurer la qualité et la gestion des données.

Vérifiez également :

Une étude récente d’EY a révélé que 41 % des organisations considèrent que la qualité de leurs données est le plus grand défi. Gartner suggère que la mauvaise qualité des données coûte aux organisations en moyenne 12,9 millions de dollars par an.

En outre, le rapport d’EY a révélé que 14 % des organisations ont des problèmes pour accéder à l’infrastructure technologique et aux données associées. Sans une disponibilité, une technologie et une infrastructure de données adéquates, il est extrêmement difficile pour les entreprises de mettre en œuvre un cadre efficace de gestion des données.

Défis liés à la centralisation des données

Bon nombre des obstacles qui empêchent les entreprises d’atteindre leurs objectifs de qualité et de gestion des données découlent de l’approche traditionnelle centrée sur les données. Au fur et à mesure que l’organisation se développe, l’afflux de ressources opérationnelles crée des silos de données. Les entreprises tentent de surmonter ce problème en rassemblant les données de ces sources en un seul endroit. Bien qu’il n’y ait eu aucun argument en faveur de ce raisonnement ces dernières années, à une époque où la quantité et la complexité des données augmentent, il a conduit à de nombreux défis importants.

Par exemple, l’intégration de nouvelles sources de données dans un environnement centralisé demande beaucoup de temps et d’efforts. Le coût de la centralisation des données est important compte tenu de l’investissement dans le stockage, les ordinateurs et les interfaces, et de la tâche de standardisation des formats de données sur toutes les sources de données. Pendant ce temps, les silos de données sont en augmentation car il existe une séparation naturelle entre ceux qui créent et consomment des données – et les ingénieurs de données expérimentés dans les outils de Big Data. En effet, les ingénieurs manquent d’expertise métier et de domaine, et les propriétaires de produits de données manquent d’expertise technique. Par conséquent, les organisations n’ont pas la possibilité de voir la consommation de données dans l’ensemble de l’entreprise.

Les aspects techniques de la centralisation des données peuvent également contribuer aux effets négatifs de la politique réglementaire ; La concurrence interne peut amener les ministères à refuser de partager leurs actifs de données avec d’autres ministères. Le manque de visibilité et de disponibilité dans un environnement centré sur les données peut encourager le stockage des actifs de données et donc la perte de nombreuses initiatives de monétisation des données par l’entreprise.

Les problèmes de consolidation des données dans un environnement centralisé entraînent également l’utilisation de données obsolètes. Par exemple, à mesure que l’organisation se développe au fil du temps, un tiers peut interagir avec de nombreuses unités commerciales différentes au sein de l’organisation, chacune avec un système d’exploitation différent. Cela conduit à un manque de synchronisation des données – certaines données sont à jour et d’autres informations ne sont plus exactes. Cela entrave la mise en œuvre et la découverte des connaissances et affecte donc les résultats commerciaux.

Enfin, les entreprises ne peuvent pas dicter la manière dont les données sont utilisées. Lorsque les données sont centralisées, il est compliqué de mettre en place les contrôles d’accès les moins précis et les plus précis, donc la mise en place de la gouvernance d’entreprise et de la conformité est un défi.

Une nouvelle approche décentralisée des données

Il est donc clair que l’approche traditionnelle et centrée sur les données présente aux organisations de nombreux défis à relever. Une stratégie alternative consiste à adopter une approche décentralisée. Le concept Data Fabric – l’une des orientations stratégiques les plus importantes de Gartner pour 2022 – peut aider, sur la base de plusieurs technologies de gestion des données fonctionnant en tandem, à améliorer la récupération et l’intégration des données dans l’écosystème de l’entreprise.

L’une de ces technologies est la virtualisation des données, qui permet d’accéder aux ressources de données à partir de n’importe quelle source d’exploitation sans avoir à les répéter. En d’autres termes, au lieu de copier les données d’une source opérationnelle vers un entrepôt de données central, les ensembles de données peuvent être visualisés et analysés (même à l’aide de techniques d’IA complexes) depuis leur emplacement. L’approche réelle Data Fabric permettrait également la création de lacs de données virtuels en temps réel selon les besoins ; Cela signifie que les lacs de données peuvent être créés et supprimés à tout moment sans affecter les applications et l’infrastructure existantes.

Cela offre une alternative plus simple et plus rentable à l’intégration des sources et des fournisseurs de données, et permet une vue unique du flux de données dans l’entreprise. En atteignant ce niveau de visibilité, les organisations peuvent agir sur les données de plusieurs manières. Premièrement, grâce à l’utilisation de mécanismes de contrôle avancés basés sur les caractéristiques et les rôles, il peut restreindre la visibilité et l’accès au niveau le plus bas et le plus détaillé, permettant de mieux appliquer les décisions de contrôle.

Deuxièmement, comme les ressources de données sont plus accessibles, les organisations peuvent coordonner le partage de données entre les équipes et réduire les ressources de données isolées. Cette capacité à améliorer dynamiquement l’utilisation des données fait partie de la véritable valeur de Data Fabric, selon Gartner. La société de recherche affirme que l’analyse dans le cadre de Data Fabric peut réduire les efforts de gestion des données jusqu’à 70 % et accélérer le délai de rentabilisation.

Il est important de noter que l’excellente approche de Data Fabric ne signifie pas l’abandon des lacs de données centraux ou des entrepôts existants, mais plutôt l’intégration des données en leur sein dans le cadre d’une infrastructure dynamique et résiliente. Data Fabric peut être utilisé par une application ou une plateforme et permet d’enrichir, de traiter et de visualiser les données à tout moment, afin que les entreprises cessent de verrouiller leurs données dans des silos ou de les répliquer sur plusieurs applications.

Les organisations qui cherchent à améliorer les résultats commerciaux en modernisant la qualité, la gestion et la découvrabilité des données doivent réfléchir à leur approche des données de bout en bout et se demander si une approche traditionnelle et centralisée peut les aider à atteindre leurs objectifs. Une stratégie qui utilise la texture des données peut certainement faire exactement cela.

auteur:

Docteur. David Amzalaj – Chef de produit et PDG de la transformation numérique, BlackSwan Technologies.

Source : IDG Connect

 

Related Articles

Generelle Themen

Verbessern Sie das Datenmanagement und die Datenqualität mit der Data Fabric .-Strategie

Verbessern Sie das Datenmanagement und die Datenqualität mit der Data Fabric .-Strategie

Um die Leistung zu verbessern, müssen Unternehmen ihre Daten richtig verwalten und ihre Qualität verbessern, indem sie sich von traditionellen Methoden entfernen.

Es ist allgemein bekannt, dass die Gewinnung von Wert aus externen und internen Daten einen Fokus sowohl auf das Datenmanagement als auch auf die Datenqualität erfordert. Gartner definiert Data Governance als „die Definition von Entscheidungsrechten und Rechenschaftspflichten, um ein angemessenes Verhalten in Bezug auf die Bewertung, Erstellung, Nutzung und Kontrolle von Daten und Analysen sicherzustellen“. Die Datenqualität wird weitgehend davon bestimmt, wie genau und aktuell die Informationen sind; Ohne genaue Daten und Wissen darüber, wer die Informationen in Ihrem Unternehmen verwendet, ist es sehr schwierig, dieses Wissen abzuschöpfen.

Obwohl bekannt ist, dass Datenmanagement und Datenqualität für Unternehmen von größter Bedeutung sind – und angesichts der enormen Fortschritte in der Datentechnologie und -fähigkeit – kämpfen Unternehmen immer noch damit, Datenqualität und -management sicherzustellen.

Überprüfen Sie auch:

Eine kürzlich von EY durchgeführte Studie ergab, dass 41 % der Unternehmen die Qualität ihrer Daten als größte Herausforderung ansehen. Gartner geht davon aus, dass schlechte Datenqualität Unternehmen durchschnittlich 12,9 Millionen US-Dollar pro Jahr kostet.

Darüber hinaus stellte der EY-Bericht fest, dass 14 % der Unternehmen Probleme beim Zugriff auf die Technologieinfrastruktur und zugehörige Daten haben. Ohne angemessene Verfügbarkeit, Technologie und Dateninfrastruktur ist es für Unternehmen äußerst schwierig, ein effektives Datenmanagement-Framework zu implementieren.

Herausforderungen im Zusammenhang mit der Datenzentralisierung

Viele der Hindernisse, die Unternehmen daran hindern, ihre Datenqualitäts- und Datenmanagementziele zu erreichen, sind auf den traditionellen datenzentrierten Ansatz zurückzuführen. Wenn die Organisation wächst, entstehen durch den Zufluss von Betriebsressourcen Datensilos. Unternehmen versuchen, dieses Problem zu lösen, indem sie Daten aus diesen Quellen an einem Ort sammeln. Während es in den letzten Jahren keine Argumente für diese Argumentation gab, hat sie in Zeiten zunehmender Datenmengen und -komplexität zu vielen erheblichen Herausforderungen geführt.

Beispielsweise erfordert die Integration neuer Datenquellen in eine zentralisierte Umgebung viel Zeit und Mühe. Die Kosten für die Datenzentralisierung sind angesichts der Investitionen in Speicher, Computer und Schnittstellen sowie der Aufgabe, Datenformate über alle Datenquellen hinweg zu standardisieren, erheblich. Inzwischen nehmen Datensilos zu, weil es eine natürliche Trennung zwischen denjenigen gibt, die Daten erstellen und konsumieren – und Dateningenieuren, die Erfahrung mit Big-Data-Tools haben. Dies liegt daran, dass es den Ingenieuren an Geschäfts- und Domänenkenntnissen und den Eigentümern von Datenprodukten an technischem Fachwissen mangelt. Infolgedessen haben Organisationen nicht die Möglichkeit, den Datenverbrauch im gesamten Unternehmen zu sehen.

Auch technische Aspekte der Datenzentralisierung können zu den negativen Auswirkungen der Ordnungspolitik beitragen; Interner Wettbewerb kann dazu führen, dass Abteilungen sich weigern, ihre Datenbestände mit anderen Abteilungen zu teilen. Ein Mangel an Transparenz und Verfügbarkeit in einer datenzentrierten Umgebung kann die Speicherung von Datenbeständen und damit den Verlust vieler Datenmonetarisierungsinitiativen durch das Unternehmen fördern.

Datenkonsolidierungsprobleme in einer zentralisierten Umgebung führen auch zur Verwendung veralteter Daten. Wenn die Organisation beispielsweise im Laufe der Zeit wächst, kann ein Dritter mit vielen verschiedenen Geschäftsbereichen innerhalb der Organisation interagieren, die jeweils ein anderes Betriebssystem verwenden. Dies führt zu einem Mangel an Datensynchronisation – einige Daten sind aktuell und einige andere Informationen sind nicht mehr korrekt. Dies behindert die Implementierung und die Entdeckung von Wissen und wirkt sich somit auf die Geschäftsergebnisse aus.

Schließlich können Unternehmen nicht diktieren, wie Daten verwendet werden. Wenn Daten zentralisiert sind, ist es kompliziert, die wenigsten und genauesten Zugriffskontrollen einzurichten, sodass das Erreichen von Corporate Governance und Compliance eine Herausforderung darstellt.

Ein neuer dezentraler Ansatz für Daten

Es ist daher klar, dass der traditionelle und datenzentrierte Ansatz Unternehmen vor viele Herausforderungen stellt, die es zu meistern gilt. Eine alternative Strategie ist ein dezentraler Ansatz. Das Data-Fabric-Konzept – eine der wichtigsten strategischen Richtungen von Gartner für 2022 – kann dabei helfen, basierend auf mehreren zusammenarbeitenden Datenverwaltungstechnologien, den Datenabruf und die Integration im gesamten Ökosystem des Unternehmens zu verbessern.

Eine solche Technologie ist die Datenvirtualisierung, die den Zugriff auf Datenressourcen von jeder Betriebsquelle aus ermöglicht, ohne sie wiederholen zu müssen. Mit anderen Worten, anstatt Daten aus einer betrieblichen Quelle in ein zentrales Data Warehouse zu kopieren, können Datensätze von dort aus angezeigt und analysiert werden (sogar mit komplexen KI-Techniken). Der Real-Data-Fabric-Ansatz würde bei Bedarf auch die Erstellung virtueller Data Lakes in Echtzeit ermöglichen; Das bedeutet, dass Data Lakes jederzeit erstellt und entfernt werden können, ohne dass bestehende Anwendungen und Infrastruktur beeinträchtigt werden.

Dies bietet eine einfachere und kostengünstigere Alternative zur Integration von Datenquellen und -anbietern und ermöglicht eine einheitliche Ansicht des Datenflusses im gesamten Unternehmen. Durch Erreichen dieses Transparenzniveaus können Unternehmen auf vielfältige Weise auf Daten reagieren. Erstens kann es durch die Verwendung fortschrittlicher Kontrollmechanismen auf der Grundlage von Merkmalen und Rollen die Sichtbarkeit und den Zugriff auf die niedrigste und detaillierteste Ebene beschränken, wodurch Kontrollentscheidungen besser durchgesetzt werden können.

Zweitens können Unternehmen, da Datenressourcen leichter zugänglich sind, den Datenaustausch zwischen Teams koordinieren und isolierte Datenressourcen reduzieren. Diese Fähigkeit, die Datennutzung dynamisch zu verbessern, ist laut Gartner Teil des wahren Werts von Data Fabric. Das Forschungsunternehmen sagt, dass Analysen als Teil von Data Fabric den Aufwand für das Datenmanagement um bis zu 70 % reduzieren und die Time-to-Value verkürzen können.

Wichtig ist, dass der hervorragende Ansatz von Data Fabric nicht bedeutet, bestehende zentrale Data Lakes oder Warehouses aufzugeben, sondern Daten darin als Teil einer dynamischen und belastbaren Infrastruktur zu integrieren. Data Fabric kann von einer Anwendung oder Plattform verwendet werden und ermöglicht es, Daten jederzeit anzureichern, zu verarbeiten und zu visualisieren, sodass Unternehmen ihre Daten nicht mehr in Silos sperren oder sie über mehrere Anwendungen hinweg replizieren.

Unternehmen, die ihre Geschäftsergebnisse durch Modernisierung der Datenqualität, -verwaltung und -auffindbarkeit verbessern möchten, müssen ihren End-to-End-Datenansatz berücksichtigen und sich fragen, ob ein traditioneller und zentralisierter Ansatz ihnen helfen kann, ihre Ziele zu erreichen. Eine Strategie, die die Textur von Daten nutzt, kann genau das tun.

Autor:

Arzt. David Amzalaj – Produktleiter und CEO für digitale Transformation, BlackSwan Technologies.

Quelle: IDG Connect

 

Related Articles

Argomenti generali

Migliora la gestione e la qualità dei dati con la strategia Data Fabric

Migliora la gestione e la qualità dei dati con la strategia Data Fabric

Per migliorare le prestazioni, le aziende devono gestire correttamente i propri dati e migliorarne la qualità allontanandosi dai metodi tradizionali.

È risaputo che l’estrazione di valore dai dati esterni e interni richiede un focus sia sulla gestione dei dati che sulla qualità dei dati. Gartner definisce la governance dei dati come “la definizione dei diritti decisionali e dei quadri di responsabilità per garantire un comportamento appropriato in relazione alla valutazione, creazione, consumo e controllo dei dati e dell’analisi”. La qualità dei dati è in gran parte determinata dall’accuratezza e dall’aggiornamento delle informazioni; Senza dati accurati e conoscenza di chi sta utilizzando le informazioni nella tua organizzazione, è molto difficile prosciugare tale conoscenza.

Sebbene sia risaputo che la gestione e la qualità dei dati sono di fondamentale importanza per le organizzazioni, e dati gli enormi progressi nella tecnologia e nelle capacità dei dati, le organizzazioni continuano a lottare per garantire la qualità e la gestione dei dati.

Controlla anche:

Un recente studio di EY ha rilevato che il 41% delle organizzazioni ritiene che la qualità dei propri dati sia la sfida più grande. Gartner suggerisce che una scarsa qualità dei dati costa alle organizzazioni una media di 12,9 milioni di dollari all’anno.

Inoltre, il rapporto EY ha rilevato che il 14% delle organizzazioni ha problemi ad accedere all’infrastruttura tecnologica e ai relativi dati. Senza disponibilità, tecnologia e infrastruttura dati adeguate, è estremamente difficile per le aziende implementare un framework di gestione dei dati efficace.

Sfide legate alla centralizzazione dei dati

Molti degli ostacoli che impediscono alle aziende di raggiungere i propri obiettivi di qualità e gestione dei dati derivano dall’approccio tradizionale incentrato sui dati. Man mano che l’organizzazione cresce, l’afflusso di risorse operative crea silos di dati. Le aziende stanno cercando di superare questo problema raccogliendo dati da queste fonti in un unico luogo. Sebbene negli ultimi anni non ci siano state argomentazioni a favore di questo ragionamento, in tempi di maggiore quantità e complessità di dati, ha portato a molte sfide significative.

Ad esempio, l’integrazione di nuove origini dati in un ambiente centralizzato richiede molto tempo e sforzi. Il costo della centralizzazione dei dati è significativo dato l’investimento in storage, computer e interfacce e il compito di standardizzare i formati dei dati in tutte le origini dati. Nel frattempo, i silos di dati sono in aumento perché esiste una separazione naturale tra coloro che creano e consumano i dati e gli ingegneri dei dati esperti negli strumenti per big data. Ciò è dovuto al fatto che gli ingegneri non hanno competenze aziendali e di dominio e i proprietari di prodotti di dati non dispongono di competenze tecniche. Di conseguenza, le organizzazioni non hanno la possibilità di vedere il consumo di dati in tutta l’azienda.

Anche gli aspetti tecnici della centralizzazione dei dati possono contribuire agli effetti negativi della politica di regolamentazione; La concorrenza interna può portare i reparti a rifiutarsi di condividere le proprie risorse di dati con altri reparti. La mancanza di visibilità e disponibilità in un ambiente incentrato sui dati può incoraggiare l’archiviazione delle risorse di dati e quindi la perdita di molte iniziative di monetizzazione dei dati da parte dell’azienda.

Anche i problemi di consolidamento dei dati in un ambiente centralizzato portano all’utilizzo di dati obsoleti. Ad esempio, man mano che l’organizzazione cresce nel tempo, una terza parte può interagire con molte diverse unità aziendali all’interno dell’organizzazione, ciascuna con un diverso sistema operativo. Ciò porta a una mancanza di sincronizzazione dei dati: alcuni dati sono aggiornati e altre informazioni non sono più accurate. Ciò ostacola l’implementazione e la scoperta della conoscenza e quindi influisce sui risultati aziendali.

Infine, le aziende non possono dettare come vengono utilizzati i dati. Quando i dati sono centralizzati, è complicato mettere in atto i controlli di accesso minimi e più accurati, quindi raggiungere la governance e la conformità aziendali è una sfida.

Un nuovo approccio decentralizzato ai dati

È quindi chiaro che l’approccio tradizionale e incentrato sui dati presenta alle organizzazioni molte sfide da superare. Una strategia alternativa consiste nell’adottare un approccio decentralizzato. Il concetto di Data Fabric, una delle direzioni strategiche più importanti di Gartner per il 2022, può aiutare, sulla base di più tecnologie di gestione dei dati che lavorano in tandem, a migliorare il recupero e l’integrazione dei dati nell’ecosistema dell’azienda.

Una di queste tecnologie è la virtualizzazione dei dati, che consente l’accesso alle risorse dati da qualsiasi fonte operativa senza doverle ripetere. In altre parole, invece di copiare i dati da una fonte operativa a un data warehouse centrale, i set di dati possono essere visualizzati e analizzati (anche utilizzando complesse tecniche di intelligenza artificiale) da dove si trovano. L’approccio Real Data Fabric consentirebbe anche la creazione di data lake virtuali in tempo reale secondo necessità; Ciò significa che i data lake possono essere creati e rimossi in qualsiasi momento senza influire sulle applicazioni e sull’infrastruttura esistenti.

Ciò fornisce un’alternativa più semplice ed economica all’integrazione di origini dati e provider e consente una visualizzazione unica del flusso di dati all’interno dell’azienda. Raggiungendo questo livello di visibilità, le organizzazioni possono agire sui dati in molti modi. In primo luogo, attraverso l’uso di meccanismi di controllo avanzati basati su caratteristiche e ruoli, può limitare la visibilità e l’accesso al livello più basso e dettagliato, consentendo una migliore applicazione delle decisioni di controllo.

In secondo luogo, poiché le risorse di dati sono più accessibili, le organizzazioni possono coordinare la condivisione dei dati tra i team e ridurre le risorse di dati isolate. Questa capacità di migliorare dinamicamente l’utilizzo dei dati fa parte del vero valore di Data Fabric, secondo Gartner. La società di ricerca afferma che l’analisi come parte di Data Fabric può ridurre gli sforzi di gestione dei dati fino al 70% e accelerare il time-to-value.

È importante sottolineare che l’eccellente approccio di Data Fabric non significa abbandonare data lake o warehouse centrali esistenti, ma piuttosto integrare i dati al loro interno come parte di un’infrastruttura dinamica e resiliente. Data Fabric può essere utilizzato da un’applicazione o piattaforma e consente di arricchire, elaborare e visualizzare i dati in qualsiasi momento, in modo che le aziende smettano di bloccare i propri dati in silos o di replicarli su più applicazioni.

Le organizzazioni che cercano di migliorare i risultati aziendali modernizzando la qualità, la gestione e la rilevabilità dei dati devono considerare il loro approccio ai dati end-to-end e chiedersi se un approccio tradizionale e centralizzato può aiutarle a raggiungere i propri obiettivi. Una strategia che utilizza la trama dei dati può certamente fare proprio questo.

autore:

Medico. David Amzalaj – Head of Product e CEO di Digital Transformation, BlackSwan Technologies.

Fonte: IDG Connect

 

Related Articles

一般的なトピック

DataFabricの戦略でデータ管理と品質を向上させる

DataFabricの戦略でデータ管理と品質を向上させる

パフォーマンスを向上させるには、企業はデータを適切に管理し、従来の方法から離れてデータの品質を向上させる必要があります。

外部データと内部データから価値を引き出すには、データ管理とデータ品質の両方に焦点を当てる必要があることはよく知られています。ガートナーは、データガバナンスを「データと分析の評価、作成、消費、および制御に関連する適切な動作を保証するための意思決定権と説明責任のフレームワークの定義」と定義しています。データ品質は主に、情報がどれだけ正確で最新であるかによって決まります。正確なデータと、組織内で誰がその情報を使用しているかについての知識がなければ、その知識を流出させることは非常に困難です。

データ管理とデータ品質が組織にとって最も重要であることはよく知られていますが、データテクノロジーと機能が大幅に進歩していることを考えると、組織は依然としてデータ品質と管理の確保に苦労しています。

また確認してください:

EYによる最近の調査によると、組織の41%が、データの品質が最大の課題であると考えています。Gartnerは、データ品質の低さが組織に年間平均1,290万ドルのコストをかけていることを示唆しています。

さらに、EYのレポートによると、組織の14%がテクノロジーインフラストラクチャと関連データへのアクセスに問題を抱えています。適切な可用性、テクノロジー、およびデータインフラストラクチャがなければ、企業が効果的なデータ管理フレームワークを実装することは非常に困難です。

データの集中化に関連する課題

企業がデータ品質とデータ管理の目標を達成することを妨げる障壁の多くは、従来のデータ中心のアプローチに起因しています。組織が成長するにつれて、運用リソースの流入によりデータサイロが作成されます。企業は、これらのソースから1つの場所でデータを収集することにより、この問題を克服しようとしています。近年、この推論についての議論はありませんが、データの量と複雑さが増す中で、それは多くの重大な課題につながりました。

たとえば、新しいデータソースを一元化された環境に統合するには、多くの時間と労力が必要です。ストレージ、コンピューター、インターフェイスへの投資と、すべてのデータソース間でデータ形式を標準化するタスクを考えると、データの集中化のコストはかなりのものです。一方、データの作成者と消費者、およびビッグデータツールの経験を持つデータエンジニアの間には自然な隔たりがあるため、データサイロが増加しています。これは、エンジニアにはビジネスとドメインの専門知識がなく、データ製品の所有者には技術的な専門知識がないためです。その結果、組織は企業全体のデータ消費を確認することができません。

データの集中化の技術的側面も、規制政策の悪影響に寄与する可能性があります。内部競争により、部門がデータ資産を他の部門と共有することを拒否する可能性があります。データ中心の環境での可視性と可用性の欠如は、データ資産のストレージを促進し、企業による多くのデータ収益化イニシアチブの喪失を助長する可能性があります。

一元化された環境でのデータ統合の問題も、古いデータの使用につながります。たとえば、組織が時間の経過とともに成長するにつれて、サードパーティは、それぞれが異なるオペレーティングシステムを持つ組織内の多くの異なるビジネスユニットと対話できます。これにより、データの同期が失われます。一部のデータは最新であり、その他の情報は正確ではなくなります。これは、実装と知識の発見を妨げ、したがってビジネスの成果に影響を与えます。

最後に、企業はデータの使用方法を指示することはできません。データを一元化する場合、最も正確性の低いアクセス制御を導入することは複雑であるため、コーポレートガバナンスとコンプライアンスを実現することは困難です。

データへの新しい分散型アプローチ

したがって、従来のデータ中心のアプローチでは、組織が克服すべき多くの課題を抱えていることは明らかです。別の戦略は、分散型アプローチを採用することです。ガートナーの2022年の最も重要な戦略的方向性の1つであるデータファブリックの概念は、連携して機能する複数のデータ管理テクノロジーに基づいて、データの取得と会社のエコシステム全体の統合を改善するのに役立ちます。

そのようなテクノロジーの1つにデータ仮想化があります。これにより、データリソースを繰り返すことなく、任意のオペレーティングソースからデータリソースにアクセスできます。つまり、運用ソースから中央のデータウェアハウスにデータをコピーする代わりに、データセットをどこからでも表示および分析できます(複雑なAI技術を使用している場合でも)。実際のデータファブリックアプローチでは、必要に応じてリアルタイムで仮想データレイクを作成することもできます。これは、既存のアプリケーションやインフラストラクチャに影響を与えることなく、いつでもデータレイクを作成および削除できることを意味します。

これにより、データソースとプロバイダーを統合するためのよりシンプルで費用効果の高い代替手段が提供され、企業全体のデータフローの単一のビューが可能になります。このレベルの可視性を実現することにより、組織はさまざまな方法でデータに基づいて行動できます。まず、特性と役割に基づく高度な制御メカニズムを使用することで、可視性とアクセスを最も低く、最も詳細なレベルに制限し、制御の決定をより適切に実施できるようにします。

次に、データリソースへのアクセスが容易になるため、組織はチーム間のデータ共有を調整し、孤立したデータリソースを減らすことができます。Gartnerによると、データ使用量を動的に改善するこの機能は、DataFabricの真の価値の一部です。調査会社によると、Data Fabricの一部としての分析により、データ管理の労力を最大70%削減し、価値実現までの時間を短縮できます。

重要なのは、Data Fabricの優れたアプローチは、既存の中央データレイクまたはウェアハウスを放棄することを意味するのではなく、動的で復元力のあるインフラストラクチャの一部としてそれらの中にデータを統合することを意味します。Data Fabricは、アプリケーションまたはプラットフォームで使用でき、データをいつでも強化、処理、および視覚化できるため、企業はデータをサイロにロックしたり、複数のアプリケーションに複製したりする必要がなくなります。

データの品質、管理、発見可能性を最新化することでビジネスの成果を向上させようとしている組織は、エンドツーエンドのデータアプローチを検討し、従来の集中型アプローチが目標の達成に役立つかどうかを自問する必要があります。データのテクスチャを使用する戦略は、確かにそれを行うことができます。

著者:

医者。David Amzalaj-BlackSwanTechnologiesの製品責任者兼デジタルトランスフォーメーションCEO。

出典:IDG Connect

 

Related Articles

Tópicos gerais

Melhore o gerenciamento e a qualidade dos dados com a estratégia Data Fabric.

Melhore o gerenciamento e a qualidade dos dados com a estratégia Data Fabric.

Para melhorar o desempenho, as empresas precisam gerenciar adequadamente seus dados e melhorar sua qualidade, afastando-se dos métodos tradicionais.

É bem sabido que extrair valor de dados externos e internos requer um foco tanto no gerenciamento de dados quanto na qualidade dos dados. O Gartner define governança de dados como “a definição de direitos de decisão e estruturas de responsabilidade para garantir o comportamento apropriado em relação à avaliação, criação, consumo e controle de dados e análises”. A qualidade dos dados é amplamente determinada pela precisão e atualidade das informações; Sem dados precisos e conhecimento de quem está usando as informações em sua organização, é muito difícil drenar esse conhecimento.

Embora seja bem sabido que o gerenciamento e a qualidade dos dados são de suma importância para as organizações – e devido aos enormes avanços na tecnologia e nos recursos de dados – as organizações ainda lutam para garantir a qualidade e o gerenciamento dos dados.

Confira também:

Um estudo recente da EY descobriu que 41% das organizações consideram a qualidade de seus dados o maior desafio. O Gartner sugere que a má qualidade dos dados custa às organizações uma média de US$ 12,9 milhões por ano.

Além disso, o relatório da EY descobriu que 14% das organizações têm problemas para acessar a infraestrutura de tecnologia e dados relacionados. Sem disponibilidade, tecnologia e infraestrutura de dados adequadas, é extremamente difícil para as empresas implementarem uma estrutura de gerenciamento de dados eficaz.

Desafios relacionados à centralização de dados

Muitas das barreiras que impedem as empresas de atingir suas metas de qualidade e gerenciamento de dados derivam da abordagem tradicional centrada em dados. À medida que a organização cresce, o influxo de recursos operacionais cria silos de dados. As empresas estão tentando superar esse problema reunindo dados dessas fontes em um só lugar. Embora não tenha havido argumentos para esse raciocínio nos últimos anos, em tempos de maior quantidade e complexidade de dados, isso levou a muitos desafios significativos.

Por exemplo, integrar novas fontes de dados em um ambiente centralizado requer muito tempo e esforço. O custo da centralização de dados é significativo devido ao investimento em armazenamento, computadores e interfaces e à tarefa de padronizar os formatos de dados em todas as fontes de dados. Enquanto isso, os silos de dados estão aumentando porque há uma separação natural entre aqueles que criam e consomem dados – e engenheiros de dados experientes em ferramentas de big data. Isso ocorre porque os engenheiros não têm experiência em negócios e domínio, e os proprietários de produtos de dados não têm experiência técnica. Como resultado, as organizações não têm a capacidade de ver o consumo de dados em toda a empresa.

Aspectos técnicos da centralização de dados também podem contribuir para os efeitos negativos da política regulatória; A concorrência interna pode resultar em departamentos que se recusam a compartilhar seus ativos de dados com outros departamentos. A falta de visibilidade e disponibilidade em um ambiente centrado em dados pode incentivar o armazenamento de ativos de dados e, portanto, a perda de muitas iniciativas de monetização de dados pela empresa.

Problemas de consolidação de dados em um ambiente centralizado também levam ao uso de dados desatualizados. Por exemplo, à medida que a organização cresce ao longo do tempo, um terceiro pode interagir com muitas unidades de negócios diferentes dentro da organização, cada uma com um sistema operacional diferente. Isso leva a uma falta de sincronização de dados – alguns dados estão atualizados e outras informações não são mais precisas. Isso dificulta a implementação e a descoberta de conhecimento e, portanto, afeta os resultados de negócios.

Finalmente, as empresas não podem ditar como os dados são usados. Quando os dados são centralizados, é complicado implementar os controles de acesso menos e mais precisos, portanto, alcançar a governança corporativa e a conformidade é um desafio.

Uma nova abordagem descentralizada para dados

Portanto, fica claro que a abordagem tradicional e centrada em dados apresenta às organizações muitos desafios a serem superados. Uma estratégia alternativa é adotar uma abordagem descentralizada. O conceito Data Fabric – uma das direções estratégicas mais importantes do Gartner para 2022 – pode ajudar, com base em várias tecnologias de gerenciamento de dados trabalhando em conjunto, melhorando a recuperação e a integração de dados em todo o ecossistema da empresa.

Uma dessas tecnologias é a virtualização de dados, que permite o acesso a recursos de dados de qualquer fonte operacional sem precisar repeti-los. Em outras palavras, em vez de copiar dados de uma fonte operacional para um data warehouse central, os conjuntos de dados podem ser visualizados e analisados ​​(mesmo usando técnicas complexas de IA) de onde estão. A abordagem real do Data Fabric também permitiria a criação de data lakes virtuais em tempo real, conforme necessário; Isso significa que os data lakes podem ser criados e removidos a qualquer momento sem afetar os aplicativos e a infraestrutura existentes.

Isso fornece uma alternativa mais simples e econômica para integrar fontes e provedores de dados e permite uma visão única do fluxo de dados em toda a empresa. Ao atingir esse nível de visibilidade, as organizações podem agir sobre os dados de várias maneiras. Primeiro, por meio do uso de mecanismos de controle avançados baseados em características e funções, ele pode restringir a visibilidade e o acesso ao nível mais baixo e detalhado, permitindo que as decisões de controle sejam melhor aplicadas.

Segundo, como os recursos de dados são mais acessíveis, as organizações podem coordenar o compartilhamento de dados entre as equipes e reduzir os recursos de dados isolados. Essa capacidade de melhorar dinamicamente o uso de dados faz parte do verdadeiro valor do Data Fabric, de acordo com o Gartner. A empresa de pesquisa diz que a análise como parte do Data Fabric pode reduzir os esforços de gerenciamento de dados em até 70% e acelerar o tempo de retorno.

É importante ressaltar que a excelente abordagem do Data Fabric não significa abandonar os data lakes ou armazéns centrais existentes, mas sim integrar os dados dentro deles como parte de uma infraestrutura dinâmica e resiliente. O Data Fabric pode ser usado por um aplicativo ou plataforma e permite que os dados sejam enriquecidos, processados ​​e visualizados a qualquer momento, para que as empresas parem de bloquear seus dados em silos ou replicá-los em vários aplicativos.

As organizações que buscam melhorar os resultados dos negócios modernizando a qualidade, o gerenciamento e a capacidade de descoberta dos dados precisam considerar sua abordagem de dados de ponta a ponta e se perguntar se uma abordagem tradicional e centralizada pode ajudá-las a atingir seus objetivos. Uma estratégia que usa a textura dos dados certamente pode fazer exatamente isso.

autor:

Médico. David Amzalaj – Chefe de Produto e CEO de Transformação Digital, BlackSwan Technologies.

Fonte: IDG Connect

 

Related Articles

Общие темы

Улучшите управление данными и их качество с помощью стратегии Data Fabric.

Улучшите управление данными и их качество с помощью стратегии Data Fabric.

Чтобы повысить производительность, компаниям необходимо правильно управлять своими данными и повышать их качество, отказываясь от традиционных методов.

Хорошо известно, что для извлечения ценности из внешних и внутренних данных необходимо уделять внимание как управлению данными, так и их качеству. Gartner определяет управление данными как «определение прав на принятие решений и рамок подотчетности для обеспечения надлежащего поведения в отношении оценки, создания, использования и контроля данных и аналитики». Качество данных во многом определяется тем, насколько точной и актуальной является информация; Без точных данных и знаний о том, кто использует информацию в вашей организации, очень сложно истощить эти знания.

Хотя хорошо известно, что управление данными и их качество имеют первостепенное значение для организаций, а учитывая огромный прогресс в технологиях и возможностях данных, организации по-прежнему борются за обеспечение качества данных и управления ими.

Проверьте также:

Недавнее исследование EY показало, что 41% организаций считают качество своих данных самой большой проблемой. Gartner предполагает, что низкое качество данных обходится организациям в среднем в 12,9 млн долларов в год.

Кроме того, отчет EY показал, что 14% организаций имеют проблемы с доступом к технологической инфраструктуре и связанным с ней данным. Без надлежащей доступности, технологий и инфраструктуры данных компаниям чрезвычайно сложно внедрить эффективную структуру управления данными.

Проблемы, связанные с централизацией данных

Многие барьеры, мешающие компаниям достичь целей в области качества данных и управления данными, связаны с традиционным подходом, ориентированным на данные. По мере роста организации приток операционных ресурсов создает хранилища данных. Компании пытаются решить эту проблему, собирая данные из этих источников в одном месте. Хотя в последние годы не было никаких аргументов в пользу этого рассуждения, во времена увеличения объема и сложности данных это привело ко многим серьезным проблемам.

Например, интеграция новых источников данных в централизованную среду требует много времени и усилий. Стоимость централизации данных значительна, учитывая инвестиции в хранилище, компьютеры и интерфейсы, а также задачу стандартизации форматов данных во всех источниках данных. Между тем, хранилища данных растут, потому что существует естественное разделение между теми, кто создает и потребляет данные, и инженерами данных, имеющими опыт работы с инструментами для работы с большими данными. Это связано с тем, что инженерам не хватает знаний в области бизнеса и предметной области, а владельцам информационных продуктов не хватает технических знаний. В результате организации не имеют возможности отслеживать потребление данных на предприятии.

Технические аспекты централизации данных также могут способствовать негативным последствиям политики регулирования; Внутренняя конкуренция может привести к тому, что отделы откажутся делиться своими активами данных с другими отделами. Отсутствие видимости и доступности в среде, ориентированной на данные, может стимулировать хранение активов данных и, таким образом, потерю многих инициатив по монетизации данных со стороны предприятия.

Проблемы консолидации данных в централизованной среде также приводят к использованию устаревших данных. Например, по мере того, как организация со временем растет, третья сторона может взаимодействовать со многими различными бизнес-подразделениями внутри организации, каждое из которых использует свою операционную систему. Это приводит к отсутствию синхронизации данных — некоторые данные актуальны, а часть другой информации уже неточна. Это препятствует внедрению и открытию знаний и, таким образом, влияет на результаты бизнеса.

Наконец, компании не могут диктовать, как использовать данные. Когда данные централизованы, сложно внедрить минимальные и наиболее точные средства контроля доступа, поэтому достижение корпоративного управления и соответствия требованиям является проблемой.

Новый децентрализованный подход к данным

Поэтому ясно, что традиционный и ориентированный на данные подход ставит перед организациями множество проблем, которые необходимо преодолеть. Альтернативной стратегией является принятие децентрализованного подхода. Концепция Data Fabric — одно из наиболее важных стратегических направлений Gartner на 2022 год — может помочь, основанная на нескольких технологиях управления данными, работающих в тандеме, улучшить поиск данных и интеграцию в экосистеме компании.

Одной из таких технологий является виртуализация данных, которая позволяет получать доступ к ресурсам данных из любого рабочего источника без необходимости их повторения. Другими словами, вместо того, чтобы копировать данные из оперативного источника в центральное хранилище данных, наборы данных можно просматривать и анализировать (даже с использованием сложных методов ИИ) оттуда, где они находятся. Реальный подход Data Fabric также позволяет создавать виртуальные озера данных в режиме реального времени по мере необходимости; Это означает, что озера данных можно создавать и удалять в любое время, не затрагивая существующие приложения и инфраструктуру.

Это представляет собой более простую и экономичную альтернативу интеграции источников и поставщиков данных, а также обеспечивает единое представление потока данных в масштабах предприятия. Достигнув такого уровня видимости, организации могут действовать с данными разными способами. Во-первых, благодаря использованию передовых механизмов контроля, основанных на признаках и ролях, он может ограничить видимость и доступ к самому низкому, наиболее подробному уровню, что позволяет лучше выполнять контрольные решения.

Во-вторых, поскольку ресурсы данных более доступны, организации могут координировать обмен данными между командами и сокращать изолированные ресурсы данных. По мнению Gartner, эта способность динамически улучшать использование данных является частью истинной ценности Data Fabric. Исследовательская фирма утверждает, что аналитика как часть Data Fabric может сократить усилия по управлению данными до 70% и ускорить окупаемость.

Важно отметить, что отличный подход Data Fabric означает не отказ от существующих центральных озер или хранилищ данных, а скорее интеграцию данных в них как часть динамичной и отказоустойчивой инфраструктуры. Data Fabric может использоваться приложением или платформой и позволяет обогащать, обрабатывать и визуализировать данные в любое время, чтобы компании перестали блокировать свои данные в хранилищах или реплицировать их в нескольких приложениях.

Организации, стремящиеся улучшить бизнес-результаты за счет модернизации качества данных, управления и возможности обнаружения, должны рассмотреть свой сквозной подход к данным и спросить себя, может ли традиционный и централизованный подход помочь им в достижении их целей. Стратегия, использующая текстуру данных, безусловно, может сделать именно это.

автор:

Врач. Дэвид Амзалай — руководитель отдела продуктов и генеральный директор подразделения цифровой трансформации BlackSwan Technologies.

Источник: IDG Connect

 

Related Articles

Temas generales

Mejore la gestión y la calidad de los datos con la estrategia Data Fabric.

Mejore la gestión y la calidad de los datos con la estrategia Data Fabric.

Para mejorar el rendimiento, las empresas deben administrar adecuadamente sus datos y mejorar su calidad alejándose de los métodos tradicionales.

Es bien sabido que extraer valor de los datos externos e internos requiere un enfoque tanto en la gestión como en la calidad de los datos. Gartner define el gobierno de datos como “la definición de derechos de decisión y marcos de responsabilidad para garantizar un comportamiento adecuado en relación con la evaluación, creación, consumo y control de datos y análisis”. La calidad de los datos está determinada en gran medida por la precisión y actualidad de la información; Sin datos precisos y conocimiento de quién está utilizando la información en su organización, es muy difícil drenar ese conocimiento.

Aunque es bien sabido que la gestión y la calidad de los datos son de suma importancia para las organizaciones, y dados los tremendos avances en la tecnología y las capacidades de los datos, las organizaciones aún luchan por garantizar la gestión y la calidad de los datos.

Compruebe también:

Un estudio reciente de EY encontró que el 41% de las organizaciones consideran que la calidad de sus datos es el mayor desafío. Gartner sugiere que la mala calidad de los datos cuesta a las organizaciones un promedio de 12,9 millones de dólares al año.

Además, el informe de EY encontró que el 14% de las organizaciones tienen problemas para acceder a la infraestructura tecnológica y los datos relacionados. Sin la disponibilidad, la tecnología y la infraestructura de datos adecuadas, es extremadamente difícil para las empresas implementar un marco de gestión de datos eficaz.

Desafíos relacionados con la centralización de datos

Muchas de las barreras que impiden que las empresas logren sus objetivos de calidad y gestión de datos se derivan del enfoque tradicional centrado en los datos. A medida que crece la organización, la afluencia de recursos operativos crea silos de datos. Las empresas están tratando de superar este problema mediante la recopilación de datos de estas fuentes en un solo lugar. Si bien no ha habido argumentos para este razonamiento en los últimos años, en tiempos de mayor cantidad y complejidad de datos, ha dado lugar a muchos desafíos importantes.

Por ejemplo, la integración de nuevas fuentes de datos en un entorno centralizado requiere mucho tiempo y esfuerzo. El costo de la centralización de datos es significativo dada la inversión en almacenamiento, computadoras e interfaces, y la tarea de estandarizar los formatos de datos en todas las fuentes de datos. Mientras tanto, los silos de datos van en aumento porque existe una separación natural entre quienes crean y consumen datos, y los ingenieros de datos con experiencia en herramientas de big data. Esto se debe a que los ingenieros carecen de experiencia comercial y de dominio, y los propietarios de productos de datos carecen de experiencia técnica. Como resultado, las organizaciones no tienen la capacidad de ver el consumo de datos en toda la empresa.

Los aspectos técnicos de la centralización de datos también pueden contribuir a los efectos negativos de la política regulatoria; La competencia interna puede dar lugar a que los departamentos se nieguen a compartir sus activos de datos con otros departamentos. La falta de visibilidad y disponibilidad en un entorno centrado en datos puede fomentar el almacenamiento de activos de datos y, por lo tanto, la pérdida de muchas iniciativas de monetización de datos por parte de la empresa.

Los problemas de consolidación de datos en un entorno centralizado también conducen al uso de datos obsoletos. Por ejemplo, a medida que la organización crece con el tiempo, un tercero puede interactuar con muchas unidades comerciales diferentes dentro de la organización, cada una con un sistema operativo diferente. Esto conduce a una falta de sincronización de datos: algunos datos están actualizados y otra información ya no es precisa. Esto dificulta la implementación y el descubrimiento de conocimientos y, por lo tanto, afecta los resultados comerciales.

Finalmente, las empresas no pueden dictar cómo se utilizan los datos. Cuando los datos están centralizados, es complicado implementar los controles de acceso mínimos y más precisos, por lo que lograr el gobierno corporativo y el cumplimiento es un desafío.

Un nuevo enfoque descentralizado de los datos

Por lo tanto, está claro que el enfoque tradicional y centrado en los datos presenta a las organizaciones muchos desafíos que superar. Una estrategia alternativa es adoptar un enfoque descentralizado. El concepto Data Fabric, una de las direcciones estratégicas más importantes de Gartner para 2022, puede ayudar, basado en múltiples tecnologías de gestión de datos que funcionan en conjunto, mejorando la recuperación e integración de datos en todo el ecosistema de la empresa.

Una de esas tecnologías es la virtualización de datos, que permite el acceso a los recursos de datos desde cualquier fuente operativa sin tener que repetirlos. En otras palabras, en lugar de copiar datos de una fuente operativa a un almacén de datos central, los conjuntos de datos se pueden ver y analizar (incluso utilizando técnicas complejas de IA) desde donde se encuentran. El enfoque de Data Fabric real también permitiría la creación de lagos de datos virtuales en tiempo real según sea necesario; Esto significa que los lagos de datos se pueden crear y eliminar en cualquier momento sin afectar las aplicaciones y la infraestructura existentes.

Esto proporciona una alternativa más sencilla y rentable a la integración de fuentes y proveedores de datos, y permite una vista única del flujo de datos en toda la empresa. Al lograr este nivel de visibilidad, las organizaciones pueden actuar sobre los datos de muchas maneras. En primer lugar, mediante el uso de mecanismos de control avanzados basados ​​en rasgos y roles, puede restringir la visibilidad y el acceso al nivel más bajo y detallado, lo que permite que las decisiones de control se apliquen mejor.

En segundo lugar, debido a que los recursos de datos son más accesibles, las organizaciones pueden coordinar el intercambio de datos entre equipos y reducir los recursos de datos aislados. Esta capacidad de mejorar dinámicamente el uso de datos es parte del verdadero valor de Data Fabric, según Gartner. La firma de investigación dice que el análisis como parte de Data Fabric puede reducir los esfuerzos de gestión de datos hasta en un 70 % y acelerar el tiempo de obtención de valor.

Es importante destacar que el excelente enfoque de Data Fabric no significa abandonar los almacenes o lagos de datos centrales existentes, sino integrar los datos dentro de ellos como parte de una infraestructura dinámica y resistente. Data Fabric puede ser utilizado por una aplicación o plataforma y permite que los datos se enriquezcan, procesen y visualicen en cualquier momento, para que las empresas dejen de bloquear sus datos en silos o replicarlos en múltiples aplicaciones.

Las organizaciones que buscan mejorar los resultados comerciales mediante la modernización de la calidad, la gestión y la capacidad de descubrimiento de los datos deben considerar su enfoque de datos de extremo a extremo y preguntarse si un enfoque tradicional y centralizado puede ayudarlos a lograr sus objetivos. Una estrategia que utiliza la textura de los datos ciertamente puede hacer precisamente eso.

autor:

Médico. David Amzalaj – Jefe de Producto y CEO de Transformación Digital, BlackSwan Technologies.

Fuente: IDG Connect

 

Related Articles

Genel başlıklar

Data Fabric stratejisiyle veri yönetimini ve kaliteyi iyileştirin

Data Fabric stratejisiyle veri yönetimini ve kaliteyi iyileştirin

Performansı artırmak için şirketlerin geleneksel yöntemlerden uzaklaşarak verilerini doğru bir şekilde yönetmeleri ve kalitesini artırmaları gerekiyor.

Dış ve iç verilerden değer çıkarmanın hem veri yönetimine hem de veri kalitesine odaklanmayı gerektirdiği iyi bilinmektedir. Gartner, veri yönetişini “veri ve analitiklerin değerlendirilmesi, oluşturulması, tüketilmesi ve kontrolü ile ilgili uygun davranışı sağlamaya yönelik karar hakları ve hesap verebilirlik çerçevelerinin tanımı” olarak tanımlar. Veri kalitesi büyük ölçüde bilgilerin ne kadar doğru ve güncel olduğuyla belirlenir; Kuruluşunuzdaki bilgileri kimin kullandığına dair doğru veriler ve bilgi olmadan, bu bilgiyi boşaltmak çok zordur.

Veri yönetimi ve veri kalitesinin kuruluşlar için son derece önemli olduğu iyi bilinmesine rağmen – ve veri teknolojisi ve yeteneklerindeki muazzam ilerlemeler göz önüne alındığında – kuruluşlar hala veri kalitesini ve yönetimini sağlamak için mücadele etmektedir.

Ayrıca kontrol edin:

EY tarafından yakın zamanda yapılan bir araştırma, kuruluşların %41’inin verilerinin kalitesini en büyük zorluk olarak bulduğunu ortaya koydu. Gartner, düşük veri kalitesinin kuruluşlara yılda ortalama 12,9 milyon dolara mal olduğunu öne sürüyor.

Ayrıca, EY raporu, kuruluşların %14’ünün teknoloji altyapısına ve ilgili verilere erişimde sorun yaşadığını tespit etti. Yeterli kullanılabilirlik, teknoloji ve veri altyapısı olmadan şirketlerin etkili bir veri yönetimi çerçevesi uygulaması son derece zordur.

Veri merkezileştirmeyle ilgili zorluklar

Şirketlerin veri kalitesi ve veri yönetimi hedeflerine ulaşmasını engelleyen birçok engel, geleneksel veri merkezli yaklaşımdan kaynaklanmaktadır. Kuruluş büyüdükçe, operasyonel kaynakların akışı veri siloları oluşturur. Firmalar bu kaynaklardan gelen verileri tek bir yerde toplayarak bu sorunun üstesinden gelmeye çalışıyorlar. Son yıllarda bu akıl yürütme için herhangi bir argüman bulunmamakla birlikte, verilerin miktarının ve karmaşıklığının arttığı zamanlarda, birçok önemli zorluğa yol açmıştır.

Örneğin, yeni veri kaynaklarını merkezi bir ortama entegre etmek çok fazla zaman ve çaba gerektirir. Depolama, bilgisayarlar ve arayüzlere yapılan yatırım ve tüm veri kaynakları genelinde veri formatlarını standartlaştırma görevi göz önüne alındığında, veri merkezileştirme maliyeti önemlidir. Bu arada, veri oluşturan ve tüketenler ile büyük veri araçlarında deneyimli veri mühendisleri arasında doğal bir ayrım olduğu için veri siloları artıyor. Bunun nedeni, mühendislerin iş ve alan uzmanlığından ve veri ürünü sahiplerinin teknik uzmanlıktan yoksun olmasıdır. Sonuç olarak, kuruluşlar, kuruluş genelinde veri tüketimini görme yeteneğine sahip değildir.

Veri merkezileştirmenin teknik yönleri, düzenleyici politikanın olumsuz etkilerine de katkıda bulunabilir; İç rekabet, departmanların veri varlıklarını diğer departmanlarla paylaşmayı reddetmesine neden olabilir. Veri merkezli bir ortamda görünürlük ve kullanılabilirlik eksikliği, veri varlıklarının depolanmasını ve dolayısıyla kuruluş tarafından birçok veriden para kazanma girişiminin kaybedilmesini teşvik edebilir.

Merkezi bir ortamda veri konsolidasyonu sorunları da eski verilerin kullanımına yol açar. Örneğin, kuruluş zamanla büyüdükçe, üçüncü bir taraf, kuruluş içindeki her biri farklı bir işletim sistemine sahip birçok farklı iş birimiyle etkileşime girebilir. Bu, veri senkronizasyonu eksikliğine yol açar – bazı veriler günceldir ve diğer bazı bilgiler artık doğru değildir. Bu, uygulamayı ve bilgi keşfini engeller ve dolayısıyla iş sonuçlarını etkiler.

Son olarak, şirketler verilerin nasıl kullanılacağını belirleyemez. Veriler merkezileştirildiğinde, en az ve en doğru erişim kontrollerini uygulamak karmaşıktır, bu nedenle kurumsal yönetişim ve uyumluluğu sağlamak bir zorluktur.

Verilere yeni bir merkezi olmayan yaklaşım

Bu nedenle, geleneksel ve veri merkezli yaklaşımın, kuruluşlara üstesinden gelinmesi gereken birçok zorluk sunduğu açıktır. Alternatif bir strateji, merkezi olmayan bir yaklaşımı benimsemektir. Gartner’ın 2022 için en önemli stratejik yönlerinden biri olan Data Fabric konsepti, birlikte çalışan birden fazla veri yönetimi teknolojisine dayalı olarak veri alımını ve şirketin ekosistemi genelinde entegrasyonunu iyileştirmeye yardımcı olabilir.

Bu tür teknolojilerden biri, herhangi bir işletim kaynağından veri kaynaklarına, bunları tekrarlamak zorunda kalmadan erişime izin veren veri sanallaştırmadır. Başka bir deyişle, verileri operasyonel bir kaynaktan merkezi bir veri ambarına kopyalamak yerine, veri kümeleri bulundukları yerden (karmaşık yapay zeka teknikleri kullanılarak bile) görüntülenebilir ve analiz edilebilir. Gerçek Data Fabric yaklaşımı, gerektiğinde gerçek zamanlı olarak sanal veri göllerinin oluşturulmasını da mümkün kılacaktır; Bu, mevcut uygulamaları ve altyapıyı etkilemeden veri göllerinin herhangi bir zamanda oluşturulabileceği ve kaldırılabileceği anlamına gelir.

Bu, veri kaynaklarını ve sağlayıcıları entegre etmeye daha basit ve daha uygun maliyetli bir alternatif sağlar ve kuruluş genelinde veri akışının tek bir görünümünü sağlar. Bu görünürlük düzeyine ulaşarak kuruluşlar, veriler üzerinde birçok şekilde hareket edebilir. İlk olarak, özelliklere ve rollere dayalı gelişmiş kontrol mekanizmalarının kullanılması yoluyla, görünürlüğü ve erişimi en düşük, en ayrıntılı seviyeye kadar kısıtlayabilir ve kontrol kararlarının daha iyi uygulanmasına izin verebilir.

İkincisi, veri kaynakları daha erişilebilir olduğu için kuruluşlar ekipler arasında veri paylaşımını koordine edebilir ve yalıtılmış veri kaynaklarını azaltabilir. Veri kullanımını dinamik olarak iyileştirme yeteneği, Gartner’a göre Data Fabric’in gerçek değerinin bir parçasıdır. Araştırma firması, Data Fabric’in bir parçası olarak analitiklerin veri yönetimi çabalarını %70’e kadar azaltabileceğini ve değer elde etme süresini hızlandırabileceğini söylüyor.

Daha da önemlisi, Data Fabric’in mükemmel yaklaşımı, mevcut merkezi veri göllerini veya ambarları terk etmek anlamına gelmez, bunun yerine verileri dinamik ve esnek bir altyapının parçası olarak bunlara entegre etmek anlamına gelir. Data Fabric, bir uygulama veya platform tarafından kullanılabilir ve verilerin herhangi bir zamanda zenginleştirilmesine, işlenmesine ve görselleştirilmesine olanak tanır, böylece şirketler verilerini silolarda kilitlemeyi veya birden çok uygulamada çoğaltmayı durdurur.

Veri kalitesini, yönetimini ve keşfedilebilirliği modernize ederek iş sonuçlarını iyileştirmek isteyen kuruluşlar, uçtan uca veri yaklaşımlarını göz önünde bulundurmalı ve kendilerine geleneksel ve merkezi bir yaklaşımın hedeflerine ulaşmalarına yardımcı olup olmayacağını sormalıdır. Veri dokusunu kullanan bir strateji kesinlikle tam da bunu yapabilir.

yazar:

Doktor. David Amzalaj – BlackSwan Technologies, Dijital Dönüşüm Ürün Başkanı ve CEO’su.

Kaynak: IDG Connect

 

Related Articles

Back to top button