Qualité des données – Le point de basculement (Parvathy Menon)

Qualité des données – Le point de basculement (Parvathy Menon)

Qualité des données – Le point de bascule (Parvathy Menon) PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

"Les données sont une chose précieuse et dureront plus longtemps que les systèmes eux-mêmes." Ainsi dit

Tim Berners-Lee
, l'inventeur du World Wide Web. « Précieux » à condition que les données soient effectivement dignes de confiance et d'une qualité assurée et constante. Et les clients ont incontestablement reconnu le fait que la qualité des données constitue en effet le fondement de toutes leurs initiatives axées sur la gestion des données et l'analyse.

Mais alors pourquoi tout le tollé autour de la qualité des données et le chemin parcouru autour d'elle. . Ce qui déconcerte le plus souvent les clients, c'est l'énormité des points de contrôle à chaque étape du cycle de vie des données. Avec une gamme de solutions de gestion de données que les clients ont dans leur paysage système, à savoir. Data Warehouses, Data Marts, Master data management solutions, Data lakes et autres, il semble y avoir un certain niveau d'incertitude et de scepticisme quant à l'approche de la qualité des données.

Et si l'on devait regarder l'étendue du cycle de vie des données, les problèmes de qualité peuvent potentiellement surgir à chaque moment, de la source à l'ETL ou à toute transformation de middleware vers les entrepôts de données consolidés et les lacs de données du monde et jusqu'à il attrape enfin l'utilisateur final ou le client dans une certaine forme d'analyse de rapports, d'écran utilisateur, etc. et son kaboom !!!!

Ainsi, parmi la variété de données et de systèmes qui existent au sein des entreprises, existe-t-il une règle stricte sur quoi, où et comment s'attaquer au démon de la qualité des données. Eh bien très, beaucoup sur la plupart de notre liste de souhaits. mais alors, si les souhaits étaient des chevaux… Le seul objectif d'un programme de qualité des données devrait être de garantir que les données sacro-saintes sont mises à disposition pour tous les processus métier applicables, qu'ils soient des consommateurs internes ou externes.

Voici une liste de directives clés qui peuvent aider à orienter la vision de la qualité des données de votre organisation :

Catégorisez et hiérarchisez vos données :

Parmi les différents types de données disponibles, à savoir. Données de base, données transactionnelles/opérationnelles, données de référence, données analytiques, il pourrait y avoir un besoin pressant de nettoyer les données dans les limites des systèmes opérationnels ou analytiques puisque c'est le point le plus proche où les utilisateurs accèdent/utilisent leurs données, mais appelant cela un une solution à court terme serait un euphémisme, car après tout, on ne fait que traiter le problème au fur et à mesure qu'il se présente et on ne l'aborde pas vraiment à la base. Ce qui est plutôt logique, c'est d'examiner la catégorie de données qui est effectivement utilisée à l'échelle de l'entreprise et qui ne serait autre que vos entités commerciales principales de client, produit, fournisseur, employé, actifs et emplacement, etc. Ainsi, nettoyage, enrichissement Les processus de correspondance et de survie appliqués aux données de base peuvent être utilisés pour créer la meilleure version de la fiche principale et ainsi fournir une vue unique, unifiée et cohérente de vos principales entités commerciales.

 Appliquez les vérifications tôt dans le cycle de vie :

Nettoyez les données aussi près que possible de la source et maintenant c'est une pratique exemplaire fondamentale et bien sûr un cas d'entrée et de sortie d'ordures. C'est toujours une meilleure stratégie pour résoudre les problèmes de qualité des données aussi près de la source ou d'ailleurs à la source elle-même, car cela peut vous faire économiser beaucoup d'efforts et de dépenses. Et autant que vous pouvez essayer de nettoyer et de standardiser les données dans vos systèmes source, vous préféreriez mettre en place des contrôles avant l'entrée afin d'éviter la nécessité d'un nettoyage post facto.

 Différents problèmes Différentes latences :

Certains processus critiques de l'organisation peuvent nécessiter des contrôles de qualité des données en temps réel qui sont inévitables afin d'éviter toute activité frauduleuse ou duplicité. Exemple étant toute transaction bancaire. Par opposition à un processus ayant moins d'impact sur l'entreprise. Dans les deux cas, même si vous appliquez les principes de la gestion de la qualité des données, vous devez reconnaître les besoins urgents par rapport aux autres et aborder la tâche en conséquence.

L'inclusion des entreprises à chaque étape :

La participation des parties prenantes de l'entreprise au cours du parcours de la qualité des données ne peut être plus soulignée. Dès le début du parcours DQ, c'est-à-dire l'évaluation de la qualité jusqu'au nettoyage et à la déduplication des données, un très haut niveau d'implication est attendu du côté commercial. Et il va sans dire que l'engagement et le parrainage des entreprises pour le programme de qualité des données indiquent la probabilité de son succès

 Établir un processus de remédiation en boucle fermée :

Cette activité continue d'évaluation, de nettoyage et d'organisation garantira que les données sont adaptées à leur objectif et à leur utilisation à tout moment plutôt que de mener une activité ponctuelle ou en représailles à un rapport d'erreur ou à une escalade.

 Adoptez des sprints agiles :

On peut appeler la combinaison d'Agile et de DQ un match paradisiaque. L'adoption d'une approche agile dans votre programme de qualité des données peut aider à réduire considérablement la latence qui résulte des commentaires tardifs des parties prenantes. Une approche agile dans DQ permet d'accélérer l'ensemble du processus puisque les Business Stakeholders peuvent jouer le rôle de chef de produit et de plus puisque le sprint serait concentré sur un domaine d'activité particulier, cela permet une analyse plus rapide et donc des résultats plus rapides (lire la valeur dans Agile)

 Tirez parti des ensembles d'outils :

Capturer de grandes quantités de données à partir de systèmes disparates et tenter d'analyser les données afin de déverrouiller leur véritable valeur peut s'avérer être une tâche assez ardue pour les analystes, car le processus est non seulement fastidieux manuellement, mais également inefficace et sujet aux erreurs. Avec une pléthore d'outils disponibles pour le profilage et le nettoyage des données, il est impératif que les entreprises investissent dans le bon type d'outil, permettant aux entreprises de vraiment fournir des informations précieuses de la manière la plus optimale.

 

Une concentration continue sur la qualité des données vaut chaque centime de l'investissement, car non seulement cela aidera à inspirer la confiance de l'entreprise dans les données, mais aidera également à récolter les bénéfices de toutes les autres solutions d'entreprise qui sont en place. 

Horodatage:

Plus de Fintextra