Datakvalitet – The Tipping Point (Parvathy Menon)

Datakvalitet – The Tipping Point (Parvathy Menon)

Datakvalitet – The Tipping Point (Parvathy Menon) PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

"Data er en verdifull ting og vil vare lenger enn systemene selv." Så sagt

Tim Berners-Lee
, oppfinneren av World Wide Web. "Precious" forutsatt at dataene faktisk er pålitelige og av sikret og konsistent kvalitet. Og kunder har utvilsomt innrømmet det faktum at datakvalitet faktisk danner grunnlaget for alle deres dataadministrasjon og Analytics-drevne initiativer

Men så hvorfor all furore rundt datakvalitet og sporet av foretak rundt det. . Det som forvirrer kundene oftere enn ikke, er omfanget av sjekkpunktene i hvert eneste stadium av datalivssyklusen. Med en rekke datahåndteringsløsninger som kunden har innenfor sitt systemlandskap, nemlig. Datavarehus, datamarts, masterdatahåndteringsløsninger, datainnsjøer og lignende, det ser ut til å være en viss grad av usikkerhet og skepsis til tilnærmingen til datakvalitet.

Og hvis man skulle se på omfanget av datalivssyklusen, kan kvalitetsproblemer potensielt beskjæres ved hvert eneste tidspunkt, rett fra kilden til ETL eller eventuelle mellomvaretransformasjoner til de konsoliderte datavarehusene og datasjøene i verden og frem til den fanger endelig opp sluttbrukeren eller kunden i en eller annen form for rapporteringsanalyse, brukerskjerm osv. og dens kaboom!!!!

Så blant mangfoldet av data og systemer som finnes i bedrifter, er det noen harde og raske regler for hva hvor og hvordan man skal takle datakvalitetsdemonen. Vel, veldig mye på de fleste på ønskelisten vår. men så, hvis ønskene var hester……Det eneste formålet med et datakvalitetsprogram bør være å sikre at hellige data gjøres tilgjengelig for alle gjeldende forretningsprosesser, enten de er interne eller eksterne forbrukere.

Her er en liste over viktige retningslinjer som kan hjelpe deg med å styre organisasjonens datakvalitetsvisjon:

Kategoriser og prioriter dataene dine:

Blant de ulike typer data tilgjengelig, dvs. Masterdata, transaksjons-/operasjonsdata, referansedata, analytiske data, det kan være en presserende trang til å rense dataene innenfor rammen av operasjonelle eller analytiske systemer siden det er det nærmeste der brukerne får tilgang til/bruker dataene sine, men kaller det en kortsiktige løsning ville være en underdrivelse, fordi man tross alt bare håndterer problemet når og når det kommer og ikke egentlig tar opp det i kjernen. Det som snarere gir bedre mening er å se på kategorien data som faktisk blir brukt i hele bedriften, og som vil være ingen ringere enn dine hovedbedriftsenheter av kunde, produkt, leverandør, ansatt, eiendeler og plassering osv. Dermed renselse, berikelse Match- og overlevelsesprosesser brukt på masterdataene kan brukes til å lage den beste versjonen av masterposten og dermed gi en enkelt, enhetlig og konsistent visning av nøkkelforretningsenhetene dine.

 Bruk sjekkene tidlig i livssyklusen:

Rens dataene så nærme kilden som mulig, og nå er det en grunnleggende beste praksis og selvfølgelig et tilfelle av søppel inn og søppel ut. Det er alltid en bedre strategi å ta tak i datakvalitetsproblemene så nærme kilden eller for den saks skyld på selve kilden, siden det kan spare deg for mye krefter og kostnader. Og så mye du kan forsøke å rense og standardisere dataene i kildesystemene dine, vil du heller sette inn sjekker før du går inn for å unngå behovet for rensing post facto

 Ulike problemer Ulike ventetider:

Visse kritiske prosesser med ens organisasjon kan kreve sanntids datakvalitetskontroller som er uunngåelige for å avverge enhver uredelig eller duplicity aktivitet. Eksempel er enhver banktransaksjon. I motsetning til en prosess som påvirker mindre virksomheten. I begge tilfeller, så mye som du kan bruke prinsippene for datakvalitetsstyring, må man gjenkjenne de brennende behovene kontra de andre og nærme seg oppgaven deretter

Virksomhetsinkludering på alle trinn:

Deltakelsen fra virksomhetens interessenter under datakvalitetsreisen kan ikke vektlegges mer. Helt fra begynnelsen av DQ-reisen, også kjent som kvalitetsvurdering, til rensing og de-duplisering av data, forventes det et meget høyt nivå av involvering fra forretningssiden. Og unødvendig å si, forretningsforpliktelsen og sponsingen for Data Quality-programmet gir sannsynligheten for suksess

 Etabler en lukket sløyfe saneringsprosess:

Denne kontinuerlige pågående aktiviteten med vurdering, rensing, organisering vil sikre at dataene er egnet til formål og bruk til enhver tid i stedet for å utføre en engangsaktivitet eller som gjengjeldelse for en feilrapportering eller eskalering

 Bruk smidige sprints:

Man kan kalle kombinasjonen Agile og DQ en match made in heaven. Ved å ta i bruk en smidig tilnærming i datakvalitetsprogrammet ditt kan du i stor grad redusere ventetiden som oppstår på grunn av forsinket tilbakemelding fra interessenter. En smidig tilnærming i DQ hjelper til med å akselerere hele prosessen siden Business Stakeholders kan spille rollen som produktsjef og i tillegg siden spurten vil være fokusert på et bestemt forretningsområde, muliggjør det raskere analyse og dermed raskere resultater (les verdi i Agile)

 Utnytt verktøysett:

Å fange store mengder data fra ulike systemer og forsøke å analysere dataene for å låse opp dens sanne verdi kan vise seg å være en ganske oppoverbakke oppgave for analytikere, siden prosessen ikke bare er manuelt tungvint, men også er tidsineffektiv og utsatt for feil. Med en mengde verktøysett tilgjengelig for dataprofilering og -rensing, datakrangel, er det bare avgjørende at bedrifter investerer i riktig type verktøy, slik at virksomheter virkelig kan levere verdifull innsikt på den mest optimale måten

 

Et kontinuerlig fokus på datakvalitet er verdt hver eneste krone av investeringen, siden det ikke bare vil bidra til å inngyde bedriftens tillit til data, men også bidra til å høste fordelene av alle andre bedriftsløsninger som er på plass 

Tidstempel:

Mer fra Fintextra