Bygg, del, distribuer: hvordan forretningsanalytikere og dataforskere oppnår raskere time-to-market ved å bruke ML uten kode og Amazon SageMaker Canvas PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Bygg, del, distribuer: hvordan forretningsanalytikere og dataforskere oppnår raskere time-to-market ved å bruke no-code ML og Amazon SageMaker Canvas

Maskinlæring (ML) hjelper organisasjoner med å øke inntektene, drive virksomhetsvekst og redusere kostnadene ved å optimalisere kjernevirksomhetsfunksjoner på tvers av flere vertikaler, for eksempel etterspørselsprognoser, kredittscoring, prissetting, forutsi kundefragang, identifisere nest beste tilbud, forutsi sene forsendelser og forbedre produksjonskvaliteten. Tradisjonelle ML-utviklingssykluser tar måneder og krever knappe datavitenskap og ML-ingeniørferdigheter. Analytikeres ideer for ML-modeller sitter ofte i lange etterslep mens de venter på datavitenskapsteamets båndbredde, mens dataforskere fokuserer på mer komplekse ML-prosjekter som krever deres fulle kompetanse.

For å bidra til å bryte denne fastlåsningen, har vi introduserte Amazon SageMaker Canvas, en kodefri ML-løsning som kan hjelpe bedrifter med å akselerere levering av ML-løsninger ned til timer eller dager. SageMaker Canvas gjør det mulig for analytikere å enkelt bruke tilgjengelige data i datainnsjøer, datavarehus og driftsdatalagre; bygge ML-modeller; og bruke dem til å lage spådommer interaktivt og for batch-scoring på bulkdatasett – alt uten å skrive en eneste kodelinje.

I dette innlegget viser vi hvordan SageMaker Canvas muliggjør samarbeid mellom dataforskere og forretningsanalytikere, oppnår raskere time to market og akselererer utviklingen av ML-løsninger. Analytikere får sitt eget ML-arbeidsområde uten kode i SageMaker Canvas, uten å måtte bli en ML-ekspert. Analytikere kan deretter dele modellene sine fra Canvas med noen få klikk, som dataforskere vil kunne jobbe med i Amazon SageMaker Studio, et ende-til-ende ML integrert utviklingsmiljø (IDE). Ved å jobbe sammen kan forretningsanalytikere ta med seg domenekunnskapen og resultatene av eksperimentet, mens dataforskere effektivt kan lage rørledninger og effektivisere prosessen.

La oss gå dypt inn i hvordan arbeidsflyten vil se ut.

Forretningsanalytikere bygger en modell, og deler den deretter

For å forstå hvordan SageMaker Canvas forenkler samarbeid mellom forretningsanalytikere og dataforskere (eller ML-ingeniører), nærmer vi oss først prosessen som forretningsanalytiker. Før du setter i gang, se Kunngjøring av Amazon SageMaker Canvas – en visuell maskinlæringsevne uten kode for forretningsanalytikere for instruksjoner om å bygge og teste modellen med SageMaker Canvas.

For dette innlegget bruker vi en modifisert versjon av Datasett for oppdagelse av kredittkortsvindel fra Kaggle, et velkjent datasett for et binært klassifiseringsproblem. Datasettet er opprinnelig svært ubalansert – det har svært få oppføringer klassifisert som en negativ klasse (unormale transaksjoner). Uavhengig av målfunksjonsdistribusjonen, kan vi fortsatt bruke dette datasettet, fordi SageMaker Canvas håndterer denne ubalansen når den trener og tuner en modell automatisk. Dette datasettet består av rundt 9 millioner celler. Du kan også laste ned en redusert versjon av dette datasettet. Datasettstørrelsen er mye mindre, på rundt 500,000 0 celler, fordi den har blitt tilfeldig undersamplet og deretter oversamplet med SMOTE-teknikken for å sikre at så lite informasjon som mulig går tapt under denne prosessen. Å kjøre et helt eksperiment med dette reduserte datasettet koster deg $XNUMX under SageMaker Canvas Free Tier.

Etter at modellen er bygget, kan analytikere bruke den til å lage spådommer direkte i Canvas for enten individuelle forespørsler, eller for et helt input-datasett i bulk.

Bruk den trente modellen til å generere spådommer

Modeller bygget med Canvas Standard Build kan også enkelt deles med et klikk på en knapp med dataforskere og ML-ingeniører som bruker SageMaker Studio. Dette lar en dataforsker validere ytelsen til modellen du har bygget og gi tilbakemelding. ML-ingeniører kan plukke opp modellen din og integrere den med eksisterende arbeidsflyter og produkter tilgjengelig for din bedrift og dine kunder. Merk at i skrivende stund er det ikke mulig å dele en modell bygget med Canvas Quick Build, eller en tidsserieprognosemodell.

Å dele en modell via Canvas UI er enkelt:

  1. Velg en modell på siden som viser modellene du har laget.
  2. Velg Del.Del den trente modellen fra Analyser-fanen
  3. Velg én eller flere versjoner av modellen du vil dele.
  4. Du kan eventuelt inkludere et notat som gir mer kontekst om modellen eller hjelpen du leter etter.
  5. Velg Lag SageMaker Studio Link.Del modellen med SageMaker Studio
  6. Kopier den genererte lenken.Kopier den genererte lenken

Og det er det! Du kan nå dele lenken med kollegene dine via Slack, e-post eller en hvilken som helst annen metode du foretrekker. Dataforskeren må være i samme SageMaker Studio-domene for å få tilgang til modellen din, så sørg for at dette er tilfelle med organisasjonsadministratoren din.

Del modellen ved å sende en Slack-melding eller en e-post

Dataforskere får tilgang til modellinformasjonen fra SageMaker Studio

La oss nå spille rollen som en dataforsker eller ML-ingeniør, og se ting fra deres synspunkt ved å bruke SageMaker Studio.

Linken som er delt av analytikeren tar oss inn i SageMaker Studio, den første skybaserte IDE-en for ende-til-ende ML-arbeidsflyten.

Vis modelloversikten som vist i SageMaker Studio

Fanen åpnes automatisk, og viser en oversikt over modellen laget av analytikeren i SageMaker Canvas. Du kan raskt se modellens navn, ML-problemtypen, modellversjonen og hvilken bruker som har laget modellen (under feltet Canvas bruker-ID). Du har også tilgang til detaljer om input-datasettet og den beste modellen som SageMaker var i stand til å produsere. Det skal vi dykke ned i senere i innlegget.

Inndatasett fanen, kan du også se dataflyten fra kilden til inndatasettet. I dette tilfellet brukes bare én datakilde og ingen sammenføyningsoperasjoner er brukt, så en enkelt kilde vises. Du kan analysere statistikk og detaljer om datasettet ved å velge Åpne notatbok for datautforskning. Denne notatboken lar deg utforske dataene som var tilgjengelige før trening av modellen, og inneholder en analyse av målvariabelen, et utvalg av inputdata, statistikk og beskrivelser av kolonner og rader, samt annen nyttig informasjon for dataforskeren å vite mer om datasettet. For å lære mer om denne rapporten, se Datautforskningsrapport.

Vis modelloversikten, med de fullførte jobbene og jobbinformasjonen

Etter å ha analysert inndatasettet, la oss gå videre til den andre fanen i modelloversikten, AutoML jobb. Denne kategorien inneholder en beskrivelse av AutoML-jobben når du valgte Standard Build-alternativet i SageMaker Canvas.

AutoML-teknologien under SageMaker Canvas eliminerer de tunge løftene ved å bygge ML-modeller. Den bygger, trener og justerer automatisk den beste ML-modellen basert på dataene dine ved å bruke en automatisert tilnærming, samtidig som den lar deg opprettholde full kontroll og synlighet. Denne synligheten på de genererte kandidatmodellene så vel som hyperparametrene som brukes under AutoML-prosessen, finnes i notatbok for kandidatgenerering, som er tilgjengelig på denne fanen.

De AutoML jobb fanen inneholder også en liste over hver modell som er bygget som en del av AutoML-prosessen, sortert etter F1-målberegningen. For å fremheve den beste modellen av opplæringsjobbene som er lansert, brukes en merkelapp med en grønn sirkel i Beste modell kolonne. Du kan også enkelt visualisere andre beregninger som brukes under trenings- og evalueringsfasen, for eksempel nøyaktighetsscore og Area Under the Curve (AUC). For å lære mer om modellene du kan trene under en AutoML-jobb og beregningene som brukes for å evaluere ytelsen til den trente modellen, se Modellstøtte, beregninger og validering.

For å lære mer om modellen kan du nå høyreklikke på den beste modellen og velge Åpne i modelldetaljer. Alternativt kan du velge Beste modellen lenke øverst på Modelloversikt delen du først besøkte.

Modelldetaljer med funksjonsviktigheter og beregninger

Modelldetaljer-siden inneholder en mengde nyttig informasjon om modellen som presterte best med disse inndataene. La oss først fokusere på sammendraget øverst på siden. Skjermbildet ovenfor viser at av hundrevis av modelltreningsløp, presterte en XGBoost-modell best på inndatadatasettet. Når dette skrives, kan SageMaker Canvas trene tre typer ML-algoritmer: lineær innlærer, XGBoost og en flerlagsperceptron (MLP), hver med et bredt utvalg av forbehandlingsrørledninger og hyperparametere. For å lære mer om hver algoritme, se side med støttede algoritmer.

SageMaker inkluderer også en forklarende funksjonalitet takket være en skalerbar og effektiv implementering av KernelSHAP, basert på konseptet om en Shapley-verdi fra feltet kooperativ spillteori som tildeler hver funksjon en viktighetsverdi for en bestemt prediksjon. Dette gir åpenhet om hvordan modellen kom frem til sine spådommer, og det er veldig nyttig å definere funksjonens betydning. En fullstendig forklaringsrapport inkludert funksjonsviktighet kan lastes ned i PDF-, notatbok- eller rådataformat. I den rapporten vises et bredere sett med beregninger i tillegg til en fullstendig liste over hyperparametere som ble brukt under AutoML-jobben. For å lære mer om hvordan SageMaker tilbyr integrerte forklaringsverktøy for AutoML-løsninger og standard ML-algoritmer, se Bruk integrerte forklaringsverktøy og forbedre modellkvaliteten ved å bruke Amazon SageMaker Autopilot.

Til slutt viser de andre fanene i denne visningen informasjon om ytelsesdetaljer (forvirringsmatrise, presisjonsgjenkallingskurve, ROC-kurve), artefakter brukt for innganger og generert under AutoML-jobben, og nettverksdetaljer.

På dette tidspunktet har dataforskeren to valg: distribuere modellen direkte, eller opprette en treningspipeline som kan planlegges eller utløses manuelt eller automatisk. De følgende delene gir litt innsikt i begge alternativene.

Distribuer modellen direkte

Hvis dataforskeren er fornøyd med resultatene oppnådd av AutoML-jobben, kan de distribuere modellen direkte fra Modelldetaljer side. Det er like enkelt som å velge Implementer modell ved siden av modellnavnet.

Ytterligere modelldetaljer, hvor du skal distribuere modellen

SageMaker viser deg to alternativer for distribusjon: et endepunkt i sanntid, drevet av Amazon SageMaker-endepunkter, og batch-inferens, drevet av Batchtransformasjon fra Amazon SageMaker.

Mulighet for å starte prediksjon fra AutoML

SageMaker tilbyr også andre slutningsmåter. For å lære mer, se Distribuer modeller for inferens.

For å aktivere sanntidsprediksjonsmodus, gir du ganske enkelt endepunktet et navn, en forekomsttype og en forekomsttelling. Fordi denne modellen ikke krever store dataressurser, kan du bruke en CPU-basert forekomst med et startantall på 1. Du kan lære mer om de forskjellige typene tilgjengelige forekomster og deres spesifikasjoner på Amazon SageMaker-prisside (i On-Demand-priser velger du Sanntidsslutning fanen). Hvis du ikke vet hvilken instans du bør velge for distribusjonen din, kan du også be SageMaker om å finne den beste for deg i henhold til KPI-ene dine ved å bruke SageMaker Inference Recommender. Du kan også angi flere valgfrie parametere, angående hvorvidt du vil fange opp forespørsels- og svardata til eller fra endepunktet. Dette kan være nyttig hvis du planlegger det overvåking av modellen din. Du kan også velge hvilket innhold du vil gi som en del av svaret ditt – enten det bare er prediksjonen eller prediksjonssannsynligheten, sannsynligheten for alle klasser og måletikettene.

For å kjøre en batch-scoringsjobb og få spådommer for et helt sett med innganger på en gang, kan du starte batch-transformeringsjobben fra AWS-administrasjonskonsoll eller via SageMaker Python SDK. For å lære mer om batchtransformasjon, se Bruk Batch Transform og eksempelnotatbøkene.

Definer en treningspipeline

ML-modeller kan svært sjelden, om noen gang, betraktes som statiske og uforanderlige, fordi de driver fra grunnlinjen de har blitt trent på. Data fra den virkelige verden utvikler seg over tid, og flere mønstre og innsikt dukker opp fra dem, som kanskje fanges opp av den originale modellen som er trent på historiske data. For å løse dette problemet kan du sette opp en treningspipeline som automatisk omskoler modellene dine med de siste tilgjengelige dataene.

Ved å definere denne pipelinen er et av alternativene til dataforskeren å igjen bruke AutoML for treningspipelinen. Du kan starte en AutoML-jobb programmatisk ved å starte create_auto_ml_job() API fra AWS Boto3 SDK. Du kan ringe denne operasjonen fra en AWS Lambda funksjon innenfor en AWS trinnfunksjoner arbeidsflyt, eller fra en LambdaStep in Amazon SageMaker-rørledninger.

Alternativt kan dataforskeren bruke kunnskapen, artefaktene og hyperparametrene hentet fra AutoML-jobben for å definere en komplett treningspipeline. Du trenger følgende ressurser:

  • Algoritmen som fungerte best for brukstilfellet – Du har allerede fått denne informasjonen fra sammendraget av den Canvas-genererte modellen. For denne brukssaken er det den innebygde XGBoost-algoritmen. For instruksjoner om hvordan du bruker SageMaker Python SDK for å trene XGBoost-algoritmen med SageMaker, se Bruk XGBoost med SageMaker Python SDK.
    Informasjon om algoritmen som ble trent med Canvas-jobben
  • Hyperparametrene utledet av AutoML-jobben – Disse er tilgjengelige i Forklarbarhet seksjon. Du kan bruke dem som input når du definerer treningsjobben med SageMaker Python SDK.
    Modellens hyperparametre
  • Funksjonsteknikkkoden oppgitt i Artefakter-delen – Du kan bruke denne koden både for å forhåndsbehandle dataene før trening (for eksempel via Amazon SageMaker Processing), eller før inferens (for eksempel som en del av en SageMaker-inferenspipeline).
    S3-URI-en til Feature Engineering Code

Du kan kombinere disse ressursene som en del av en SageMaker-pipeline. Vi utelater implementeringsdetaljene i dette innlegget – følg med for mer innhold som kommer om dette emnet.

konklusjonen

SageMaker Canvas lar deg bruke ML til å generere spådommer uten å måtte skrive noen kode. En forretningsanalytiker kan autonomt begynne å bruke den med lokale datasett, så vel som data som allerede er lagret på Amazon enkel lagringstjeneste (Amazon S3), Amazon RedShift, eller Snowflake. Med bare noen få klikk kan de forberede og slå sammen datasettene sine, analysere estimert nøyaktighet, verifisere hvilke kolonner som har effekt, trene opp modellen med best ytelse og generere nye individuelle eller batch-prediksjoner, alt uten behov for å trekke inn en ekspert dataforsker. Deretter kan de, etter behov, dele modellen med et team av dataforskere eller MLOps-ingeniører, som importerer modellene til SageMaker Studio, og jobber sammen med analytikeren for å levere en produksjonsløsning.

Forretningsanalytikere kan uavhengig få innsikt fra dataene sine uten å ha en grad i ML, og uten å måtte skrive en eneste linje med kode. Dataforskere kan nå ha ekstra tid til å jobbe med mer utfordrende prosjekter som bedre kan bruke deres omfattende kunnskap om AI og ML.

Vi tror dette nye samarbeidet åpner døren for å bygge mange kraftigere ML-løsninger for din virksomhet. Du har nå analytikere som produserer verdifull forretningsinnsikt, samtidig som du lar dataforskere og ML-ingeniører hjelpe til med å finjustere, justere og utvide etter behov.

Tilleggsressurser


Om forfatterne

Bygg, del, distribuer: hvordan forretningsanalytikere og dataforskere oppnår raskere time-to-market ved å bruke ML uten kode og Amazon SageMaker Canvas PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.Davide Gallitelli er en spesialistløsningsarkitekt for AI/ML i EMEA-regionen. Han er basert i Brussel og jobber tett med kunder i hele Benelux. Han har vært utvikler siden han var veldig ung, og begynte å kode i en alder av 7. Han begynte å lære AI/ML på universitetet, og har forelsket seg i det siden den gang.

Bygg, del, distribuer: hvordan forretningsanalytikere og dataforskere oppnår raskere time-to-market ved å bruke ML uten kode og Amazon SageMaker Canvas PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.Mark Roy er en hovedarkitektlæringsarkitekt for AWS, som hjelper kunder med å designe og bygge AI / ML-løsninger. Marks arbeid dekker et bredt spekter av ML-brukstilfeller, med hovedinteresse i datasyn, dyp læring og skalering av ML over hele virksomheten. Han har hjulpet selskaper i mange bransjer, inkludert forsikring, finansielle tjenester, media og underholdning, helsetjenester, verktøy og produksjon. Mark har seks AWS-sertifiseringer, inkludert ML-spesialitetssertifisering. Før han begynte i AWS, var Mark arkitekt, utvikler og teknologileder i over 25 år, inkludert 19 år innen finansielle tjenester.

Tidstempel:

Mer fra AWS maskinlæring