Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler

Ekipe podatkovne znanosti in podatkovnega inženiringa porabijo precejšen del svojega časa v fazi priprave podatkov v življenjskem ciklu strojnega učenja (ML), pri čemer izvajajo korake izbire, čiščenja in transformacije podatkov. To je nujen in pomemben korak v katerem koli delovnem procesu ML za ustvarjanje pomembnih vpogledov in napovedi, saj slabi ali nizkokakovostni podatki močno zmanjšajo ustreznost pridobljenih vpogledov.

Ekipe podatkovnega inženiringa so tradicionalno odgovorne za vnos, konsolidacijo in pretvorbo neobdelanih podatkov za nadaljnjo porabo. Podatkovni znanstveniki morajo pogosto izvesti dodatno obdelavo podatkov za domensko specifične primere uporabe ML, kot so naravni jezik in časovne vrste. Na primer, nekateri algoritmi ML so lahko občutljivi na manjkajoče vrednosti, redke značilnosti ali izstopajoče vrednosti in zahtevajo posebno obravnavo. Tudi v primerih, ko je nabor podatkov v dobrem stanju, bodo podatkovni znanstveniki morda želeli preoblikovati porazdelitve funkcij ali ustvariti nove funkcije, da bi povečali vpoglede, pridobljene iz modelov. Da bi dosegli te cilje, se morajo podatkovni znanstveniki zanesti na ekipe podatkovnega inženiringa, da se prilagodijo zahtevanim spremembam, kar povzroči odvisnost in zamudo v procesu razvoja modela. Druga možnost je, da se ekipe za podatkovno znanost odločijo, da bodo interno izvajale pripravo podatkov in inženiring funkcij z uporabo različnih programskih paradigem. Vendar pa zahteva vlaganje časa in truda v namestitev in konfiguracijo knjižnic in ogrodij, kar ni idealno, saj je ta čas mogoče bolje porabiti za optimizacijo delovanja modela.

Amazon SageMaker Data Wrangler poenostavlja pripravo podatkov in postopek inženiringa funkcij, s čimer skrajša čas, ki je potreben za združevanje in pripravo podatkov za ML, s tednov na minute, tako da zagotavlja enoten vizualni vmesnik za podatkovne znanstvenike za izbiro, čiščenje in raziskovanje svojih naborov podatkov. Data Wrangler ponuja več kot 300 vgrajenih transformacij podatkov za pomoč pri normalizaciji, transformaciji in kombiniranju funkcij brez pisanja kode. Podatke lahko uvozite iz več podatkovnih virov, kot npr Storitev Amazon Simple Storage (Amazon S3), Amazonska Atena, Amazon RedShiftin Snowflake. Zdaj lahko uporabite tudi Podatkovne palice kot vir podatkov v Data Wranglerju za enostavno pripravo podatkov za ML.

Platforma Databricks Lakehouse združuje najboljše elemente podatkovnih jezer in podatkovnih skladišč za zagotavljanje zanesljivosti, močnega upravljanja in zmogljivosti podatkovnih skladišč z odprtostjo, prilagodljivostjo in podporo strojnega učenja podatkovnih jezer. Z Databricks kot virom podatkov za Data Wrangler se lahko zdaj hitro in enostavno povežete z Databricks, interaktivno poizvedujete po podatkih, shranjenih v Databricks, z uporabo SQL, in predogledate podatke pred uvozom. Poleg tega lahko svoje podatke v Databricks združite s podatki, shranjenimi v Amazon S3, in podatki, poizvedovanimi prek Amazon Athena, Amazon Redshift in Snowflake, da ustvarite pravi nabor podatkov za vaš primer uporabe ML.

V tej objavi preoblikujemo nabor podatkov Lending Club Loan z uporabo Amazon SageMaker Data Wrangler za uporabo pri usposabljanju modelov ML.

Pregled rešitev

Naslednji diagram ponazarja našo arhitekturo rešitev.

Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Podatkovni niz Lending Club Loan vsebuje popolne podatke o posojilih za vsa posojila, izdana v obdobju 2007–2011, vključno s trenutnim stanjem posojila in najnovejšimi informacijami o plačilu. Ima 39,717 vrstic, 22 stolpcev s funkcijami in 3 ciljne oznake.

Za pretvorbo naših podatkov z uporabo Data Wranglerja dokončamo naslednje korake na visoki ravni:

  1. Prenesite in razdelite nabor podatkov.
  2. Ustvarite tok Data Wrangler.
  3. Uvozite podatke iz Databricks v Data Wrangler.
  4. Uvozite podatke iz Amazon S3 v Data Wrangler.
  5. Pridruži podatke.
  6. Uporabi transformacije.
  7. Izvozi nabor podatkov.

Predpogoji

Objava predvideva, da imate delujočo gručo Databricks. Če se vaša gruča izvaja na AWS, preverite, ali imate konfigurirano naslednje:

Nastavitev Databricks

Sledite Zavarujte dostop do veder S3 z uporabo profilov primerkov za zahtevano AWS upravljanje identitete in dostopa (IAM), pravilnik vedra S3 in konfiguracija gruče Databricks. Zagotovite, da je gruča Databricks konfigurirana z ustreznimi Instance Profile, izbrano pod naprednimi možnostmi, za dostop do želenega vedra S3.

Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Ko je gruča Databricks pripravljena in zagnana z zahtevanim dostopom do Amazon S3, lahko pridobite JDBC URL iz vaše gruče Databricks, ki jih bo uporabil Data Wrangler za povezavo z njo.

Pridobite URL JDBC

Če želite pridobiti URL JDBC, izvedite naslednje korake:

  1. V Databricks se pomaknite do uporabniškega vmesnika gruč.
  2. Izberite svojo gručo.
  3. o konfiguracija izberite jeziček Dodatne možnosti.
  4. Pod Dodatne možnosti, izberite JDBC/ODBC tab.
  5. Kopirajte URL JDBC.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Poskrbite, da boste zamenjali svoj osebni dostop žeton v URL-ju.

Nastavitev Data Wranglerja

Ta korak predvideva, da imate dostop do Amazon SageMaker, primerka Amazon SageMaker Studioin uporabnik Studia.

Da omogoči dostop do povezave Databricks JDBC iz programa Data Wrangler, uporabnik Studia potrebuje naslednje dovoljenje:

  • secretsmanager:PutResourcePolicy

Sledite spodnjim korakom, da posodobite vlogo izvajanja IAM, dodeljeno uporabniku Studio z zgornjim dovoljenjem, kot skrbniški uporabnik IAM.

  1. Na konzoli IAM izberite vloge v podoknu za krmarjenje.
  2. Izberite vlogo, dodeljeno vašemu uporabniku Studio.
  3. Izberite Dodajte dovoljenja.
  4. Izberite Ustvari vgrajeno politiko.
  5. Za storitev izberite Upravitelj skrivnosti.
  6. On Proces, izberite Raven dostopa.
  7. Izberite Upravljanje dovoljenj.
  8. Izberite PutResourcePolicy.
  9. za viri, izberite specifična in izberite Kateri koli v tem računu.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Prenesite in razdelite nabor podatkov

Lahko začnete z prenos nabora podatkov. Za namene predstavitve smo nabor podatkov razdelili tako, da smo kopirali stolpce funkcij id, emp_title, emp_length, home_ownerin annual_inc ustvariti drugo posojila_2.csv mapa. Zgoraj omenjene stolpce odstranimo iz prvotne datoteke posojil, razen stolpca id in preimenujte izvirno datoteko v posojila_1.csv. Naložite posojila_1.csv datoteko Podatkovne palice ustvariti tabelo loans_1 in posojila_2.csv v vedru S3.

Ustvarite tok Data Wrangler

Za informacije o predpogojih za Data Wrangler glejte Začnite z Data Wrangler.

Začnimo z ustvarjanjem novega toka podatkov.

  1. Na konzoli Studio na file izberite meni Novo.
  2. Izberite Data Wrangler tok.
  3. Po želji preimenujte tok.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Druga možnost je, da ustvarite nov tok podatkov iz zaganjalnika.

  • Na konzoli Studio izberite Amazon SageMaker Studio v podoknu za krmarjenje.
  • Izberite Nov pretok podatkov.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Ustvarjanje novega toka lahko traja nekaj minut. Ko je tok ustvarjen, vidite Uvozi podatke stran.

Uvozite podatke iz Databricks v Data Wrangler

Nato smo nastavili Databricks (JDBC) kot vir podatkov v Data Wranglerju. Za uvoz podatkov iz Databricks moramo najprej dodati Databricks kot vir podatkov.

  1. o Uvozi podatke zavihek vašega toka Data Wrangler, izberite Dodaj vir podatkov.
  2. V spustnem meniju izberite Databricks (JDBC).
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

o Uvozite podatke iz Databricks stran, vnesete podatke o gruči.

  1. za Ime nabora podatkov, vnesite ime, ki ga želite uporabiti v datoteki toka.
  2. za Voznik, izberite gonilnik com.simba.spark.jdbc.Driver.
  3. za JDBC URL, vnesite URL vaše gruče Databricks, pridobljene prej.

URL mora biti podoben naslednji obliki jdbc:spark://<serve- hostname>:443/default;transportMode=http;ssl=1;httpPath=<http- path>;AuthMech=3;UID=token;PWD=<personal-access-token>.

  1. V urejevalniku poizvedb SQL podajte naslednji stavek SQL SELECT:
    select * from loans_1

Če ste med nalaganjem podatkov v Databricks izbrali drugo ime tabele, ustrezno zamenjajte loans_1 v zgornji poizvedbi SQL.

v Poizvedba SQL v razdelku Data Wrangler, lahko poizvedujete po kateri koli tabeli, ki je povezana z bazo podatkov JDBC Databricks. Vnaprej izbrani Omogoči vzorčenje nastavitev privzeto pridobi prvih 50,000 vrstic vašega nabora podatkov. Odvisno od velikosti nabora podatkov, preklic izbire Omogoči vzorčenje lahko povzroči daljši čas uvoza.

  1. Izberite Run.

Izvajanje poizvedbe omogoča predogled vašega nabora podatkov Databricks neposredno v Data Wranglerju.
Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

  1. Izberite uvoz.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Data Wrangler zagotavlja prilagodljivost za nastavitev več sočasnih povezav z eno gručo Databricks ali več gruč, če je potrebno, kar omogoča analizo in pripravo na kombiniranih nizih podatkov.

Uvozite podatke iz Amazon S3 v Data Wrangler

Nato uvozimo loan_2.csv datoteko iz Amazon S3.

  1. Na zavihku Uvozi izberite Amazon S3 kot vir podatkov.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
  2. Pomaknite se do vedra S3 za loan_2.csv Datoteka.

Ko izberete datoteko CSV, si lahko predogledate podatke.

  1. v podrobnosti podokno, izberite Napredna konfiguracija Prepričati se Omogoči vzorčenje je izbran in ODSTAVEK je izbran za Delititer.
  2. Izberite uvoz.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Po loans_2.csv je nabor podatkov uspešno uvožen, vmesnik za pretok podatkov prikaže vire podatkov Databricks JDBC in Amazon S3.

Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Pridruži podatke

Zdaj, ko smo uvozili podatke iz Databricks in Amazon S3, združimo nabore podatkov s skupnim enoličnim identifikatorskim stolpcem.

  1. o Pretok podatkov zavihek, za Vrste podatkov, izberite znak plus za loans_1.
  2. Izberite pridruži se.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
  3. Izberite loans_2.csv datoteko kot Prav nabor podatkov.
  4. Izberite Konfiguracija za nastavitev meril pridružitve.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
  5. za Ime, vnesite ime za pridružitev.
  6. za Vrsta pridružitve, izberite Notranja za to objavo.
  7. Izberite id stolpec, ki se mu želite pridružiti.
  8. Izberite Uporabi za predogled združenega nabora podatkov.
  9. Izberite Dodaj da ga dodate v tok podatkov.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Uporabi transformacije

Data Wrangler ima več kot 300 vgrajenih transformacij, ki ne zahtevajo kodiranja. Za pripravo nabora podatkov uporabimo vgrajene transformacije.

Spustite stolpec

Najprej izpustimo odvečni stolpec ID.

  1. Na združenem vozlišču izberite znak plus.
  2. Izberite Dodaj preoblikovanje.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
  3. Pod preoblikuje, izberite + Dodaj korak.
  4. Izberite Upravljanje stolpcev.
  5. za Transform, izberite Spustite stolpec.
  6. za Stolpci za spuščanje, izberite stolpec id_0.
  7. Izberite predogled.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
  8. Izberite Dodaj.

Oblikuj niz

Uporabimo oblikovanje niza, da odstranimo simbol odstotka iz int_rate in revol_util stolpcev.

  1. o datum zavihek, pod Preoblikuje, izberite + Dodaj korak.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
  2. Izberite Oblikuj niz.
  3. za Transform, izberite Črtaj znake z desne.

Data Wrangler vam omogoča, da izbrano transformacijo uporabite na več stolpcih hkrati.

  1. za Vnosni stolpci, izberite int_rate in revol_util.
  2. za Znaki za odstranitev, vnesite %.
  3. Izberite predogled.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
  4. Izberite Dodaj.

Označite besedilo

Zdaj vektorizirajmo verification_status, stolpec s funkcijo besedila. Besedilni stolpec pretvorimo v vektorje frekvence termina–inverzne frekvence dokumenta (TF-IDF) z uporabo vektorizatorja štetja in standardnega tokenizatorja, kot je opisano spodaj. Data Wrangler ponuja tudi možnost, da po želji prinesete svoj lasten tokenizer.

  1. Pod transformatorji, izberite + Dodaj korak.
  2. Izberite Označite besedilo.
  3. za Transform, izberite Vektorizirajte.
  4. za Vnosni stolpci, izberite verification_status.
  5. Izberite predogled.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
  6. Izberite Dodaj.

Izvozi nabor podatkov

Ko uporabimo več transformacij za različne vrste stolpcev, vključno z besedilnimi, kategoričnimi in številskimi, smo pripravljeni za uporabo transformiranega nabora podatkov za usposabljanje modela ML. Zadnji korak je izvoz transformiranega nabora podatkov v Amazon S3. V Data Wranglerju imate na izbiro več možnosti za nadaljnjo uporabo transformacij:

V tej objavi izkoriščamo prednosti Izvozi podatke možnost v Transform za izvoz preoblikovanega nabora podatkov neposredno v Amazon S3.

  1. Izberite Izvozi podatke.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.
  2. za S3 lokacija, izberite Brskanje in izberite svoje vedro S3.
  3. Izberite Izvozi podatke.
    Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Čiščenje

Če je vaše delo s Data Wrangler končano, zaustavite primer Data Wrangler v izogib dodatnim pristojbinam.

zaključek

V tej objavi smo obravnavali, kako lahko hitro in preprosto nastavite in povežete Databricks kot vir podatkov v Data Wranglerju, interaktivno poizvedujete po podatkih, shranjenih v Databricks, z uporabo SQL, in predogledate podatke pred uvozom. Poleg tega smo pogledali, kako lahko svoje podatke v Databricks združite s podatki, shranjenimi v Amazon S3. Nato smo uporabili transformacije podatkov na kombiniranem naboru podatkov, da smo ustvarili cevovod za pripravo podatkov. Če želite raziskati več zmožnosti analize Data Wranglerja, vključno z ustvarjanjem poročil o uhajanju ciljev in pristranskosti, si oglejte naslednjo objavo v spletnem dnevniku Pospešite pripravo podatkov z Amazon SageMaker Data Wrangler za predvidevanje ponovnega sprejema diabetičnega bolnika.

Za začetek uporabe Data Wrangler glejte Pripravite podatke ML z Amazon SageMaker Data Wranglerin si oglejte najnovejše informacije o Data Wranglerju Stran izdelka.


O avtorjih

Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.Roop Bains je arhitekt rešitev pri AWS, ki se osredotoča na AI/ML. Strastno želi pomagati strankam pri inovacijah in doseganju njihovih poslovnih ciljev z uporabo umetne inteligence in strojnega učenja. V prostem času Roop uživa v branju in pohodništvu.

Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.Igor Alekseev je arhitekt partnerskih rešitev pri AWS na področju podatkov in analitike. Igor sodeluje s strateškimi partnerji in jim pomaga zgraditi kompleksne arhitekture, optimizirane za AWS. Preden se je pridružil AWS, je kot Data/Solution Architect izvajal številne projekte na področju velikih podatkov, vključno z več podatkovnimi jezeri v ekosistemu Hadoop. Kot podatkovni inženir je sodeloval pri uporabi AI/ML za odkrivanje goljufij in pisarniško avtomatizacijo. Igorjevi projekti so bili v različnih panogah, vključno s komunikacijami, financami, javno varnostjo, proizvodnjo in zdravstvenim varstvom. Prej je Igor delal kot full stack inženir/tehnični vodja.

Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.Huong Nguyen je starejša vodja izdelkov pri AWS. Vodi uporabniško izkušnjo za SageMaker Studio. Ima 13 let izkušenj pri ustvarjanju izdelkov, ki jih obvladujejo kupci in temeljijo na podatkih tako za podjetja kot za potrošnike. V prostem času rada bere, je v naravi in ​​se druži z družino.

Pripravite podatke iz Databricks za strojno učenje z uporabo Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.Henry Wang je inženir za razvoj programske opreme pri AWS. Nedavno se je po diplomi na UC Davis pridružil ekipi Data Wrangler. Zanimata ga podatkovna znanost in strojno učenje, za hobi pa se ukvarja s 3D-tiskanjem.

Časovni žig:

Več od Strojno učenje AWS