Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangleri

Andmeteaduse ja andmetehnika meeskonnad veedavad olulise osa oma ajast masinõppe (ML) elutsükli andmete ettevalmistamise etapis, tehes andmete valimise, puhastamise ja teisendamise etappe. See on iga ML-i töövoo vajalik ja oluline samm, et luua sisukaid teadmisi ja ennustusi, sest halvad või madala kvaliteediga andmed vähendavad oluliselt saadud arusaamade asjakohasust.

Andmetehnoloogia meeskonnad vastutavad traditsiooniliselt töötlemata andmete sissevõtmise, konsolideerimise ja teisendamise eest järgnevaks tarbimiseks. Andmeteadlased peavad sageli tegema täiendavat andmete töötlemist domeenispetsiifiliste ML kasutusjuhtude jaoks, nagu loomulik keel ja aegread. Näiteks võivad teatud ML-algoritmid olla tundlikud puuduvate väärtuste, väheste funktsioonide või kõrvalekallete suhtes ning nõuda erilist tähelepanu. Isegi juhtudel, kui andmestik on heas korras, võivad andmeteadlased soovida funktsioonide jaotusi muuta või uusi funktsioone luua, et mudelitest saadavat teavet maksimaalselt kasutada. Nende eesmärkide saavutamiseks peavad andmeteadlased toetuma andmetöötlusmeeskondadele, et kohandada nõutud muudatusi, mille tulemuseks on sõltuvus ja viivitus mudeli arendusprotsessis. Teise võimalusena võivad andmeteaduse meeskonnad teha andmete ettevalmistamise ja funktsioonide projekteerimise sisemiselt, kasutades erinevaid programmeerimisparadigmasid. See nõuab aga aja ja jõupingutusi teekide ja raamistike installimiseks ja konfigureerimiseks, mis pole ideaalne, kuna seda aega saab paremini kulutada mudeli jõudluse optimeerimiseks.

Amazon SageMaker Data Wrangler lihtsustab andmete ettevalmistamise ja funktsioonide kavandamise protsessi, vähendades ML jaoks andmete koondamiseks ja ettevalmistamiseks kuluvat aega nädalatest minutiteni, pakkudes andmeteadlastele ühtset visuaalset liidest, et valida, puhastada ja uurida oma andmekogumeid. Data Wrangler pakub üle 300 sisseehitatud andmete teisenduse, mis aitavad normaliseerida, teisendada ja kombineerida funktsioone ilma koodi kirjutamata. Saate importida andmeid mitmest andmeallikast, nt Amazon Simple Storage Service (Amazon S3), Amazonase Athena, Amazoni punane niheja Lumehelves. Nüüd saate ka kasutada Andmebaasid Data Wrangleri andmeallikana andmete hõlpsaks ettevalmistamiseks ML-i jaoks.

Databricks Lakehouse Platform ühendab andmejärvede ja andmeladude parimad elemendid, et pakkuda andmeladude usaldusväärsust, tugevat juhtimist ja jõudlust koos andmejärvede avatuse, paindlikkuse ja masinõppe toega. Kui Databricks on Data Wrangleri andmeallikas, saate nüüd kiiresti ja hõlpsalt ühenduda Databricksiga, interaktiivselt teha päringuid Databricksis salvestatud andmetest SQL-i abil ja vaadata andmeid enne importimist. Lisaks saate ühendada oma andmed Databricksis Amazon S3-sse salvestatud andmete ja Amazon Athena, Amazon Redshifti ja Snowflake'i kaudu päritavate andmetega, et luua oma ML-i kasutusjuhtumi jaoks õige andmestik.

Selles postituses muudame laenuklubi laenuandmestiku, kasutades Amazon SageMaker Data Wranglerit, et kasutada seda ML-mudeli koolituses.

Lahenduse ülevaade

Järgmine diagramm illustreerib meie lahenduse arhitektuuri.

Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Laenuklubi laenuandmekogum sisaldab täielikke laenuandmeid kõigi aastatel 2007–2011 välja antud laenude kohta, sealhulgas laenu hetkeseisu ja viimast makseteavet. Sellel on 39,717 22 rida, 3 funktsioonide veergu ja XNUMX sihtmärgist.

Andmete Data Wrangleri abil teisendamiseks teeme järgmised kõrgetasemelised sammud.

  1. Laadige alla ja jagage andmestik.
  2. Looge Data Wrangleri voog.
  3. Importige andmed Databricksist Data Wranglerisse.
  4. Importige andmed Amazon S3-st Data Wranglerisse.
  5. Ühendage andmed.
  6. Rakenda teisendusi.
  7. Eksportige andmestik.

Eeldused

Postitus eeldab, et teil on töötav Databricksi klaster. Kui teie klaster töötab AWS-is, kontrollige, kas teil on konfigureeritud järgmine.

Andmeplokkide seadistamine

järgima Turvaline juurdepääs S3 ämbritele eksemplariprofiilide abil nõutava jaoks AWS-i identiteedi- ja juurdepääsuhaldus (IAM) rollid, S3 ämbripoliitika ja Databricksi klastri konfiguratsioon. Veenduge, et Databricksi klaster on konfigureeritud õigega Instance Profile, mis on valitud täpsemate valikute alt, et pääseda juurde soovitud S3 ämbrile.

Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Pärast seda, kui Databricksi klaster on käivitatud ja töötab vajaliku juurdepääsuga Amazon S3-le, saate hankida JDBC URL teie Databricksi klastrist, et seda saaks Data Wrangler sellega ühenduse loomiseks kasutada.

Hankige JDBC URL

JDBC URL-i toomiseks toimige järgmiselt.

  1. Navigeerige Databricksis klastrite kasutajaliidese juurde.
  2. Valige oma klaster.
  3. Kohta konfiguratsioon valige vahekaart Lisavalikud.
  4. alla Lisavalikud, Vali JDBC/ODBC Tab.
  5. Kopeerige JDBC URL.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Asendage kindlasti oma isiklik juurdepääs sümboolne URL-is.

Data Wrangleri seadistamine

See samm eeldab, et teil on juurdepääs Amazon SageMakeri eksemplarile Amazon SageMaker Studioja Studio kasutaja.

Data Wranglerilt Databricksi JDBC ühendusele juurdepääsu võimaldamiseks vajab Studio kasutaja järgmist luba:

  • secretsmanager:PutResourcePolicy

Ülaltoodud loaga Studio kasutajale IAM-i administraatorikasutajana määratud IAM-i täitmisrolli värskendamiseks järgige allolevaid samme.

  1. Valige IAM-konsoolil rollid navigeerimispaanil.
  2. Valige oma Studio kasutajale määratud roll.
  3. Vali Lisa õigused.
  4. Vali Loo tekstisisene poliitika.
  5. Teeninduse jaoks valige Saladuste haldur.
  6. On Meetmete, vali Juurdepääsutase.
  7. Vali Lubade haldamine.
  8. Vali PutResourcePolicy.
  9. eest Vahendid, vali Konkreetne ja valige Kõik sellel kontol.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Laadige alla ja jagage andmestik

Võite alustada andmestiku allalaadimine. Demonstreerimise eesmärgil jagasime andmestiku osadeks, kopeerides funktsioonide veerud id, emp_title, emp_length, home_ownerja annual_inc sekundi loomiseks laenud_2.csv faili. Eemaldame algsest laenufailist eelnimetatud veerud, välja arvatud id veerus ja nimetage algfail ümber laenud_1.csv. Laadige üles laenud_1.csv toimikule Andmebaasid tabeli loomiseks loans_1 ja laenud_2.csv S3 ämbris.

Looge Data Wrangleri voog

Teavet Data Wrangleri eeltingimuste kohta vt Alustage Data Wrangleriga.

Alustame uue andmevoo loomisega.

  1. Studio konsoolil fail menüüst valige Uus.
  2. Vali Data Wrangleri voog.
  3. Nimetage voog vastavalt soovile ümber.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Teise võimalusena saate käivitajast luua uue andmevoo.

  • Valige Studio konsoolil Amazon SageMaker Studio navigeerimispaanil.
  • Vali Uus andmevoog.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Uue voo loomine võib võtta mõne minuti. Pärast voo loomist näete Andmete importimine lehel.

Importige andmed Databricksist Data Wranglerisse

Järgmisena seadistasime Data Wrangleri andmeallikana Databricksi (JDBC). Databricksist andmete importimiseks peame esmalt lisama Databricksi andmeallikana.

  1. Kohta Andmete importimine valige oma Data Wrangleri voo vahekaart Andmeallika lisamine.
  2. Valige rippmenüüst Databricks (JDBC).
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Kohta Andmete importimine Databricksist lehele, sisestate oma klastri üksikasjad.

  1. eest Andmestiku nimi, sisestage nimi, mida soovite voofailis kasutada.
  2. eest juht, valige draiver com.simba.spark.jdbc.Driver.
  3. eest JDBC URL, sisestage varem saadud Databricksi klastri URL.

URL peaks sarnanema järgmise vorminguga jdbc:spark://<serve- hostname>:443/default;transportMode=http;ssl=1;httpPath=<http- path>;AuthMech=3;UID=token;PWD=<personal-access-token>.

  1. Määrake SQL päringuredaktoris järgmine SQL SELECT-lause:
    select * from loans_1

Kui valisite andmete Databricksi üleslaadimisel teise tabeli nime, asendage ülaltoodud SQL-päringus laenud_1 vastavalt.

aasta SQL päring Data Wrangleri jaotises saate teha päringuid mis tahes JDBC Databricksi andmebaasiga ühendatud tabelis. Eelvalitud Luba proovivõtt seade hangib vaikimisi teie andmestiku esimesed 50,000 XNUMX rida. Sõltuvalt andmestiku suurusest tühistatakse valik Luba proovivõtt võib importida pikemat aega.

  1. Vali jooks.

Päringu käitamine annab teie Databricksi andmestiku eelvaate otse rakenduses Data Wrangler.
Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

  1. Vali Import.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Data Wrangler pakub paindlikkust mitme samaaegse ühenduse seadistamiseks ühe Databricksi klastri või vajaduse korral mitme klastriga, võimaldades kombineeritud andmekogumite analüüsi ja ettevalmistamist.

Importige andmed Amazon S3-st Data Wranglerisse

Järgmiseks impordime loan_2.csv fail Amazon S3-st.

  1. Valige vahekaardil Import Amazon S3 andmeallikana.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.
  2. Navigeerige S3 ämbrisse loan_2.csv faili.

Kui valite CSV-faili, saate andmete eelvaateid vaadata.

  1. aasta Detailid paneel, valige Täpsem konfiguratsioon veenduda Luba proovivõtt on valitud ja LÕIGE jaoks on valitud Eraldaja.
  2. Vali Import.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Pärast loans_2.csv andmekogum on edukalt imporditud, kuvab andmevoo liides nii Databricks JDBC kui ka Amazon S3 andmeallikad.

Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Ühendage andmed

Nüüd, kui oleme Databricksist ja Amazon S3-st andmed importinud, ühendame andmekogumid ühise kordumatu identifikaatori veeru abil.

  1. Kohta Andmevoog vahekaart, jaoks Andmetüübid, valige plussmärk loans_1.
  2. Vali Liitu.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.
  3. Vali loans_2.csv fail kui Õigus andmestik.
  4. Vali Seadistamine liitumiskriteeriumide seadistamiseks.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.
  5. eest Nimi, sisestage liitumise nimi.
  6. eest Liitumise tüüp, vali Sisemine selle postituse jaoks.
  7. Vali id veerus, millega liituda.
  8. Vali kehtima ühendatud andmestiku eelvaate kuvamiseks.
  9. Vali lisama et see andmevoogu lisada.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Rakenda teisendusi

Data Wrangler sisaldab üle 300 sisseehitatud teisenduse, mis ei vaja kodeerimist. Kasutame andmestiku ettevalmistamiseks sisseehitatud teisendusi.

Langetage veerg

Esmalt loobume üleliigse ID veerust.

  1. Valige ühendatud sõlmel plussmärk.
  2. Vali Lisa teisendus.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.
  3. alla Muudab, valima + Lisa samm.
  4. Vali Veergude haldamine.
  5. eest Muutma, vali Langetage veerg.
  6. eest Veerud kukutamiseks, valige veerg id_0.
  7. Vali Eelvaade.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.
  8. Vali lisama.

Vorminda string

Rakendame stringi vormingut, et eemaldada protsendisümbol int_rate ja revol_util veerud.

  1. Kohta kuupäev sakk, all Transformeerub, vali + Lisa samm.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.
  2. Vali Vorminda string.
  3. eest Muutma, vali Eemaldage tähemärgid paremalt.

Data Wrangler võimaldab teil rakendada valitud teisendust mitmele veerule korraga.

  1. eest Sisestusveerud, vali int_rate ja revol_util.
  2. eest Eemaldatavad märgid, sisenema %.
  3. Vali Eelvaade.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.
  4. Vali lisama.

Teksti esiletõstmine

Nüüd vektoriseerime verification_status, tekstifunktsiooni veerg. Teisendame tekstiveeru terminisageduse ja dokumendi pöördsageduse (TF-IDF) vektoriteks, rakendades allpool kirjeldatud loendusvektorit ja standardset tokenisaatorit. Data Wrangler pakub soovi korral ka võimalust kaasa võtta oma tokeniseerija.

  1. alla Transformers, vali + Lisa samm.
  2. Vali Teksti esiletõstmine.
  3. eest Muutma, vali Vektoriseerida.
  4. eest Sisestusveerud, vali verification_status.
  5. Vali Eelvaade.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.
  6. Vali lisama.

Eksportige andmestik

Pärast mitmete teisenduste rakendamist eri tüüpi veergudele, sealhulgas teksti-, kategoorilistele ja numbrilistele veergudele, oleme valmis kasutama teisendatud andmestikku ML-mudeli koolituseks. Viimane samm on teisendatud andmestiku eksportimine Amazon S3-sse. Data Wrangleris on teil teisenduste järgnevaks tarbimiseks valida mitme valiku vahel.

Selles postituses kasutame ära Andmete eksportimine valik Muutma vaade teisendatud andmestiku eksportimiseks otse Amazon S3-sse.

  1. Vali Andmete eksportimine.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.
  2. eest S3 asukoht, vali Sirvi ja valige oma S3 ämber.
  3. Vali Andmete eksportimine.
    Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.

Koristage

Kui teie töö Data Wrangleriga on lõpetatud, sulgege oma Data Wrangleri eksemplar et vältida lisatasusid.

Järeldus

Selles postituses käsitlesime seda, kuidas saate Data Wrangleris Databricksi kiiresti ja lihtsalt andmeallikana seadistada ja ühendada, SQL-i abil interaktiivselt Databricksi salvestatud andmete päringuid teha ja enne importimist andmeid eelvaadata. Lisaks uurisime, kuidas saate oma andmed Databricksis ühendada Amazon S3 salvestatud andmetega. Seejärel rakendasime kombineeritud andmekogumis andmete teisendusi, et luua andmete ettevalmistamise konveier. Lisateavet Data Wrangleri analüüsivõimaluste, sealhulgas sihtlekke ja nihkearuande genereerimise kohta leiate järgmisest ajaveebi postitusest Kiirendage andmete ettevalmistamist, kasutades diabeedihaigete tagasivõtmise ennustamiseks rakendust Amazon SageMaker Data Wrangler.

Data Wrangleriga alustamiseks vaadake Valmistage ette ML-andmed rakendusega Amazon SageMaker Data Wranglerja vaadake uusimat teavet Data Wrangleri kohta Toote leht.


Autoritest

Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.Roop Bains on AWS-i lahenduste arhitekt, kes keskendub AI/ML-ile. Ta on kirglik aidata klientidel tehisintellekti ja masinõppe abil uuendusi teha ja oma ärieesmärke saavutada. Vabal ajal meeldib Roopile lugeda ja matkata.

Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.Igor Alekseev on AWS-i andmete ja analüüsi partnerlahenduste arhitekt. Igor teeb koostööd strateegiliste partneritega, aidates neil ehitada keerulisi AWS-i jaoks optimeeritud arhitektuure. Enne AWS-iga liitumist rakendas ta andmete/lahenduste arhitektina paljusid suurandmete projekte, sealhulgas mitut Hadoopi ökosüsteemi andmejärve. Andmeinsenerina oli ta seotud AI/ML rakendamisega pettuste tuvastamisel ja kontori automatiseerimisel. Igori projektid olid seotud erinevates tööstusharudes, sealhulgas side, rahandus, avalik turvalisus, tootmine ja tervishoid. Varem töötas Igor täisinsenerina/tehnilise juhina.

Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.Huong Nguyen on AWS-i vanem tootejuht. Ta juhib SageMaker Studio kasutajakogemust. Tal on 13-aastane kogemus klientidega seotud ja andmepõhiste toodete loomisel nii ettevõtetele kui ka tarbijatele. Vabal ajal meeldib talle lugeda, looduses viibida ja perega aega veeta.

Valmistage Databricksi andmed ette masinõppeks, kasutades Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence'i. Vertikaalne otsing. Ai.Henry Wang on AWS-i tarkvaraarenduse insener. Ta liitus hiljuti Data Wrangleri meeskonnaga pärast UC Davise lõpetamist. Ta tunneb huvi andmeteaduse ja masinõppe vastu ning tegeleb hobi korras 3D-printimisega.

Ajatempel:

Veel alates AWS-i masinõpe