Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Ottieni un maggiore controllo dei tuoi carichi di lavoro Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati

I dati stanno trasformando ogni campo e ogni azienda. Tuttavia, con i dati che crescono più velocemente di quanto la maggior parte delle aziende possa tenere traccia, raccogliere dati e ottenere valore da tali dati è una cosa impegnativa da fare. UN moderna strategia dei dati può aiutarti a creare migliori risultati di business con i dati. AWS fornisce il set di servizi più completo per il viaggio dati end-to-end per aiutarvi a sblocca valore dai tuoi dati e trasformarlo in intuizione.

I data scientist possono dedicare fino all'80% del loro tempo alla preparazione dei dati per i progetti di machine learning (ML). Questo processo di preparazione è un lavoro in gran parte indifferenziato e noioso e può coinvolgere più API di programmazione e librerie personalizzate. Gestore di dati di Amazon SageMaker aiuta i data scientist e i data engineer a semplificare e accelerare la preparazione dei dati tabulari e delle serie temporali e l'ingegnerizzazione delle funzionalità attraverso un'interfaccia visiva. È possibile importare dati da più origini dati, ad esempio Servizio di archiviazione semplice Amazon (Amazon S3), Amazzone Atena, Amazon RedShift, o anche soluzioni di terze parti come Fiocco di neve or DataBricked elabora i tuoi dati con oltre 300 trasformazioni di dati integrate e una libreria di frammenti di codice, così puoi normalizzare, trasformare e combinare rapidamente le funzionalità senza scrivere alcun codice. Puoi anche portare le tue trasformazioni personalizzate in PySpark, SQL o Pandas.

Questo post mostra come pianificare l'esecuzione automatica dei processi di preparazione dei dati. Esploriamo anche la nuova funzionalità Data Wrangler di set di dati parametrizzati, che consente di specificare i file da includere in un flusso di dati mediante URI parametrizzati.

Panoramica della soluzione

Data Wrangler ora supporta l'importazione di dati utilizzando un URI parametrizzato. Ciò consente un'ulteriore flessibilità perché ora puoi importare tutti i set di dati corrispondenti ai parametri specificati, che possono essere di tipo String, Number, Datetime e Pattern, nell'URI. Inoltre, ora puoi attivare i processi di trasformazione di Data Wrangler in base a una pianificazione.

In questo post, creiamo un flusso di esempio con il set di dati Titanic per mostrare come puoi iniziare a sperimentare queste due nuove funzionalità di Data Wrangler. Per scaricare il set di dati, fare riferimento a Titanic – Apprendimento automatico dal disastro.

Prerequisiti

Per ottenere tutte le funzionalità descritte in questo post, è necessario eseguire l'ultima versione del kernel di Data Wrangler. Per ulteriori informazioni, fare riferimento a Aggiorna Data Wrangler. Inoltre, devi essere in esecuzione Amazon Sage Maker Studio JupyterLab 3. Per visualizzare la versione corrente e aggiornarla, fare riferimento a Versione JupyterLab.

Struttura del file

Per questa dimostrazione, seguiamo una semplice struttura di file che è necessario replicare per riprodurre i passaggi descritti in questo post.

  1. Nello Studio, creare un nuovo taccuino.
  2. Esegui il seguente frammento di codice per creare la struttura di cartelle che utilizziamo (assicurati di essere nella cartella desiderata nell'albero dei file):
    !mkdir titanic_dataset
    !mkdir titanic_dataset/datetime_data
    !mkdir titanic_dataset/datetime_data/2021
    !mkdir titanic_dataset/datetime_data/2022
    
    !mkdir titanic_dataset/datetime_data/2021/01 titanic_dataset/datetime_data/2021/02 titanic_dataset/datetime_data/2021/03 
    !mkdir titanic_dataset/datetime_data/2021/04 titanic_dataset/datetime_data/2021/05 titanic_dataset/datetime_data/2021/06
    !mkdir titanic_dataset/datetime_data/2022/01 titanic_dataset/datetime_data/2022/02 titanic_dataset/datetime_data/2022/03 
    !mkdir titanic_dataset/datetime_data/2022/04 titanic_dataset/datetime_data/2022/05 titanic_dataset/datetime_data/2022/06
    
    !mkdir titanic_dataset/datetime_data/2021/01/01 titanic_dataset/datetime_data/2021/02/01 titanic_dataset/datetime_data/2021/03/01 
    !mkdir titanic_dataset/datetime_data/2021/04/01 titanic_dataset/datetime_data/2021/05/01 titanic_dataset/datetime_data/2021/06/01
    !mkdir titanic_dataset/datetime_data/2022/01/01 titanic_dataset/datetime_data/2022/02/01 titanic_dataset/datetime_data/2022/03/01 
    !mkdir titanic_dataset/datetime_data/2022/04/01 titanic_dataset/datetime_data/2022/05/01 titanic_dataset/datetime_data/2022/06/01
    
    !mkdir titanic_dataset/train_1 titanic_dataset/train_2 titanic_dataset/train_3 titanic_dataset/train_4 titanic_dataset/train_5
    !mkdir titanic_dataset/train titanic_dataset/test

  3. copiare il train.csv ed test.csv file dal dataset originale del Titanic alle cartelle titanic_dataset/train ed titanic_dataset/test, Rispettivamente.
  4. Eseguire il seguente frammento di codice per popolare le cartelle con i file necessari:
    import os
    import math
    import pandas as pd
    batch_size = 100
    
    #Get a list of all the leaf nodes in the folder structure
    leaf_nodes = []
    
    for root, dirs, files in os.walk('titanic_dataset'):
        if not dirs:
            if root != "titanic_dataset/test" and root != "titanic_dataset/train":
                leaf_nodes.append(root)
                
    titanic_df = pd.read_csv('titanic_dataset/train/train.csv')
    
    #Create the mini batch files
    for i in range(math.ceil(titanic_df.shape[0]/batch_size)):
        batch_df = titanic_df[i*batch_size:(i+1)*batch_size]
        
        #Place a copy of each mini batch in each one of the leaf folders
        for node in leaf_nodes:
            batch_df.to_csv(node+'/part_{}.csv'.format(i), index=False)

Abbiamo diviso il train.csv file del set di dati del Titanic in nove file diversi, denominati part_x, dove x è il numero della parte. La parte 0 contiene i primi 100 record, la parte 1 i successivi 100 e così via fino alla parte 8. Ogni cartella del nodo dell'albero dei file contiene una copia delle nove parti dei dati di addestramento ad eccezione del train ed test cartelle, che contengono train.csv ed test.csv.

Set di dati parametrizzati

Gli utenti di Data Wrangler possono ora specificare i parametri per i set di dati importati da Amazon S3. I parametri del set di dati sono specificati nell'URI delle risorse e il suo valore può essere modificato dinamicamente, consentendo una maggiore flessibilità nella selezione dei file che vogliamo importare. I parametri possono essere di quattro tipi di dati:

  • Numero – Può assumere il valore di qualsiasi numero intero
  • Corda – Può assumere il valore di qualsiasi stringa di testo
  • Cartamodello – Può assumere il valore di qualsiasi espressione regolare
  • Appuntamento – Può assumere il valore di uno qualsiasi dei formati di data/ora supportati

In questa sezione viene fornita una panoramica di questa nuova funzionalità. Questo è disponibile solo dopo aver importato il set di dati nel flusso corrente e solo per i set di dati importati da Amazon S3.

  1. Dal flusso di dati, scegli il segno più (+) accanto al passaggio di importazione e scegli Modifica set di dati.
  2. Il metodo preferito (e più semplice) per creare nuovi parametri è evidenziare una sezione del tuo URI e scegliere Crea parametro personalizzato nel menu a tendina. Devi specificare quattro cose per ogni parametro che vuoi creare:
    1. Nome
    2. Tipologia
    3. Valore di default
    4. Descrizione

    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
    Qui abbiamo creato un parametro di tipo String chiamato filename_param con un valore predefinito di train.csv. Ora puoi vedere il nome del parametro racchiuso tra doppie parentesi, sostituendo la porzione di URI che abbiamo evidenziato in precedenza. Perché il valore definito per questo parametro era train.csv, ora vediamo il file train.csv elencati nella tabella di importazione.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

  3. Quando proviamo a creare un lavoro di trasformazione, sul Configura lavoro passo, ora vediamo a parametri sezione, dove possiamo vedere un elenco di tutti i nostri parametri definiti.
  4. La scelta del parametro ci dà la possibilità di modificare il valore del parametro, in questo caso cambiando il dataset di input da trasformare in base al flusso definito.
    Supponendo di cambiare il valore di filename_param da train.csv a part_0.csv, il lavoro di trasformazione ora richiede part_0.csv (a condizione che un file con il nome part_0.csv esiste nella stessa cartella) dei suoi nuovi dati di input.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
  5. Inoltre, se tenti di esportare il tuo flusso verso una destinazione Amazon S3 (tramite un notebook Jupyter), ora vedrai una nuova cella contenente i parametri che hai definito.
    Si noti che il parametro assume il valore predefinito, ma è possibile modificarlo sostituendo il suo valore nel file parameter_overrides dizionario (lasciando invariate le chiavi del dizionario).
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
    Inoltre, puoi creare nuovi parametri dal file parametri UI.
  6. Aprilo scegliendo l'icona dei parametri ({{}}) situato accanto a Go opzione; entrambi si trovano accanto al valore del percorso URI.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Si apre una tabella con tutti i parametri attualmente esistenti nel file di flusso (filename_param a questo punto).
  7. Puoi creare nuovi parametri per il tuo flusso scegliendo Crea parametro.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
    Si apre una finestra popup che consente di creare un nuovo parametro personalizzato.
  8. Qui, abbiamo creato un nuovo example_parameter as Tipo di numero con un valore predefinito pari a 0. Questo parametro appena creato è ora elencato nel file parametri tavolo. Passando il mouse sopra il parametro vengono visualizzate le opzioni Modifica, Eliminae inserire.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
  9. Dall'interno del parametri UI, puoi inserire uno dei tuoi parametri nell'URI selezionando il parametro desiderato e scegliendo inserire.
    Questo aggiunge il parametro alla fine del tuo URI. Devi spostarlo nella sezione desiderata all'interno del tuo URI.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
  10. Cambia il valore predefinito del parametro, applica la modifica (dal modale), scegli Goe scegliere l'icona di aggiornamento per aggiornare l'elenco di anteprima utilizzando il set di dati selezionato in base al valore del parametro appena definito.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Esaminiamo ora altri tipi di parametri. Supponiamo ora di avere un set di dati suddiviso in più parti, in cui ogni file ha un numero di parte.
  11. Se vogliamo modificare dinamicamente il numero del file, possiamo definire un parametro Number come mostrato nello screenshot seguente.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Si noti che il file selezionato è quello che corrisponde al numero specificato nel parametro.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Dimostriamo ora come utilizzare un parametro Pattern. Supponiamo di voler importare tutti i file part_1.csv file in tutte le cartelle sotto il file titanic-dataset/ cartella. I parametri del modello possono accettare qualsiasi espressione regolare valida; ci sono alcuni pattern regex mostrati come esempi.
  12. Crea un parametro Pattern chiamato any_pattern per abbinare qualsiasi cartella o file sotto il file titanic-dataset/ cartella con valore predefinito .*.Notare che il carattere jolly non è un singolo * (asterisco) ma ha anche un punto.
  13. Evidenzia il titanic-dataset/ parte del percorso e creare un parametro personalizzato. Questa volta scegliamo il Cartamodello tipo.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Questo modello seleziona tutti i file chiamati part-1.csv da una qualsiasi delle cartelle sotto titanic-dataset/.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Un parametro può essere utilizzato più di una volta in un percorso. Nell'esempio seguente, utilizziamo il nostro parametro appena creato any_pattern due volte nel nostro URI in modo che corrisponda a uno qualsiasi dei file di parte in una qualsiasi delle cartelle sottostanti titanic-dataset/.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Infine, creiamo un parametro Datetime. I parametri datetime sono utili quando abbiamo a che fare con percorsi partizionati per data e ora, come quelli generati da Firehose dati Amazon Kinesis (Vedi Partizionamento dinamico in Kinesis Data Firehose). Per questa dimostrazione, utilizziamo i dati nella cartella datetime-data.
  14. Seleziona la parte del tuo percorso che è una data/ora e crea un parametro personalizzato. Scegli il Appuntamento tipo di parametro.
    Quando si sceglie il tipo di dati Datetime, è necessario inserire ulteriori dettagli.
  15. Prima di tutto, devi fornire un formato della data. È possibile scegliere uno qualsiasi dei formati di data/ora predefiniti o crearne uno personalizzato.
    Per i formati data/ora predefiniti, la legenda fornisce un esempio di data corrispondente al formato selezionato. Per questa dimostrazione, scegliamo il formato aaaa/MM/gg.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
  16. Successivamente, specificare un fuso orario per i valori di data/ora.
    Ad esempio, la data corrente potrebbe essere il 1 gennaio 2022 in un fuso orario, ma potrebbe essere il 2 gennaio 2022 in un altro fuso orario.
  17. Infine, puoi selezionare l'intervallo di tempo, che ti consente di selezionare l'intervallo di file che desideri includere nel flusso di dati.
    È possibile specificare l'intervallo di tempo in ore, giorni, settimane, mesi o anni. Per questo esempio, vogliamo ottenere tutti i file dell'ultimo anno.
  18. Fornire una descrizione del parametro e scegliere Creare.
    Se utilizzi più set di dati con fusi orari diversi, l'ora non viene convertita automaticamente; è necessario preelaborare ogni file o sorgente per convertirlo in un fuso orario.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.I file selezionati sono tutti i file nelle cartelle corrispondenti ai dati dell'anno precedente.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
  19. Ora, se creiamo un lavoro di trasformazione dei dati, possiamo vedere un elenco di tutti i nostri parametri definiti e possiamo sovrascrivere i loro valori predefiniti in modo che i nostri lavori di trasformazione raccolgano i file specificati.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Pianificare i processi di elaborazione

Ora puoi pianificare i processi di elaborazione per automatizzare l'esecuzione dei processi di trasformazione dei dati e l'esportazione dei dati trasformati in Amazon S3 o Negozio di funzionalità Amazon SageMaker. Puoi programmare i lavori con l'orario e la periodicità che si adatta alle tue esigenze.

Uso dei processi di elaborazione pianificati Amazon EventBridge norme per pianificare l'esecuzione del lavoro. Pertanto, come prerequisito, devi assicurarti che il file Gestione dell'identità e dell'accesso di AWS (IAM) utilizzato da Data Wrangler, vale a dire il Amazon Sage Maker ruolo di esecuzione dell'istanza di Studio, dispone delle autorizzazioni per creare regole EventBridge.

Configura IAM

Procedi con i seguenti aggiornamenti sul ruolo di esecuzione IAM SageMaker corrispondente all'istanza Studio in cui è in esecuzione il flusso Data Wrangler:

  1. Allegare il AmazonEventBridgeAccesso completo politica gestita.
  2. Allega una policy per concedere l'autorizzazione a creare un processo di elaborazione:
    {
    	"Version": "2012-10-17",
    	"Statement": [
    		{
    			"Effect": "Allow",
    			"Action": "sagemaker:StartPipelineExecution",
    			"Resource": "arn:aws:sagemaker:Region:AWS-account-id:pipeline/data-wrangler-*"
    		}
    	]
    }

  3. Concedi a EventBridge l'autorizzazione ad assumere il ruolo aggiungendo la seguente policy di attendibilità:
    {
    	"Effect": "Allow",
    	"Principal": {
    		"Service": "events.amazonaws.com"
    	},
    	"Action": "sts:AssumeRole"
    }

In alternativa, se utilizzi un ruolo diverso per eseguire il processo di elaborazione, applica a tale ruolo i criteri descritti nei passaggi 2 e 3. Per i dettagli sulla configurazione IAM, fare riferimento a Crea una pianificazione per elaborare automaticamente i nuovi dati.

Crea un programma

Per creare una pianificazione, apri il flusso nell'editor di flusso di Data Wrangler.

  1. Sulla Flusso di dati scheda, scegliere Crea lavoro.
  2. Configura i campi obbligatori e scegli Successivamente, 2. Configura lavoro.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
  3. Espandere Associa orari.
  4. Scegli Crea nuovo programma.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
    I Crea nuovo programma si apre la finestra di dialogo, in cui si definiscono i dettagli della pianificazione del processo di elaborazione.
    La finestra di dialogo offre una grande flessibilità per aiutarti a definire la pianificazione. È possibile, ad esempio, eseguire il processo di elaborazione a un'ora specifica o ogni X ore, in giorni specifici della settimana.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
    La periodicità può essere granulare a livello di minuti.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
  5. Definire il nome del programma e la periodicità, quindi scegliere Creare per salvare la pianificazione.
  6. Hai la possibilità di avviare subito il processo di elaborazione insieme alla pianificazione, che si occupa delle esecuzioni future, o lasciare che il processo venga eseguito solo in base alla pianificazione.
  7. È inoltre possibile definire una pianificazione aggiuntiva per lo stesso processo di elaborazione.
    Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
  8. Per terminare la pianificazione del processo di elaborazione, scegliere Creare.
    Viene visualizzato un messaggio "Lavoro pianificato correttamente". Inoltre, se hai scelto di lasciare che il processo venga eseguito solo in base alla pianificazione, vedrai un collegamento alla regola EventBridge che hai appena creato.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Se scegli il collegamento alla pianificazione, si apre una nuova scheda nel browser che mostra la regola EventBridge. In questa pagina è possibile apportare ulteriori modifiche alla regola e tenere traccia della cronologia delle chiamate. Per interrompere l'esecuzione del processo di elaborazione pianificato, eliminare la regola evento che contiene il nome della pianificazione.

Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

La regola EventBridge mostra una pipeline SageMaker come destinazione, che viene attivata in base alla pianificazione definita e il processo di elaborazione richiamato come parte della pipeline.

Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Per tenere traccia delle esecuzioni della pipeline SageMaker, puoi tornare a Studio, scegliere il file Risorse di SageMaker icona, scegli Condottee scegli il nome della pipeline che desideri monitorare. Ora puoi visualizzare una tabella con tutte le esecuzioni correnti e passate e lo stato di tale pipeline.

Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Puoi vedere maggiori dettagli facendo doppio clic su una voce specifica.

Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

ripulire

Quando non si utilizza Data Wrangler, si consiglia di arrestare l'istanza su cui viene eseguito per evitare di incorrere in costi aggiuntivi.

Per evitare di perdere il lavoro, salva il flusso di dati prima di spegnere Data Wrangler.

  1. Per salvare il flusso di dati in Studio, scegli Compila il , Quindi scegliere Salva il flusso di Wrangler dei dati. Data Wrangler salva automaticamente il flusso di dati ogni 60 secondi.
  2. Per chiudere l'istanza di Data Wrangler, in Studio, scegli Esecuzione di istanze e kernel.
  3. Sotto APP IN ESECUZIONE, scegli l'icona di spegnimento accanto a sagemaker-data-wrangler-1.0 app.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
  4. Scegli Chiudi tutto per confermare.Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Data Wrangler viene eseguito su un'istanza ml.m5.4xlarge. Questa istanza scompare da ISTANZE DI CORSA quando chiudi l'app Data Wrangler.

Dopo aver chiuso l'app Data Wrangler, deve essere riavviata la prossima volta che apri un file di flusso Data Wrangler. Questo può richiedere alcuni minuti.

Conclusione

In questo post, abbiamo dimostrato come puoi utilizzare i parametri per importare i tuoi set di dati utilizzando i flussi di Data Wrangler e creare lavori di trasformazione dei dati su di essi. I set di dati con parametri consentono una maggiore flessibilità sui set di dati utilizzati e consentono di riutilizzare i flussi. Abbiamo anche dimostrato come puoi impostare processi pianificati per automatizzare le trasformazioni e le esportazioni di dati su Amazon S3 o Feature Store, all'ora e con la periodicità adatte alle tue esigenze, direttamente dall'interfaccia utente di Data Wrangler.

Per ulteriori informazioni sull'utilizzo dei flussi di dati con Data Wrangler, fare riferimento a Creare e utilizzare un flusso di Data Wrangler ed Prezzi di Amazon SageMaker. Per iniziare con Data Wrangler, vedere Prepara i dati ML con Amazon SageMaker Data Wrangler.


Circa gli autori

Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Davide Laredo è un architetto di prototipazione per il team di prototipazione e ingegneria del cloud presso Amazon Web Services, dove ha contribuito a sviluppare più prototipi di machine learning per i clienti AWS. Ha lavorato nel machine learning negli ultimi 6 anni, addestrando e perfezionando i modelli ML e implementando pipeline end-to-end per produrre tali modelli. Le sue aree di interesse sono la PNL, le applicazioni ML e il ML end-to-end.

Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Givanildo Alves è un architetto di prototipazione con il team di prototipazione e ingegneria del cloud presso Amazon Web Services, aiutando i clienti a innovare e accelerare mostrando l'arte del possibile su AWS, avendo già implementato diversi prototipi sull'intelligenza artificiale. Ha una lunga carriera nell'ingegneria del software e in precedenza ha lavorato come Software Development Engineer presso Amazon.com.br.

Ottieni maggiore controllo sui carichi di lavoro di Amazon SageMaker Data Wrangler con set di dati parametrizzati e processi pianificati PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Adriano Fuentes è un Program Manager con il team di Prototyping e Cloud Engineering presso Amazon Web Services, innovando per i clienti in machine learning, IoT e blockchain. Ha oltre 15 anni di esperienza nella gestione e implementazione di progetti e 1 anno di permanenza in AWS.

Timestamp:

Di più da Apprendimento automatico di AWS