Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler

Tim ilmu data dan teknik data menghabiskan sebagian besar waktu mereka dalam fase persiapan data dari siklus hidup machine learning (ML) melakukan langkah-langkah pemilihan, pembersihan, dan transformasi data. Ini adalah langkah penting dan penting dari setiap alur kerja ML untuk menghasilkan wawasan dan prediksi yang berarti, karena data yang buruk atau berkualitas rendah sangat mengurangi relevansi wawasan yang diperoleh.

Tim rekayasa data secara tradisional bertanggung jawab atas penyerapan, konsolidasi, dan transformasi data mentah untuk konsumsi hilir. Ilmuwan data sering kali perlu melakukan pemrosesan tambahan pada data untuk kasus penggunaan ML khusus domain seperti bahasa alami dan deret waktu. Misalnya, algoritme ML tertentu mungkin sensitif terhadap nilai yang hilang, fitur sparse, atau outlier dan memerlukan pertimbangan khusus. Bahkan dalam kasus di mana kumpulan data dalam kondisi yang baik, ilmuwan data mungkin ingin mengubah distribusi fitur atau membuat fitur baru untuk memaksimalkan wawasan yang diperoleh dari model. Untuk mencapai tujuan ini, ilmuwan data harus mengandalkan tim rekayasa data untuk mengakomodasi perubahan yang diminta, yang mengakibatkan ketergantungan dan penundaan dalam proses pengembangan model. Sebagai alternatif, tim ilmu data dapat memilih untuk melakukan persiapan data dan rekayasa fitur secara internal menggunakan berbagai paradigma pemrograman. Namun, ini memerlukan investasi waktu dan upaya dalam pemasangan dan konfigurasi perpustakaan dan kerangka kerja, yang tidak ideal karena waktu itu dapat dihabiskan dengan lebih baik untuk mengoptimalkan kinerja model.

Pengatur Data Amazon SageMaker menyederhanakan persiapan data dan proses rekayasa fitur, mengurangi waktu yang diperlukan untuk mengumpulkan dan menyiapkan data untuk ML dari minggu ke menit dengan menyediakan antarmuka visual tunggal bagi ilmuwan data untuk memilih, membersihkan, dan menjelajahi kumpulan data mereka. Data Wrangler menawarkan lebih dari 300 transformasi data bawaan untuk membantu menormalkan, mengubah, dan menggabungkan fitur tanpa menulis kode apa pun. Anda dapat mengimpor data dari beberapa sumber data, seperti Layanan Penyimpanan Sederhana Amazon (Amazon S3), Amazon Athena, Pergeseran Merah Amazon, dan Kepingan salju. Anda sekarang juga dapat menggunakan batu bata data sebagai sumber data di Data Wrangler untuk menyiapkan data untuk ML dengan mudah.

Databricks Lakehouse Platform menggabungkan elemen terbaik dari data lake dan data warehouse untuk menghadirkan keandalan, tata kelola yang kuat, dan kinerja data warehouse dengan keterbukaan, fleksibilitas, dan dukungan pembelajaran mesin dari data lake. Dengan Databricks sebagai sumber data untuk Pengatur Data, kini Anda dapat dengan cepat dan mudah terhubung ke Databricks, secara interaktif melakukan kueri data yang disimpan di Databricks menggunakan SQL, dan melihat pratinjau data sebelum mengimpor. Selain itu, Anda dapat menggabungkan data Anda di Databricks dengan data yang disimpan di Amazon S3, dan data yang dikueri melalui Amazon Athena, Amazon Redshift, dan Snowflake untuk membuat kumpulan data yang tepat untuk kasus penggunaan ML Anda.

Dalam posting ini, kami mengubah dataset Lending Club Loan menggunakan Amazon SageMaker Data Wrangler untuk digunakan dalam pelatihan model ML.

Ikhtisar solusi

Diagram berikut menggambarkan arsitektur solusi kami.

Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Dataset Lending Club Loan berisi data pinjaman lengkap untuk semua pinjaman yang diterbitkan hingga 2007โ€“2011, termasuk status pinjaman saat ini dan informasi pembayaran terbaru. Ini memiliki 39,717 baris, 22 kolom fitur, dan 3 label target.

Untuk mengubah data kami menggunakan Data Wrangler, kami menyelesaikan langkah-langkah tingkat tinggi berikut:

  1. Unduh dan pisahkan kumpulan data.
  2. Buat aliran Data Wrangler.
  3. Impor data dari Databricks ke Data Wrangler.
  4. Impor data dari Amazon S3 ke Data Wrangler.
  5. Bergabunglah dengan datanya.
  6. Terapkan transformasi.
  7. Ekspor kumpulan data.

Prasyarat

Posting ini mengasumsikan Anda memiliki cluster Databricks yang sedang berjalan. Jika klaster Anda berjalan di AWS, pastikan Anda telah mengonfigurasi yang berikut ini:

Pengaturan Databricks

  • An profil contoh dengan izin yang diperlukan untuk mengakses bucket S3
  • A kebijakan ember dengan izin yang diperlukan untuk bucket S3 target

Mengikuti Akses aman ke bucket S3 menggunakan profil instan untuk yang dibutuhkan Identitas AWS dan Manajemen Akses (IAM), kebijakan bucket S3, dan konfigurasi cluster Databricks. Pastikan cluster Databricks dikonfigurasi dengan yang benar Instance Profile, dipilih di bawah opsi lanjutan, untuk mengakses bucket S3 yang diinginkan.

Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Setelah klaster Databricks aktif dan berjalan dengan akses yang diperlukan ke Amazon S3, Anda dapat mengambil JDBC URL dari klaster Databricks Anda untuk digunakan oleh Data Wrangler untuk menyambungkannya.

Ambil URL JDBC

Untuk mengambil URL JDBC, selesaikan langkah-langkah berikut:

  1. Di Databricks, navigasikan ke UI cluster.
  2. Pilih cluster Anda.
  3. pada konfigurasi tab, pilih Advanced options.
  4. Bawah Advanced options, memilih JDBC/ODBC Tab.
  5. Salin URL JDBC.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Pastikan untuk mengganti akses pribadi Anda token di URL-nya.

Pengaturan Data Wrangler

Langkah ini mengasumsikan Anda memiliki akses ke Amazon SageMaker, sebuah instance dari Studio Amazon SageMaker, dan pengguna Studio.

Untuk mengizinkan akses ke koneksi Databricks JDBC dari Data Wrangler, pengguna Studio memerlukan izin berikut:

  • secretsmanager:PutResourcePolicy

Ikuti langkah-langkah di bawah ini untuk memperbarui peran eksekusi IAM yang ditetapkan ke pengguna Studio dengan izin di atas, sebagai pengguna administratif IAM.

  1. Di konsol IAM, pilih Peran di panel navigasi.
  2. Pilih peran yang ditetapkan untuk pengguna Studio Anda.
  3. Pilih Tambahkan izin.
  4. Pilih Buat kebijakan sebaris.
  5. Untuk Layanan, pilih Manajer Rahasia.
  6. On tindakan, pilih Tingkat akses.
  7. Pilih Manajemen izin.
  8. Pilih MasukkanResourcePolicy.
  9. Untuk Sumber, pilih Spesifik dan pilih Apa saja di akun ini.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Unduh dan pisahkan kumpulan data

Anda bisa mulai dengan mengunduh kumpulan data. Untuk tujuan demonstrasi, kami membagi dataset dengan menyalin kolom fitur id, emp_title, emp_length, home_owner, dan annual_inc untuk membuat detik pinjaman_2.csv mengajukan. Kami menghapus kolom yang disebutkan di atas dari file pinjaman asli kecuali id kolom dan ganti nama file asli menjadi pinjaman_1.csv. Unggah pinjaman_1.csv file untuk batu bata data untuk membuat tabel loans_1 dan pinjaman_2.csv dalam ember S3.

Buat aliran Data Wrangler

Untuk informasi tentang prasyarat Data Wrangler, lihat Memulai dengan Data Wrangler.

Mari kita mulai dengan membuat aliran data baru.

  1. Di konsol Studio, di File menu, pilih New.
  2. Pilih Aliran data Wrangler.
  3. Ubah nama aliran sesuai keinginan.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Atau, Anda dapat membuat aliran data baru dari Peluncur.

  • Di konsol Studio, pilih Studio Amazon SageMaker di panel navigasi.
  • Pilih Aliran data baru.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Pembuatan alur baru dapat memakan waktu beberapa menit untuk diselesaikan. Setelah alur dibuat, Anda melihat Impor data .

Impor data dari Databricks ke Data Wrangler

Selanjutnya, kami menyiapkan Databricks (JDBC) sebagai sumber data di Data Wrangler. Untuk mengimpor data dari Databricks, pertama-tama kita perlu menambahkan Databricks sebagai sumber data.

  1. pada Impor data tab aliran Data Wrangler Anda, pilih Tambahkan sumber data.
  2. Di menu drop-down, pilih Databrick (JDBC).
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

pada Impor data dari Databricks halaman, Anda memasukkan detail cluster Anda.

  1. Untuk Nama kumpulan data, masukkan nama yang ingin Anda gunakan dalam file aliran.
  2. Untuk sopir, pilih drivernya com.simba.spark.jdbc.Driver.
  3. Untuk URL JDBC, masukkan URL cluster Databricks Anda yang diperoleh sebelumnya.

URL harus menyerupai format berikut jdbc:spark://<serve- hostname>:443/default;transportMode=http;ssl=1;httpPath=<http- path>;AuthMech=3;UID=token;PWD=<personal-access-token>.

  1. Di editor kueri SQL, tentukan pernyataan SQL SELECT berikut ini:
    select * from loans_1

Jika Anda memilih nama tabel yang berbeda saat mengunggah data ke Databricks, ganti loan_1 di kueri SQL di atas.

Dalam majalah Permintaan SQL Di bagian Data Wrangler, Anda dapat membuat kueri tabel apa pun yang terhubung ke database JDBC Databricks. Yang telah dipilih sebelumnya Aktifkan pengambilan sampel pengaturan mengambil 50,000 baris pertama dari kumpulan data Anda secara default. Bergantung pada ukuran kumpulan data, batalkan pilihan Aktifkan pengambilan sampel dapat mengakibatkan waktu impor lebih lama.

  1. Pilih Run.

Menjalankan kueri memberikan pratinjau kumpulan data Databricks Anda secara langsung di Data Wrangler.
Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

  1. Pilih impor.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Data Wrangler memberikan fleksibilitas untuk mengatur beberapa koneksi bersamaan ke satu cluster Databricks atau beberapa cluster jika diperlukan, memungkinkan analisis dan persiapan pada kumpulan data gabungan.

Impor data dari Amazon S3 ke Data Wrangler

Selanjutnya, mari impor loan_2.csv berkas dari Amazon S3.

  1. Pada tab Impor, pilih Amazon S3 sebagai sumber datanya.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.
  2. Navigasikan ke ember S3 untuk loan_2.csv file.

Saat Anda memilih file CSV, Anda dapat melihat pratinjau data.

  1. Dalam majalah Rincian panel, pilih Konfigurasi lanjutan untuk memastikan Aktifkan pengambilan sampel dipilih dan GUGUS KALIMAT dipilih untuk Pembatas.
  2. Pilih impor.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Setelah loans_2.csv set data berhasil diimpor, antarmuka aliran data menampilkan sumber data Databricks JDBC dan Amazon S3.

Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Bergabunglah dengan data

Sekarang setelah kita mengimpor data dari Databricks dan Amazon S3, mari gabungkan kumpulan data menggunakan kolom pengenal unik umum.

  1. pada Aliran data tab, untuk Tipe data, pilih tanda plus untuk loans_1.
  2. Pilih Ikuti seminar.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.
  3. Pilih loans_2.csv file sebagai Kanan Himpunan data.
  4. Pilih Konfigurasi untuk mengatur kriteria bergabung.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.
  5. Untuk Nama, masukkan nama untuk bergabung.
  6. Untuk Gabung tipe, pilih Batin untuk posting ini.
  7. Pilih id kolom untuk bergabung.
  8. Pilih Mendaftar untuk melihat pratinjau kumpulan data yang digabungkan.
  9. Pilih Add untuk menambahkannya ke aliran data.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Terapkan transformasi

Data Wrangler hadir dengan lebih dari 300 transformasi bawaan, yang tidak memerlukan pengkodean. Mari gunakan transformasi bawaan untuk menyiapkan kumpulan data.

Jatuhkan kolom

Pertama kita jatuhkan kolom ID yang berlebihan.

  1. Pada node yang bergabung, pilih tanda plus.
  2. Pilih Tambahkan transformasi.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.
  3. Bawah mengubah, pilih + Tambahkan langkah.
  4. Pilih Kelola kolom.
  5. Untuk Mengubah, pilih Jatuhkan kolom.
  6. Untuk Kolom untuk dijatuhkan, pilih kolom id_0.
  7. Pilih Preview.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.
  8. Pilih Add.

Memformat string

Mari kita terapkan pemformatan string untuk menghapus simbol persentase dari int_rate dan revol_util kolom.

  1. pada Data tab, di bawah Transformasi, pilih + Tambahkan langkah.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.
  2. Pilih Memformat string.
  3. Untuk Mengubah, pilih Strip karakter dari kanan.

Data Wrangler memungkinkan Anda untuk menerapkan transformasi yang Anda pilih pada beberapa kolom secara bersamaan.

  1. Untuk Kolom masukan, pilih int_rate dan revol_util.
  2. Untuk Karakter untuk dihapus, Masuk %.
  3. Pilih Preview.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.
  4. Pilih Add.

Menampilkan teks

Sekarang mari kita membuat vektor verification_status, kolom fitur teks. Kami mengubah kolom teks menjadi vektor term frequency-inverse document frequency (TF-IDF) dengan menerapkan count vectorizer dan tokenizer standar seperti yang dijelaskan di bawah ini. Data Wrangler juga menyediakan opsi untuk membawa tokenizer Anda sendiri, jika diinginkan.

  1. Bawah transformer, pilih + Tambahkan langkah.
  2. Pilih Menampilkan teks.
  3. Untuk Mengubah, pilih Vektorisasi.
  4. Untuk Kolom masukan, pilih verification_status.
  5. Pilih Preview.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.
  6. Pilih Add.

Ekspor kumpulan data

Setelah kami menerapkan beberapa transformasi pada jenis kolom yang berbeda, termasuk teks, kategorikal, dan numerik, kami siap menggunakan kumpulan data yang diubah untuk pelatihan model ML. Langkah terakhir adalah mengekspor kumpulan data yang diubah ke Amazon S3. Di Data Wrangler, Anda memiliki beberapa opsi untuk dipilih untuk konsumsi hilir transformasi:

Dalam posting ini, kami memanfaatkan Ekspor data pilihan dalam Mengubah view untuk mengekspor kumpulan data yang diubah langsung ke Amazon S3.

  1. Pilih Ekspor data.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.
  2. Untuk Lokasi S3, pilih Browse dan pilih ember S3 Anda.
  3. Pilih Ekspor data.
    Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.

Membersihkan

Jika pekerjaan Anda dengan Data Wrangler selesai, matikan instance Data Wrangler Anda untuk menghindari biaya tambahan.

Kesimpulan

Dalam posting ini, kami membahas bagaimana Anda dapat dengan cepat dan mudah menyiapkan dan menghubungkan Databricks sebagai sumber data di Data Wrangler, secara interaktif meminta data yang disimpan di Databricks menggunakan SQL, dan melihat pratinjau data sebelum mengimpor. Selain itu, kami melihat bagaimana Anda dapat menggabungkan data Anda di Databricks dengan data yang disimpan di Amazon S3. Kami kemudian menerapkan transformasi data pada kumpulan data gabungan untuk membuat jalur persiapan data. Untuk mengeksplorasi lebih banyak kemampuan analisis Data Wrangler, termasuk kebocoran target dan pembuatan laporan bias, lihat posting blog berikut Percepat persiapan data menggunakan Amazon SageMaker Data Wrangler untuk prediksi penerimaan kembali pasien diabetes.

Untuk memulai dengan Data Wrangler, lihat Siapkan Data ML dengan Amazon SageMaker Data Wrangler, dan lihat informasi terbaru tentang Data Wrangler halaman produk.


Tentang Penulis

Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.Roop Bain adalah Arsitek Solusi di AWS yang berfokus pada AI/ML. Dia bersemangat membantu pelanggan berinovasi dan mencapai tujuan bisnis mereka menggunakan Kecerdasan Buatan dan Pembelajaran Mesin. Di waktu luangnya, Roop senang membaca dan mendaki.

Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.Igor Alekseev adalah Partner Solution Architect di AWS dalam bidang Data dan Analytics. Igor bekerja dengan mitra strategis membantu mereka membangun arsitektur kompleks yang dioptimalkan AWS. Sebelum bergabung dengan AWS, sebagai Arsitek Data/Solusi, ia mengimplementasikan banyak proyek di Big Data, termasuk beberapa data lake di ekosistem Hadoop. Sebagai Data Engineer, ia terlibat dalam penerapan AI/ML untuk deteksi penipuan dan otomatisasi kantor. Proyek Igor berada di berbagai industri termasuk komunikasi, keuangan, keselamatan publik, manufaktur, dan perawatan kesehatan. Sebelumnya, Igor bekerja sebagai full stack engineer/tech lead.

Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.Huong Nguyen adalah Manajer Produk Senior di AWS. Dia memimpin pengalaman pengguna untuk SageMaker Studio. Dia memiliki pengalaman 13 tahun menciptakan produk yang terobsesi dengan pelanggan dan berdasarkan data untuk ruang perusahaan dan konsumen. Di waktu luangnya, dia suka membaca, berada di alam terbuka, dan menghabiskan waktu bersama keluarganya.

Siapkan data dari Databricks untuk pembelajaran mesin menggunakan Amazon SageMaker Data Wrangler PlatoBlockchain Data Intelligence. Pencarian Vertikal. ai.Henry Wang adalah seorang insinyur pengembangan perangkat lunak di AWS. Dia baru saja bergabung dengan tim Data Wrangler setelah lulus dari UC Davis. Dia memiliki minat dalam ilmu data dan pembelajaran mesin dan melakukan pencetakan 3D sebagai hobi.

Stempel Waktu:

Lebih dari Pembelajaran Mesin AWS