Anthropic Mengatakan Tidak Akan Menggunakan Data Pribadi Anda untuk Melatih AI-nya - Dekripsi

Anthropic Mengatakan Tidak Akan Menggunakan Data Pribadi Anda untuk Melatih AI-nya – Dekripsi

Anthropic Mengatakan Tidak Akan Menggunakan Data Pribadi Anda untuk Melatih AI-nya - Dekripsi Kecerdasan Data PlatoBlockchain. Pencarian Vertikal. Ai.

Startup AI generatif terkemuka, Anthropic, telah menyatakan bahwa mereka tidak akan menggunakan data kliennya untuk melatih Model Bahasa Besar (LLM), dan akan mengambil tindakan untuk membela pengguna yang menghadapi klaim hak cipta.

Anthropic, yang didirikan oleh mantan peneliti OpenAI, memperbarui iklannya Ketentuan Layanan untuk menguraikan cita-cita dan niatnya. Dengan menggali data pribadi pelanggannya sendiri, Anthropic secara tegas membedakan dirinya dari pesaingnya seperti OpenAI, Amazon, dan Meta, yang memanfaatkan konten pengguna untuk meningkatkan sistem mereka.

“Anthropic tidak boleh melatih model konten pelanggan dari layanan berbayar,” sesuai dengan ketentuan yang diperbarui, yang menambahkan bahwa “di antara para pihak dan sejauh diizinkan oleh hukum yang berlaku, anthropic setuju bahwa pelanggan memiliki semua keluaran, dan melepaskan hak apa pun yang dihasilkannya. menerima konten pelanggan berdasarkan persyaratan ini.”

Ketentuan tersebut selanjutnya menyatakan bahwa “Anthropic tidak mengantisipasi perolehan hak apa pun atas konten pelanggan berdasarkan ketentuan ini” dan bahwa mereka “tidak memberikan hak apa pun kepada salah satu pihak atas konten atau kekayaan intelektual pihak lain, secara tersirat atau sebaliknya.”

Dokumen hukum yang diperbarui seolah-olah memberikan perlindungan dan transparansi bagi klien komersial Anthropic. Perusahaan memiliki semua keluaran AI yang dihasilkan, misalnya, untuk menghindari potensi perselisihan kekayaan intelektual. Anthropic juga berkomitmen untuk membela klien dari klaim hak cipta atas konten melanggar apa pun yang diproduksi oleh Claude.

Kebijakan tersebut selaras dengan Misi Antropis pernyataan bahwa AI harus bermanfaat, tidak berbahaya, dan jujur. Ketika skeptisisme publik semakin meningkat terhadap etika AI generatif, komitmen perusahaan untuk mengatasi permasalahan seperti privasi data dapat memberikan keunggulan kompetitif.

Data Pengguna: Makanan Vital LLM

Model Bahasa Besar (LLM) seperti GPT-4, LlaMa, atau Claude Anthropic adalah sistem AI canggih yang memahami dan menghasilkan bahasa manusia dengan dilatih pada data teks ekstensif. Model ini memanfaatkan teknik pembelajaran mendalam dan jaringan saraf untuk memprediksi urutan kata, memahami konteks, dan memahami seluk-beluk bahasa. Selama pelatihan, mereka terus menyempurnakan prediksi mereka, meningkatkan kemampuan mereka untuk berkomunikasi, menulis teks, atau memberikan informasi yang relevan. Efektivitas LLM sangat bergantung pada keragaman dan volume data yang dilatih, menjadikannya lebih akurat dan sadar konteks saat mereka belajar dari berbagai pola bahasa, gaya, dan informasi baru.

Dan inilah mengapa data pengguna sangat berharga dalam pelatihan LLM. Pertama, hal ini memastikan bahwa model selalu mengikuti tren linguistik terkini dan preferensi pengguna (misalnya, memahami bahasa gaul baru). Kedua, ini memungkinkan personalisasi dan keterlibatan pengguna yang lebih baik dengan beradaptasi dengan interaksi dan gaya pengguna individu. Namun, hal ini menimbulkan perdebatan etis karena perusahaan AI tidak membayar pengguna untuk informasi penting yang digunakan untuk melatih model yang menghasilkan jutaan dolar bagi mereka.

Seperti dilansir Dekripsi, Setengah baru-baru ini mengungkapkan bahwa mereka sedang melatih LlaMA-3 LLM yang akan datang berdasarkan data pengguna dan model EMU barunya (yang menghasilkan foto dan video dari perintah teks) juga dilatih menggunakan data yang tersedia untuk umum yang diunggah oleh penggunanya di media sosial.

Selain itu, Amazon juga mengungkapkan bahwa LLM mendatang, yang akan mendukung versi Alexa yang ditingkatkan, juga sedang dilatih mengenai percakapan dan interaksi pengguna. Namun, pengguna dapat memilih untuk tidak ikut serta dalam data pelatihan yang secara default diatur dengan asumsi pengguna setuju. untuk membagikan informasi ini. “[Amazon] selalu percaya bahwa melatih Alexa dengan permintaan dunia nyata sangat penting untuk memberikan pengalaman yang akurat dan personal kepada pelanggan serta terus menjadi lebih baik,” juru bicara Amazon mengatakan Dekripsi. “Namun secara bersamaan, kami memberi pelanggan kendali atas apakah rekaman suara Alexa mereka digunakan untuk meningkatkan layanan, dan kami selalu menghormati preferensi pelanggan saat kami melatih model kami.”

Ketika raksasa teknologi berlomba untuk merilis layanan AI tercanggih, praktik data yang bertanggung jawab adalah kunci untuk mendapatkan kepercayaan publik. Anthropic bertujuan untuk memimpin dengan memberi contoh dalam hal ini. Perdebatan etis mengenai cara mendapatkan model yang lebih kuat dan nyaman dengan mengorbankan penyerahan informasi pribadi sama lazimnya saat ini dibandingkan beberapa dekade yang lalu ketika media sosial mempopulerkan konsep pengguna. menjadi produk sebagai imbalan atas layanan gratis.

Diedit oleh Ryan Ozawa.

Tetap di atas berita crypto, dapatkan pembaruan harian di kotak masuk Anda.

Stempel Waktu:

Lebih dari Dekripsi