Anthropic می گوید از داده های خصوصی شما برای آموزش هوش مصنوعی خود استفاده نمی کند - رمزگشایی

Anthropic می گوید از داده های خصوصی شما برای آموزش هوش مصنوعی خود استفاده نمی کند - رمزگشایی

Anthropic می گوید از داده های خصوصی شما برای آموزش هوش مصنوعی خود استفاده نمی کند - رمزگشایی اطلاعات PlatoBlockchain Intelligence. جستجوی عمودی Ai.

استارتاپ پیشرو مولد هوش مصنوعی Anthropic اعلام کرده است که از داده های مشتریان خود برای آموزش مدل زبان بزرگ (LLM) خود استفاده نخواهد کرد و برای دفاع از کاربرانی که با ادعای حق چاپ مواجه هستند، وارد عمل خواهد شد.

Anthropic که توسط محققان سابق OpenAI تأسیس شده بود، تبلیغات خود را به روز کرد شرایط استفاده از خدمات تا آرمان ها و مقاصد خود را بیان کند. آنتروپیک با استخراج داده های خصوصی مشتریان خود، کاملاً خود را از رقبایی مانند OpenAI، Amazon و Meta متمایز می کند که از محتوای کاربر برای بهبود سیستم خود استفاده می کنند.

طبق شرایط به‌روزرسانی شده، «آنتروپیک نمی‌تواند مدل‌هایی را درباره محتوای مشتری از خدمات پولی آموزش دهد»، که می‌افزاید: «در حدی که قانون قابل اجرا اجازه می‌دهد، آنتروپیک موافقت می‌کند که مشتری مالک همه خروجی‌ها است، و هر گونه حقوقی را که از آن برخوردار است سلب می‌کند. تحت این شرایط محتوایی را به مشتری دریافت می کند.

این شرایط ادامه می‌دهد که «آنتروپیک به‌عنوان پیش‌بینی نمی‌کند که تحت این شرایط حقوقی در محتوای مشتری به دست آورد» و «به هیچ‌یک از طرفین هیچ حقی نسبت به محتوا یا مالکیت معنوی طرف مقابل، به‌طور ضمنی یا غیر آن، قائل نیست».

سند حقوقی به روز شده ظاهراً حمایت و شفافیتی را برای مشتریان تجاری آنتروپیک فراهم می کند. شرکت ها مالک تمام خروجی های هوش مصنوعی تولید شده هستند، به عنوان مثال، از اختلافات احتمالی IP جلوگیری می کنند. Anthropic همچنین متعهد می شود که از مشتریان در برابر ادعاهای حق نسخه برداری در مورد هرگونه محتوای نقض کننده تولید شده توسط کلود دفاع کند.

سیاست مطابقت دارد ماموریت آنتروپیک بیانیه ای مبنی بر اینکه هوش مصنوعی باید مفید، بی ضرر و صادق باشد. با افزایش بدبینی عمومی نسبت به اخلاقیات هوش مصنوعی مولد، تعهد این شرکت به رسیدگی به نگرانی هایی مانند حفظ حریم خصوصی داده ها می تواند به آن مزیت رقابتی بدهد.

داده های کاربران: غذای حیاتی LLMs

مدل‌های زبان بزرگ (LLM) مانند GPT-4، LlaMa یا Anthropic's Claude، سیستم‌های هوش مصنوعی پیشرفته‌ای هستند که با آموزش داده‌های متنی گسترده، زبان انسانی را درک و تولید می‌کنند. این مدل‌ها از تکنیک‌های یادگیری عمیق و شبکه‌های عصبی برای پیش‌بینی توالی کلمات، درک زمینه و درک ظرافت‌های زبان استفاده می‌کنند. در طول آموزش، آنها به طور مستمر پیش بینی های خود را اصلاح می کنند و توانایی خود را برای مکالمه، نوشتن متن یا ارائه اطلاعات مرتبط افزایش می دهند. اثربخشی LLM به شدت به تنوع و حجم داده‌هایی بستگی دارد که بر روی آن‌ها آموزش دیده‌اند، و با یادگیری از الگوهای زبان، سبک‌ها و اطلاعات جدید، دقیق‌تر و آگاه‌تر از متن هستند.

و به همین دلیل است که داده های کاربران در آموزش LLM بسیار ارزشمند است. اولاً، تضمین می‌کند که مدل‌ها با آخرین روندهای زبانی و ترجیحات کاربر (به عنوان مثال، درک عامیانه جدید) به روز می‌مانند. ثانیا، با تطبیق با تعاملات و سبک های فردی کاربر، امکان شخصی سازی و تعامل بهتر کاربر را فراهم می کند. با این حال، این یک بحث اخلاقی ایجاد می کند زیرا شرکت های هوش مصنوعی برای این اطلاعات مهم که برای آموزش مدل هایی استفاده می شود که میلیون ها دلار به آنها کمک می کند، پولی به کاربران پرداخت نمی کنند.

همانطور که توسط گزارش رمزگشایی کنید، متا اخیرا نشان داده شده است که LlaMA-3 LLM آینده خود را بر اساس داده‌های کاربران آموزش می‌دهد و مدل‌های جدید EMU (که عکس‌ها و ویدیوها را از پیام‌های متنی تولید می‌کنند) نیز با استفاده از داده‌های در دسترس عموم که توسط کاربرانش در رسانه‌های اجتماعی آپلود شده‌اند، آموزش داده شده‌اند.

علاوه بر این، آمازون همچنین فاش کرد که LLM آینده آن، که نسخه ارتقا یافته الکسا را ​​تامین می‌کند، در حال آموزش بر روی مکالمات و تعاملات کاربران است، با این حال، کاربران می‌توانند از داده‌های آموزشی که به‌طور پیش‌فرض فرض می‌شود کاربران موافق هستند، انصراف دهند. برای به اشتراک گذاشتن این اطلاعات. سخنگوی آمازون: «[آمازون] همیشه بر این باور بوده است که آموزش الکسا با درخواست‌های دنیای واقعی برای ارائه تجربه‌ای دقیق و شخصی‌شده به مشتریان و به‌طور مداوم بهتر شدن ضروری است». گفته شده رمزگشایی کنید. اما در کنار هم، ما به مشتریان اجازه می‌دهیم که از ضبط‌های صوتی الکسا آنها برای بهبود خدمات استفاده کنند یا خیر، و همیشه وقتی مدل‌های خود را آموزش می‌دهیم، به اولویت‌های مشتریان خود احترام می‌گذاریم.»

با رقابت غول‌های فناوری برای ارائه پیشرفته‌ترین خدمات هوش مصنوعی، شیوه‌های داده‌های مسئولانه برای جلب اعتماد عمومی کلیدی است. هدف آنتروپیک الگوبرداری در این زمینه است. بحث اخلاقی در مورد دستیابی به مدل‌های قدرتمندتر و راحت‌تر به قیمت تسلیم اطلاعات شخصی، امروزه به همان اندازه رایج است که دهه‌ها پیش زمانی که رسانه‌های اجتماعی مفهوم کاربران را رایج کردند. تبدیل شدن به محصول در ازای خدمات رایگان

ویرایش شده توسط رایان اوزاوا.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

تمبر زمان:

بیشتر از رمزگشایی کنید