متا در حال ساخت ابزارهایی برای شناسایی، شناسایی و برچسب گذاری تصاویر تولید شده توسط هوش مصنوعی است که از طریق پلتفرم های رسانه های اجتماعی خود به اشتراک گذاشته شده اند. همچنین در حال آزمایش مدل های زبان بزرگ برای تعدیل خودکار محتوای آنلاین است.
روز سهشنبه، نیک کلگ، رئیس امور جهانی متا (و معاون سابق نخستوزیر بریتانیا) اعلام کرد که قصد دارد مطالبی را در فیسبوک، اینستاگرام و Threads منتشر کند که نه تنها توسط مدلهای هوش مصنوعی متن به تصویر خود غول آمریکایی، بلکه چیزهای ساختهشده نیز ایجاد شده است. توسط برنامه های یادگیری ماشینی بیرونی این ایده این است که به کاربران اینترنت هشدار دهیم که ممکن است چیزهای آنلاین آنطور که به نظر می رسد نباشند، و ممکن است با استفاده از ابزارهای هوش مصنوعی برای سرزنش کردن افراد، صرف نظر از منبع آن، اختراع شده باشد.
کلگ گفت: مهندسان متا در حال حاضر در حال توسعه ابزارهایی برای برچسب گذاری محتوای واقعی با هوش مصنوعی با عنوان "تصور با هوش مصنوعی" در برنامه های آن هستند و در ماه های آینده این برچسب را در صورت لزوم نشان خواهند داد.
به ما گفته شده است که تصاویر واقع گرایانه ایجاد شده توسط دستیار هوش مصنوعی متا در حال حاضر به طور خودکار با استفاده از نشانگرهای قابل مشاهده و نامرئی برچسب گذاری می شوند. این چیزهای باکیفیت ساخته شده توسط هوش مصنوعی است که از بیرون ارائه شده است و همچنین باید به طریقی شناسایی شود و در امپراتوری برنامه های غول فیس بوک به عنوان چنین علامت گذاری شود.
در کوتاهمدت، فیسبوک قصد دارد به واترمارکهایی در فایلهای ارسالشده تکیه کند که منبع محتوا را اعلام میکند – که متکی به تولیدکنندههای محتوای هوش مصنوعی خارجی از جمله آن علامتگذاریها یا ابردادهها، بدون حذف آنها – و همچنین از مردم میخواهد که صادقانه مطالب را به عنوان اعلام کنند. هوش مصنوعی هنگام اشتراک گذاری رسانه ایجاد می شود.
در درازمدت، Meta قصد دارد از طبقهبندیکنندههایی استفاده کند که بهطور خودکار تشخیص دهند که آیا مواد توسط یک شبکه عصبی ساخته شده است یا خیر، بنابراین از این اتکا به برچسبها و ژنراتورهای ارسال شده توسط کاربر از جمله نشانههای پشتیبانی شده اجتناب میکند. این نیاز برای کاربران به "تکذیب زمانی که از رسانه های جعلی استفاده می کنند - در صورتی که حتی از جعلی بودن آن مطلع باشند - و همچنین تکیه بر برنامه های خارجی برای برچسب گذاری صحیح موارد به عنوان ساخت رایانه بدون اینکه توسط افراد از بین برود، وجود دارد. می گویند در مهندسی نرم افزار، شکننده است. آن دستهبندیکنندههای خودکار، اگر به خوبی کار کنند، بیشترین نیاز را دارند.
حداقل در حال حاضر، افرادی که صوت و ویدیو را آپلود میکنند، قطعاً باید اعلام کنند که آیا این مطالب جعلی است یا واقعی، همانطور که متا میگوید هنوز راه ثابتی برای شناسایی فیلمها و صداهای ساختهشده توسط هوش مصنوعی وجود ندارد. و تصاویر یا به طور خودکار توسط هوش مصنوعی متا علامت گذاری می شوند، شامل واترمارک هایی هستند که منبع واقعی را نشان می دهند، یا احتمالاً می توانند به صورت دستی توسط افراد علامت گذاری شوند. و بعداً همه اینها ممکن است خودکار شوند.
کلگ: «ما از افراد میخواهیم از این ابزار افشا و برچسبگذاری زمانی که محتوای ارگانیک را با ویدیوی واقعی عکس یا صدایی با صدای واقعی که بهصورت دیجیتالی ایجاد یا تغییر کرده است، پست میکنند، استفاده کنند، و در صورت عدم انجام این کار، ممکن است جریمههایی اعمال کنیم.» گفت.
در مورد پشتیبانی های متا واترمارکینگ، که شامل مواردی است که توسط Coalition for Content Provenance and Authenticity (C2PA) و شورای بین المللی ارتباطات مطبوعاتی (IPTC). اینها ابتکارات صنعتی هستند که توسط گروههای فناوری و رسانهای حمایت میشوند که تلاش میکنند شناسایی محتوای تولید شده توسط ماشین را آسانتر کنند. آنها بیخطا نیستند و همانطور که قبلاً گزارش دادهایم میتوان آنها را شکست داد.
آخرین راهبردهای متا برای مقابله با محتوای هوش مصنوعی درست پس از آن ارائه شد که هیئت نظارت آن، هیئتی متشکل از کارشناسان مستقل که سیاستهای تعدیل محتوای آن را بررسی میکنند، شکایت کردند که قوانین فعلی در مورد رسانههای دستکاری شده «نامنسجم» هستند. هیئت راه اندازی کرد کاوشگر سال گذشته در مورد اینکه چرا متا تصمیم گرفت اجازه دهد یک ویدیوی جعلی از پرزیدنت بایدن که به صورت دیجیتالی تغییر داده شده بود و ادعا میکرد او یک پدوفیل است، در امپراتوری شبکه اجتماعی خود باقی بماند.
علاوه بر ابزارهای پشتیبانی شده از C2PA و IPTC، متا در حال آزمایش توانایی مدل های زبان بزرگ برای تعیین خودکار اینکه آیا یک پست خط مشی های آن را نقض می کند یا خیر.
تجارت رسانههای اجتماعی این سیستمها را بر اساس دادههای خود آموزش میدهد و معتقد است که نرمافزار میتواند محتوایی را که باید توسط بازبینهای انسانی ارزیابی شود، کاهش دهد و به آنها اجازه دهد روی موارد پیچیدهتر تمرکز کنند.
کلگ گفت: «از آنجایی که تفاوت بین محتوای انسانی و مصنوعی محو میشود، مردم میخواهند بدانند که مرز کجاست.
"مردم اغلب برای اولین بار با محتوای تولید شده توسط هوش مصنوعی روبرو می شوند و کاربران ما به ما گفته اند که از شفافیت پیرامون این فناوری جدید قدردانی می کنند. ما این رویکرد را تا سال آینده، که طی آن تعدادی از انتخابات مهم در سراسر جهان برگزار میشود، در پیش میگیریم.» ®
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://go.theregister.com/feed/www.theregister.com/2024/02/06/meta_ai_label/
- :است
- :نه
- :جایی که
- $UP
- 7
- a
- توانایی
- در میان
- اضافه
- امور
- پس از
- AI
- دستیار هوش مصنوعی
- مدل های هوش مصنوعی
- معرفی
- اجازه دادن
- اجازه دادن
- قبلا
- همچنین
- تغییر
- و
- اعلام کرد
- برنامه های کاربردی
- درخواست
- قدردانی
- روش
- برنامه های
- هستند
- دور و بر
- AS
- خواهان
- ارزیابی
- دستیار
- At
- سمعی
- صحت
- خودکار
- بطور خودکار
- اجتناب از
- مطلع
- دور
- حمایت کرد
- BE
- بوده
- بودن
- باور
- میان
- بایدن
- BIZ
- تخته
- مرز
- بنا
- ساخته شده در
- اما
- by
- CAN
- موارد
- ادعا
- CO
- ائتلاف
- بیا
- آینده
- استوار
- محتوا
- به درستی
- میتوانست
- شورا
- طراحی شده
- ایجاد شده
- جاری
- برش
- برش
- داده ها
- مصمم
- اعلام
- قطعا
- قائم مقام
- مطلوب
- تشخیص
- شناسایی شده
- کشف
- مشخص کردن
- در حال توسعه
- تفاوت
- دیجیتالی
- تشخیص دادن
- افشاء
- do
- پایین
- در طی
- آسان تر
- لبه
- هر دو
- انتخابات
- امپراطوری
- مهندسی
- مورد تأیید
- حتی
- تا کنون
- کارشناسان
- خارجی
- فیس بوک
- FAIL
- جعلی
- FB
- فایل ها
- نام خانوادگی
- بار اول
- پرچم گذاری شده
- تمرکز
- برای
- سابق
- از جانب
- ژنراتور
- می شود
- غول
- جهانی
- گروه ها
- بود
- آیا
- he
- با کیفیت بالا
- صادقانه
- HTTPS
- انسان
- اندیشه
- شناسایی
- if
- تصویر
- تصاویر
- تصور
- مهم
- in
- شامل
- شامل
- از جمله
- مستقل
- صنعت
- ابتکارات
- داخل
- اینستگرام
- قصد دارد
- بین المللی
- به
- اختراع
- مخفی
- نیست
- IT
- ITS
- JPG
- تنها
- دانستن
- برچسب
- برچسب
- زبان
- بزرگ
- نام
- پارسال
- بعد
- آخرین
- راه اندازی
- کمترین
- نهفته است
- ll
- طولانی
- ساخته
- ساخت
- دستکاری شده
- دستی
- علامت گذاری شده
- ماده
- ممکن است..
- رسانه ها
- متا
- متاداده
- مدل
- متوسط
- اعتدال
- ماه
- اکثر
- لازم
- نیاز
- ضروری
- نیازهای
- شبکه
- عصبی
- شبکه های عصبی
- جدید
- بعد
- شکاف
- اکنون
- عدد
- of
- غالبا
- on
- آنلاین
- فقط
- or
- سازمانی
- ما
- خارج
- خارج از
- روی
- نظارت
- خود
- تابلو
- مجازات
- مردم
- تصاویر
- محل
- برنامه
- سیستم عامل
- افلاطون
- هوش داده افلاطون
- PlatoData
- سیاست
- پست
- رئيس جمهور
- رئیس جمهور پیشنهاد
- فشار
- قبلا
- نخستین
- منشاء
- RE
- واقعی
- بدون در نظر گرفتن
- اعتماد
- تکیه
- تکیه بر
- گزارش
- نیاز
- فاش کردن
- راست
- قوانین
- s
- سعید
- گفتن
- می گوید:
- به نظر می رسد
- به اشتراک گذاشته شده
- اشتراک
- کوتاه
- نشان
- So
- آگاهی
- رسانه های اجتماعی
- رسانه های اجتماعی
- شبکه های اجتماعی
- نرم افزار
- مهندسی نرم افزار
- برخی از
- صدا
- منبع
- ماندن
- استراتژی ها
- ارسال
- چنین
- پشتیبانی
- پشتیبانی از
- ترکیبی
- سیستم های
- مقابله با
- TAG
- مصرف
- پیشرفته
- ارتباط از راه دور
- مدت
- تست
- که
- La
- منبع
- جهان
- آنها
- آنجا.
- اینها
- آنها
- این
- کسانی که
- از طریق
- بدین ترتیب
- زمان
- به
- گفته شده
- ابزار
- ابزار
- آموزش
- شفافیت
- درست
- امتحان
- تلاش
- سه شنبه
- Uk
- آپلود
- us
- استفاده کنید
- کاربران
- با استفاده از
- Ve
- از طريق
- تصویری
- قابل رویت
- می خواهم
- بود
- علامت گذاری به عنوان
- متن
- مسیر..
- we
- خوب
- بود
- چی
- چه زمانی
- چه
- که
- چرا
- اراده
- با
- بدون
- مهاجرت کاری
- جهان
- سال
- هنوز
- زفیرنت