به گفته محققان، همانطور که توسعه دهندگان هوش مصنوعی به تنظیم دقیق مدل های خود ادامه می دهند، تشخیص بین تصاویر واقعی و خلاقیت های هوش مصنوعی نیز به طور فزاینده ای دشوار می شود.
مطالعه ای توسط محققان در دانشگاه واترلو مشخص شد که مردم در پیدا کردن تصویر یک شخص واقعی و یک فرد تولید شده توسط هوش مصنوعی مشکل دارند.
زیر آستانه مورد انتظار
در انجام این مطالعه، محققان دانشگاه واترلو 20 تصویر بدون برچسب را به 260 شرکتکننده ارائه کردند. نیمی از تصاویر مربوط به افراد واقعی بود که از Google Images گرفته شده بودند، در حالی که نیمی دیگر از هوش مصنوعی با استفاده از ابزارهایی مانند Dall-E و انتشار پایدار.
سپس از شرکتکنندگان خواسته شد که تصاویر را در صورت واقعی بودن یا ایجاد شده توسط هوش مصنوعی برچسبگذاری کنند و پاسخهای خود را توجیه کنند.
اگرچه 61 درصد از شرکتکنندگان میتوانستند تفاوت بین تصاویر واقعی و تصاویر تولید شده توسط هوش مصنوعی را تشخیص دهند، اما این میزان هنوز بسیار پایینتر از آستانه 85 درصدی مورد انتظار بود.
شرکتکنندگان در حین بررسی دقیق تصاویر، به جزئیاتی مانند چشمها، انگشتان، دندانها و سایر شاخصهایی که در جستجوی هوش مصنوعی تصاویر را نشان میدهند، توجه کردند، اما «ارزیابیهای آنها همیشه درست نبود».
"مردم در ایجاد تمایز آنقدر که فکر می کنند ماهر نیستند." گفت: نویسنده اصلی این مطالعه، آندریا پوکول، که همچنین کاندیدای دکترای علوم کامپیوتر در دانشگاه است.
در حالی که کاربران اینترنت ممکن است به صورت گذرا به تصاویر نگاه کنند، محققان واترلو گفتند که به شرکت کنندگان اجازه دادند تا زمان خود را برای تجزیه و تحلیل تصاویر صرف کنند.
پوکول گفت: «افرادی که فقط در حال رستاخیز هستند یا وقت ندارند، این نشانه ها را متوجه نمی شوند.
همچنین بخوانید: مدیر عامل لئوناردو بر حماقت کاربر نسبت به تهدیدات هوش مصنوعی در داووس تاکید می کند
سوء استفاده از تکنولوژی
شان مطالعهبا عنوان «دیدن دیگر باور نمیکند: نظرسنجی در مورد وضعیت دیپفیکها، انسانهای تولیدشده با هوش مصنوعی و سایر رسانههای غیر معتبر»، که در مجله Advances in Computer Graphics منتشر شده است، همچنین خطرات مرتبط با پیشرفتهای فناوری هوش مصنوعی مولد را برجسته میکند. .
محققان همچنین با نگرانی به سرعت تغییر فناوری مولد هوش مصنوعی اشاره کردند و هر روز که می گذرد پیچیده تر می شود. تحقیقات و قوانین آکادمیک در هماهنگی با تحولات صنعت مولد ناکام هستند.
پوکل گفت که تصاویر هوش مصنوعی واقعی تر می شوند و این امر برای برخی افراد دشوار است که به راحتی بین تصاویر واقعی و تولید شده توسط هوش مصنوعی تمایز قائل شوند. به گفته پوکول، این زمینه مساعدی برای بازیگران بدی ایجاد میکند که از این فناوری برای گسترش بدخواهی و تداوم اطلاعات نادرست یا فریب دادن مردم استفاده میکنند.
پوکول گفت: "اطلاعات نادرست جدید نیست، اما ابزارهای اطلاعات نادرست دائما در حال تغییر و تحول بوده اند."
«ممکن است به جایی برسد که مردم، صرف نظر از اینکه چقدر آموزش دیده باشند، همچنان برای تمایز تصاویر واقعی از تقلبی تلاش کنند. به همین دلیل است که ما باید ابزارهایی را برای شناسایی و مقابله با آن توسعه دهیم. این مانند یک مسابقه تسلیحاتی جدید هوش مصنوعی است.»
محققان همچنین به چالشهایی که این فناوری ایجاد میکند، بهویژه زمانی که صحبت از انتشار دیپفیک میشود، اذعان کردهاند.
فناوری در دستان اشتباه است
با مشکلاتی که مردم عادی برای تمایز بین تصاویر واقعی و جعلی تجربه میکنند، ترس از افزایش گسترش دیپفیکها افزایش مییابد. کارشناسان هشدار داده اند که بازیگران بد از فناوری هوش مصنوعی مولد برای انتشار دروغ های انتخاباتی در تلاش برای گمراه کردن رای دهندگان استفاده خواهند کرد.
La مرکز مقابله با نفرت دیجیتال (CCDH)، یک سازمان غیرانتفاعی که سخنان مشوق نفرت آنلاین را نظارت می کند هشدار داد در گزارش خود مبنی بر اینکه تولیدکنندگان تصویر مبتنی بر هوش مصنوعی در حال بدتر کردن اطلاعات نادرست انتخابات 2024 هستند.
محققان CCDH در گزارش خود میگویند: «پتانسیل چنین تصاویری که توسط هوش مصنوعی بهعنوان «شواهد عکس» استفاده میشوند، میتواند گسترش ادعاهای نادرست را تشدید کند و چالشی مهم برای حفظ یکپارچگی انتخابات ایجاد کند.
با این حال، این در حالی رخ می دهد که حدود 20 شرکت بزرگ فناوری از جمله اعلام کرده اند OpenAI، مایکروسافت و هوش مصنوعی پایداری توافق نامه امضا کرد برای جلوگیری از تداخل محتوای فریبنده هوش مصنوعی در انتخاباتی که امسال در سطح جهانی برگزار می شود، با یکدیگر همکاری کنند.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://metanews.com/the-line-between-real-and-fake-gets-too-thin-for-the-ordinary-eye/
- :است
- :نه
- :جایی که
- $UP
- 20
- 2024
- 7
- 9
- a
- درباره ما
- دانشگاهی
- تحقیقات دانشگاهی
- تصدیق شده
- بازیگران
- ماهر
- پیشرفت
- مزیت - فایده - سود - منفعت
- AI
- مجهز به هوش مصنوعی
- مجاز
- قبلا
- همچنین
- همیشه
- در میان
- an
- تحلیل
- و
- خبر
- پاسخ
- ظاهر می شود
- هستند
- اسلحه
- AS
- ارزیابی ها
- مرتبط است
- At
- تلاشها
- توجه
- نویسنده
- بد
- BE
- تبدیل شدن به
- بوده
- باور کردن
- در زیر
- میان
- بزرگ
- فناوری بزرگ
- اما
- by
- نامزد
- حمل
- مدیر عامل شرکت
- به چالش
- چالش ها
- متغیر
- ادعای
- می آید
- شرکت
- کامپیوتر
- علم کامپیوتر
- نگرانی
- به طور مداوم
- محتوا
- ادامه دادن
- اصلاح
- میتوانست
- مقابله با
- مقابله
- ایجاد شده
- ایجاد
- ایجاد
- خلاقیت
- دل-ه
- روز
- deepfakes
- جزئیات
- توسعه
- توسعه دهندگان
- تحولات
- تفاوت
- تمایز
- مشکل
- مشکلات
- دیجیتال
- اطلاعات غلط
- فرق
- تمیز دادن
- آیا
- هر
- به آسانی
- انتخاب
- انتخابات
- به خصوص
- تاسیس
- در حال تحول
- بر انگیختن
- انتظار می رود
- با تجربه
- کارشناسان
- چشم
- چشم ها
- عدم
- جعلی
- غلط
- اشتباهات
- ترس
- بارور
- برای
- از جانب
- تولید
- مولد
- هوش مصنوعی مولد
- ژنراتور
- دریافت کنید
- گرفتن
- در سطح جهانی
- گوگل
- گرافیک
- زمین
- در حال رشد
- نیم
- سخت
- نفرت
- آیا
- داشتن
- های لایت
- چگونه
- اما
- HTTPS
- انسان
- شناسایی
- if
- تصویر
- تصاویر
- in
- از جمله
- افزایش
- به طور فزاینده
- شاخص ها
- صنعت
- تمامیت
- اینترنت
- IT
- روزنامه
- تنها
- نگاه داشتن
- برچسب
- رهبری
- قانون
- پسندیدن
- لاین
- دیگر
- نگاه کنيد
- به دنبال
- ساخت
- ماده
- ممکن است..
- رسانه ها
- مایکروسافت
- اطلاعات غلط
- مدل
- مانیتور
- بیش
- نیاز
- جدید
- نه
- غیرانتفاعی
- اشاره کرد
- of
- on
- آنلاین
- or
- عادی
- دیگر
- خارج
- روی
- سرعت
- پرداخت
- شرکت کنندگان
- عبور
- مردم
- ماندگار کردن
- شخص
- دکترا
- انتخاب کنید
- تصویر
- تصاویر
- محل
- افلاطون
- هوش داده افلاطون
- PlatoData
- نقطه
- به شمار
- پتانسیل
- حفظ کردن
- جلوگیری از
- ارائه
- نژاد
- سریعا
- نرخ
- خواندن
- واقعی
- گزارش
- تحقیق
- محققان
- رویترز
- فاش کردن
- خطرات
- سعید
- علم
- خدمت
- انتقال
- قابل توجه
- برخی از
- مصنوعی
- پیچیدگی
- سخنرانی - گفتار
- گسترش
- ثبات
- دولت
- هنوز
- مبارزه
- مهاجرت تحصیلی
- چنین
- بررسی
- گرفتن
- صورت گرفته
- مصرف
- فن آوری
- شرکت های فن آوری
- پیشرفته
- گفتن
- که
- La
- دولت
- شان
- سپس
- آنجا.
- اینها
- آنها
- نازک
- فکر می کنم
- این
- در این سال
- تهدید
- آستانه
- زمان
- با عنوان
- به
- با هم
- هم
- ابزار
- آموزش دیده
- دانشگاه
- کاربر
- کاربران
- با استفاده از
- رای دهندگان
- هشدار داد
- بود
- مسیر..
- we
- بود
- چه زمانی
- که
- در حین
- WHO
- چرا
- اراده
- با
- مهاجرت کاری
- همکاری
- اشتباه
- سال
- زفیرنت