تشخیص Deepfakes دشوارتر خواهد شد: مدیر عامل Secta Labs - Decrypt

تشخیص Deepfakes دشوارتر خواهد شد: مدیر عامل Secta Labs - Decrypt

تشخیص Deepfakes دشوارتر خواهد شد: مدیر عامل Secta Labs - رمزگشایی اطلاعات PlatoBlockchain Intelligence. جستجوی عمودی Ai.

با پیشرفته تر شدن مولدهای تصویر هوش مصنوعی، شناسایی دیپ فیک ها چالش برانگیزتر از همیشه می شود. مجریان قانون و رهبران جهانی همچنان در مورد خطرات ناشی از هوش مصنوعی هشدار می دهند deepfakes در رسانه های اجتماعی و در مناطق درگیری.

مارکو جک، یکی از بنیانگذاران و مدیرعامل Secta Labs، گفت: "ما وارد دورانی می شویم که دیگر نمی توانیم آنچه را که می بینیم باور کنیم." رمزگشایی کنید در یک مصاحبه «در حال حاضر، آسان‌تر است، زیرا جعلی‌های عمیق هنوز آنقدر خوب نیستند، و گاهی اوقات می‌توانید مشاهده کنید که واضح است.»

به گفته جک، ما -شاید در عرض یک سال- از نقطه‌ای که توانایی تشخیص تصویر جعلی در نگاه اول دیگر امکان‌پذیر نباشد، چندان دور نیستیم. و او باید بداند: جک مدیر عامل یک شرکت تولید کننده تصویر هوش مصنوعی است.

Jak یکی از بنیانگذاران آزمایشگاه Secta در سال 2022؛ استارتاپ مولد هوش مصنوعی مستقر در آستین بر ایجاد تصاویر با کیفیت بالا تولید شده توسط هوش مصنوعی تمرکز دارد. کاربران می توانند تصاویری از خود آپلود کرده و آنها را به عکس ها و آواتارهای تولید شده توسط هوش مصنوعی تبدیل کنند.

 

همانطور که Jak توضیح می دهد، Secta Labs کاربران را به عنوان صاحبان مدل های AI تولید شده از داده های آنها می بیند، در حالی که این شرکت صرفاً نگهبانی است که در ایجاد تصاویر از این مدل ها کمک می کند. 

استفاده نادرست بالقوه از مدل‌های پیشرفته‌تر هوش مصنوعی، رهبران جهان را وادار کرده است که فوراً درخواست کنند اقدام در مقررات هوش مصنوعی و باعث شد شرکت ها تصمیم بگیرند که ابزارهای پیشرفته خود را در اختیار عموم قرار ندهند.

هفته گذشته پس از اعلام جدید آن جعبه صدا پلتفرم صوتی تولید شده توسط هوش مصنوعی، متا گفت که این هوش مصنوعی را برای عموم منتشر نخواهد کرد.

سخنگوی متا گفت: "در حالی که ما معتقدیم که باز بودن با جامعه هوش مصنوعی و به اشتراک گذاشتن تحقیقات خود برای پیشرفت وضعیت هنر در هوش مصنوعی مهم است." رمزگشایی کنید در یک ایمیل "همچنین لازم است تعادل مناسب بین باز بودن و مسئولیت پذیری ایجاد شود."

در اوایل این ماه، دفتر تحقیقات فدرال ایالات متحده هشدار داد کلاهبرداری های اخاذی با هوش مصنوعی عمیق و مجرمان با استفاده از عکس ها و فیلم های گرفته شده از رسانه های اجتماعی برای ایجاد محتوای جعلی.

جک گفت که پاسخ در مبارزه با دیپ فیک ممکن است در تشخیص دیپ فیک نباشد، بلکه در افشای یک دیپ فیک باشد.

جک گفت: "هوش مصنوعی اولین راهی است که می توانید [یک دیپ فیک] را شناسایی کنید." افرادی هستند که هوش مصنوعی می‌سازند که می‌توانید یک تصویر را مانند یک ویدیو در آن قرار دهید و هوش مصنوعی می‌تواند به شما بگوید که آیا توسط هوش مصنوعی تولید شده است یا خیر.

هوش مصنوعی مولد و استفاده بالقوه از تصاویر تولید شده توسط هوش مصنوعی در فیلم و تلویزیون یک موضوع داغ در صنعت سرگرمی است. SAG-AFTRA اعضا قبل از ورود به مذاکرات قرارداد برای مجوز اعتصاب، هوش مصنوعی، یک نگرانی مهم رای دادند.

جک اضافه کرد که چالش این است که مسابقه تسلیحاتی هوش مصنوعی در حال گسترش است زیرا این فناوری پیشرفته تر می شود و بازیگران بد برای مقابله با فناوری طراحی شده برای شناسایی آنها، دیپ فیک های پیشرفته تری ایجاد می کنند.

جک با اذعان به اینکه بلاک چین بیش از حد مورد استفاده قرار گرفته است – برخی ممکن است بگویند بیش از حد به عنوان راه حلی برای مشکلات دنیای واقعی مورد استفاده قرار گرفته است، گفت که فناوری و رمزنگاری ممکن است مشکل دیپ فیک را حل کند.

اما در حالی که فناوری می‌تواند بسیاری از مسائل را با دیپ‌فیک‌ها حل کند، جک می‌گوید راه‌حلی با فناوری پایین‌تر، یعنی خرد جمعیت، ممکن است کلید اصلی باشد.

جک گفت: «یکی از کارهایی که توییتر انجام داد، که فکر می‌کنم ایده خوبی بود، یادداشت‌های انجمن است، جایی که مردم می‌توانند یادداشت‌هایی اضافه کنند تا زمینه را به توییت دیگران بدهند. او گفت: «یک توییت می تواند اطلاعات نادرست باشد، درست مانند یک دیپ فیک. Jak افزود که برای شرکت‌های رسانه‌های اجتماعی مفید است که به فکر راه‌هایی برای استفاده از جوامع خود برای تأیید صحت محتوای منتشر شده باشند.

او گفت: «بلاک چین می‌تواند مسائل خاصی را برطرف کند، اما رمزنگاری می‌تواند به احراز هویت منشأ تصویر کمک کند. "این می تواند یک راه حل عملی باشد، زیرا به جای محتوای تصویر، بدون توجه به اینکه دیپ فیک چقدر پیچیده است، با تایید منبع سروکار دارد."

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

تمبر زمان:

بیشتر از رمزگشایی کنید