ربات های کلاهبردار سیل رسانه های اجتماعی، بیش از هزار در توییتر

ربات های کلاهبردار سیل رسانه های اجتماعی، بیش از هزار در توییتر

ChatGPT توسعه ابزارها و ربات‌های هوش مصنوعی را تحریک کرده است که بازیگران بد اکنون از آنها برای کلاهبرداری از کاربران ناآگاه در پلتفرم‌های رسانه‌های اجتماعی مانند X، که قبلا توییتر بود، استفاده می‌کنند.

تحقیقات دانشمندان دانشگاه لوئیزیانا نشان داد که از 1,000 ربات ارسال هرزنامه در X برای تبلیغ ارزهای دیجیتال جعلی و NFT استفاده می شود.

OpenAI 70 پلاگین ChatGPT را در حالی که مسابقه چت بات ها داغ می شود عرضه می کند

OpenAI 70 پلاگین ChatGPT را در حالی که مسابقه چت بات ها داغ می شود عرضه می کند

متن قانع کننده

با توجه به مقاله توسط Business Insider، Kai-Cheng Yang، محقق علوم اجتماعی محاسباتی، و فیلیپو منچزر، استاد علوم کامپیوتر، بات‌نت‌هایی را کشف کردند که با استفاده از ChatGPT OpenAI توسعه یافته‌اند، که می‌تواند متنی را اسکریپت کند که واقعی و شبیه انسان به نظر برسد.

شبکه خاصی که توسط این دو کشف شد بیش از 1,000 ربات فعال داشت که در پلتفرم X برای کلاهبرداری از مردم برای سرمایه‌گذاری در رمزارزها و NFTهای تقلبی استفاده می‌شوند.

این مقاله نشان می‌دهد که ربات‌ها پست می‌کنند و به یکدیگر پاسخ می‌دهند و نمایه‌ای را ایجاد می‌کنند که قانع‌کننده به نظر می‌رسد و گاهی اوقات عکس‌های سلفی دزدیده شده از پروفایل افراد را ارسال می‌کنند. ChatGPT قابلیت‌های مولد هوش مصنوعی نحوه ایجاد اطلاعات نادرست قانع‌کننده را ربات‌های کلاهبردار در مقایسه با سال‌های گذشته که به دلیل گرامر وحشتناکشان و دلایل دیگر به راحتی قابل تشخیص بود، بهبود بخشیده است.

به گفته منچزر، افزایش رسانه‌های اجتماعی و ابزارهای هوش مصنوعی همچنین استفاده از پلتفرم‌ها برای کسب درآمد از محتوای گمراه‌کننده‌شان را برای بازیگران مخرب آسان‌تر کرده است.

او گفت که ابزارهای جدید هوش مصنوعی «هزینه تولید محتوای نادرست اما معتبر را در مقیاس پایین‌تر می‌آورند، و سیستم‌های اعتدالی ضعیف سیستم‌عامل‌های رسانه‌های اجتماعی را شکست می‌دهند».

تکامل رسانه های اجتماعی و ارتقاء در GPT چت به کلاهبرداران کمک کرده است تا نه تنها فرآیندهای خود را خودکار کنند، بلکه ویژگی های مشابه انسان خود را نیز بهبود بخشند.

همچنین بخوانید: موسسان تورنادو به دلیل کمک به هکرهای کره شمالی در شستن یک میلیارد دلار دستگیر شدند

ربات‌های کلاهبردار سیل رسانه‌های اجتماعی، بیش از هزاران در توییتر، هوش داده‌های پلاتوبلاک چین را هجوم می‌آورند. جستجوی عمودی Ai.

اطلاعات جعلی خیلی زیاد

با گسترش ابزارهای مولد هوش مصنوعی، نگرانی‌هایی نیز در مورد افزایش اطلاعات نادرست و جعلی‌های عمیق وجود داشته است، که همچنین تنظیم‌کننده‌ها را در تلاش برای مهار فناوری و در عین حال ترویج نوآوری نگه داشته است.

محققان دانشگاه لوئیزیانا همچنین نسبت به افزایش اطلاعات نادرست در اینترنت که توسط ابزارهای پیشرفته هوش مصنوعی تقویت می شود، ابراز نگرانی کردند.

قبل از انفجار هوش مصنوعی مولد، وجود داشت ربات های شبکه های اجتماعی وجود دارد که اطلاعات نادرست را منتشر می کند، به عنوان مثال در مورد COVID-19. اما به دلیل «رفتار رباتیک و شخصیت‌های جعلی متقاعدکننده» که تغییر کرده است، به راحتی قابل تشخیص بودند.

یانگ به Insider گفت: «پیشرفت ابزارهای هوش مصنوعی ایده اطلاعات آنلاین را برای همیشه مخدوش می کند.

در حالی که برنامه های رسانه های اجتماعی عمدتاً هدف بات نت ها و انتشار اطلاعات جعلی هستند، وب سایت هایی نیز وجود دارند که کاملاً بر اساس فناوری GPT OpenAI ساخته شده اند که برای انتشار اخبار نادرست استفاده می شوند.

مطابق با نیوزگاردشرکتی که اعتبار وب‌سایت‌های خبری و اطلاعاتی را ارزیابی می‌کند، از آوریل تاکنون 437 وب‌سایت را پیدا کرده‌اند که توسط هوش مصنوعی تولید شده‌اند و برای انتشار اطلاعات نادرست استفاده می‌شوند. این وب‌سایت‌ها با نظارت کم یا بدون نظارت انسانی به زبان‌های مختلف – انگلیسی، عربی، چینی، چکی، هلندی، فرانسوی، اندونزیایی، ایتالیایی، کره‌ای، پرتغالی، اسپانیایی، تاگالوگ، تایلندی و ترکی کار می‌کنند.

چیزهای بیشتری در راه است

به گفته آژانس مجری قانون اتحادیه اروپا یوروپل، 90 درصد محتوای اینترنتی طبق پیش بینی آنها تا سال 2026 توسط هوش مصنوعی تولید خواهد شد.

وی ژو، استاد علوم کامپیوتر موسسه فناوری جورجیا نیز به Insider گفت که تشخیص محتوای تولید شده توسط هوش مصنوعی دشوارتر خواهد بود زیرا افراد بی‌وجدان بیشتری از آن برای انتشار اطلاعات نادرست سوء استفاده می‌کنند.

این شبیه به آب بطری پلاستیکی است. ما می دانیم که این یک فاجعه برای محیط زیست است، اما تا زمانی که ارزان و بدون جریمه بزرگ باشد، به طور گسترده وجود خواهد داشت.

نظرات پروفسور بر نیاز به مقرراتی که از تکثیر محتوای جعلی جلوگیری می کند، تاکید کرد. را EU از پلتفرم‌های آنلاین خواسته است تا محتوای تولید شده با هوش مصنوعی را واترمارک کنند تا به کاربران اجازه دهند آگاهانه تصمیم بگیرند.

در ایالات متحده، از شرکت هایی مانند گوگل، مایکروسافت، آنتروپیک و OpenAI خواسته شد محتوا را تگ کنید برای تشخیص تفاوت بین محتوای ساخت بشر و ساخت هوش مصنوعی.

ربات‌های کلاهبردار سیل رسانه‌های اجتماعی، بیش از هزاران در توییتر، هوش داده‌های پلاتوبلاک چین را هجوم می‌آورند. جستجوی عمودی Ai.

ربات‌های کلاهبردار سیل رسانه‌های اجتماعی، بیش از هزاران در توییتر، هوش داده‌های پلاتوبلاک چین را هجوم می‌آورند. جستجوی عمودی Ai.

مشاهده محتوای هرزنامه

در حالی که خطر رو به رشد این ربات‌های اطلاعات نادرست در اینترنت وجود دارد، راهی برای تشخیص زمان استفاده از برخی از این ابزارهای اطلاعات جعلی وجود دارد.

به گفته یانگ و منچزر، ChatGPT اغلب به ناتوانی خود در ارائه اطلاعات خاص به دلیل محدودیت ها و سیاست های داخلی خود پاسخ هایی می دهد.

یک پاسخ متداول این است: «متاسفم، اما نمی‌توانم به این درخواست عمل کنم». به گفته محققان، این پاسخ‌ها اغلب به پست در صفحات جعلی می‌رسند، و به این ترتیب آنها این شبکه‌های هرزنامه را شناسایی کردند.

اما از آنجایی که ابزارهای مولد هوش مصنوعی در پاسخگویی به عنوان انسان بهتر می شوند، ممکن است در آینده شناسایی بات نت های جعلی از این طریق کمی دشوار باشد.

از آنجایی که شرکت‌های فناوری و دولت‌ها برای ایجاد مقررات و راه‌هایی برای کنترل هوش مصنوعی عجله دارند، یانگ می‌ترسد که بازیکنان بد همیشه حفاظ‌ها را نادیده بگیرند.

تمبر زمان:

بیشتر از متانیوز