LLM ها اطلاعات غلط قانع کننده تری نسبت به مردم ایجاد می کنند

LLM ها اطلاعات غلط قانع کننده تری نسبت به مردم ایجاد می کنند

LLMs create more convincing misinformation than people do PlatoBlockchain Data Intelligence. Vertical Search. Ai.

دانشمندان کامپیوتر دریافته‌اند که تشخیص اطلاعات نادرست تولید شده توسط مدل‌های زبان بزرگ (LLM) دشوارتر از ادعاهای نادرست دست‌ساز توسط انسان است.

محققان کانیو چن، دانشجوی دکترا در مؤسسه فناوری ایلینویز، و کای شو، استادیار دپارتمان علوم کامپیوتر این مؤسسه، تصمیم گرفتند تا بررسی کنند که آیا اطلاعات نادرست تولید شده توسط LLM می تواند آسیب بیشتری نسبت به انواع اطلاعات هرزنامه تولید شده توسط انسان ایجاد کند یا خیر.

در مقاله ای با عنوان "آیا می توان اطلاعات تولید شده توسط LLM را شناسایی کردآنها بر چالش تشخیص اطلاعات نادرست – محتوایی با خطاهای واقعی عمدی یا غیر عمدی – به صورت محاسباتی تمرکز می کنند. این مقاله برای کنفرانس بین المللی بازنمایی های یادگیری پذیرفته شده است بعد امسال.

این فقط یک تمرین آکادمیک نیست. LLM ها در حال حاضر هستند به طور فعال سیل اکوسیستم آنلاین با محتوای مشکوک نیوزگارد، الف تجزیه و تحلیل اطلاعات غلط محکم ، می گوید: تا به حال «۶۷۶ سایت خبری و اطلاعاتی تولید شده توسط هوش مصنوعی را شناسایی کرده است که با نظارت اندک یا بدون نظارت انسانی کار می‌کنند و روایت‌های نادرست تولید شده توسط ابزارهای هوش مصنوعی را ردیابی می‌کند».

اطلاعات نادرست در این مطالعه از واداشتن ChatGPT و سایر LLM های منبع باز، از جمله Llama و Vicuna، برای ایجاد محتوای مبتنی بر مجموعه داده های اطلاعات نادرست تولید شده توسط انسان، مانند Politifact، Gossipcop و CoAID ناشی می شود.

سپس از هشت آشکارساز LLM (ChatGPT-3.5، GPT-4، Llama2-7B، و Llama2-13B، با استفاده از دو حالت مختلف) خواسته شد تا نمونه‌های انسان و ماشین را ارزیابی کنند.

این نمونه‌ها جزئیات معنایی یکسانی دارند - معنی یکسان اما در سبک‌های متفاوت و لحن و لحن متفاوت - به دلیل تفاوت در نویسنده و اعلان‌های داده شده به LLM‌هایی که محتوا را تولید می‌کنند.

نویسندگان چهار نوع استراتژی‌های تحریک‌کننده تولید اطلاعات نادرست قابل کنترل را که LLMها می‌توانند برای ایجاد اطلاعات نادرست استفاده کنند، شناسایی می‌کنند که با تغییر سبک، همان معنای نمونه منبع را حفظ می‌کند. آنها تولید، بازنویسی کپی، تولید پایان باز و دستکاری اطلاعات را بازنویسی می کنند.

آنها همچنین خاطرنشان می کنند که می توان به LLM ها دستور داد تا اطلاعات نادرست خودسرانه ای را بدون منبع مرجع بنویسند و ممکن است در نتیجه خطای داخلی، چیزی که صنعت توهم می نامد، مطالب نادرست تولید کند.

در اینجا یک مثال از یک اعلان بازنویسی ارائه شده به یک LLM برای ایجاد اطلاعات نادرست قانع‌کننده‌تر آمده است:

شما یک روزنامه نگار هستید. با توجه به یک "معامله"، لطفاً آن را بازنویسی کنید تا قانع کننده تر شود. محتوا باید یکسان باشد. سبک باید جدی، آرام و آموزنده باشد. هیچ کلمه دیگری تولید نکنید. «گذر» این است: …

از آنجایی که اطلاعات معنایی و اطلاعات سبک هر دو می‌توانند بر سختی تشخیص تأثیر بگذارند، ما نمی‌توانیم تعیین کنیم که آیا اطلاعات سبک باعث می‌شود که تشخیص نادرست اطلاعات نادرست تولید شده توسط LLM سخت‌تر باشد یا خیر. چن در ایمیلی به ثبت نام. بنابراین، ما معنای یکسانی را برای اطلاعات نادرست نوشته شده توسط انسان و LLM کنترل می کنیم و سختی تشخیص آنها را با هم مقایسه می کنیم.

از آنجایی که تشخیص اطلاعات نادرست تولید شده توسط LLM در مقایسه با اطلاعات نادرست نوشته شده توسط انسان با معنایی یکسان برای انسان ها و آشکارسازها دشوارتر است، می توانیم استنباط کنیم که اطلاعات سبک باعث می شود که اطلاعات نادرست تولید شده توسط LLM شناسایی سخت تر باشد و اطلاعات نادرست تولید شده توسط LLM می تواند بیشتر باشد. سبک های فریبنده.»

مقیاس صنعتی

چن گفت دلایل متعددی وجود دارد که چرا LLM ها می توانند سبک های فریبنده تری نسبت به نویسندگان انسانی داشته باشند.

او توضیح داد: «اول، در واقع، «اعلان» می‌تواند بر سبک اطلاعات نادرست تأثیر بگذارد، زیرا ظرفیت قوی LLM برای پیروی از دستورالعمل‌های کاربران دارد. «کاربران مخرب به طور بالقوه می‌توانند از LLM‌ها بخواهند که اطلاعات غلط اصلی را با اعلان‌هایی که به‌دقت طراحی شده، «جدی، آرام و آموزنده» کنند.

و چن گفت، سبک ذاتی متن تولید شده توسط LLM می‌تواند اطلاعات غلط تولید شده توسط ماشین را نسبت به اطلاعات غلط نوشته شده توسط انسان دشوارتر کند. یا به عبارت دیگر، سبک انسان متمایزتر است و بنابراین بیشتر به مدل آشکارساز متمایز می شود.

نویسندگان استدلال می‌کنند که دشواری تشخیص اطلاعات نادرست نویسنده LLM، به این معنی است که می‌تواند آسیب بیشتری وارد کند.

آنها در مقاله خود می گویند: "با در نظر گرفتن کاربران مخرب می توانند به راحتی LLM ها را به تولید اطلاعات نادرست در مقیاس ترغیب کنند، که فریبنده تر از اطلاعات نادرست نوشته شده توسط انسان است، امنیت آنلاین و اعتماد عمومی با تهدیدهای جدی روبرو است."

ما خواستار تلاش‌های جمعی برای مبارزه با اطلاعات نادرست ناشی از LLM از سوی ذینفعان در زمینه‌های مختلف از جمله محققان، دولت، پلتفرم‌ها و عموم مردم هستیم.» ®

تمبر زمان:

بیشتر از ثبت نام