شورای محلی برزیل پیشنهاد کتبی ChatGPT را تصویب کرد

شورای محلی برزیل پیشنهاد کتبی ChatGPT را تصویب کرد

شورای محلی در برزیل پیشنهادی نوشته شده توسط ChatGPT را تصویب کرد. جستجوی عمودی Ai.

شورای پورتو آلگره، شهری در جنوب برزیل، قانون پیش‌نویس ChatGPT را تصویب کرد. 

این مصوبه قرار است از دریافت هزینه از مالیات دهندگان برای تعویض کنتورهای آب دزدیده شده توسط سارقان جلوگیری کند. رای 36 عضو شورا به اتفاق آرا این پیشنهاد را تصویب کرد که در اواخر نوامبر اجرایی شد. 

اما چیزی که اکثر آنها نمی‌دانستند این بود که متن پیشنهادی توسط یک ربات چت هوش مصنوعی ایجاد شده بود، تا اینکه رامیرو روزاریو، عضو شورا اعتراف کرد که از ChatGPT برای نوشتن آن استفاده کرده است.

او گفت: «اگر قبلاً آن را فاش کرده بودم، مطمئناً این پیشنهاد حتی به رأی گذاشته نمی شد. گفته شده آسوشیتدپرس.

این اولین قانونی است که توسط هوش مصنوعی نوشته شده است که توسط قانونگذاران تصویب شده است که ما کرکس ها از آن اطلاع داریم. اگر قوانین، قراردادها، یا موارد جالبی مانند آن را می شناسید که توسط ربات نوشته شده است، انجام دهید به ما اطلاع دهید. برای روشن بودن، از ChatGPT خواسته نشده بود که این ایده را ارائه کند، بلکه به عنوان ابزاری برای نوشتن چاپ دقیق استفاده شد. روزاریو گفت که از یک دستور 49 کلمه ای برای دستور دادن به چت ربات نامنظم OpenAI برای ایجاد پیش نویس کامل پیشنهاد استفاده کرده است. 

در ابتدا، همیلتون سوسمایر، رئیس شورای شهر، روش‌های همکارش را تایید نکرد و فکر کرد که روزاریو یک «سابقه خطرناک» ایجاد کرده است. با این حال، او بعداً نظر خود را تغییر داد و گفت: "من شروع به خواندن عمیق تر کردم و دیدم که متاسفانه یا خوشبختانه این یک روند خواهد بود."

شاید حق با سوسمایر باشد. در ایالات متحده، بری فینگولد، سناتور ایالت ماساچوست و جاش کاتلر، نماینده مجلس، در اوایل سال جاری برای خود سرفصل اخبار منتشر شده بودند. لایحه با عنوان: "قانونی که با کمک ChatGPT برای تنظیم مدل های هوش مصنوعی مولد مانند ChatGPT تهیه شده است."

این زوج بر این باورند که مهندسان یادگیری ماشین باید واترمارک دیجیتال را در هر متنی که توسط مدل‌های زبانی بزرگ تولید می‌شود برای تشخیص سرقت ادبی بگنجانند (و احتمالاً به مردم اجازه می‌دهند بدانند چه زمانی چیزها توسط رایانه ساخته شده‌اند). قبل از جمع‌آوری یا استفاده از داده‌های آنها برای آموزش شبکه‌های عصبی، رضایت صریح را از افراد دریافت کنید. و به طور منظم ارزیابی ریسک فناوری خود را انجام دهند.

استفاده از مدل های زبان بزرگ مانند ChatGPT برای نوشتن اسناد قانونی در حال حاضر بحث برانگیز و مخاطره آمیز است، به خصوص که سیستم ها تمایل به جعل اطلاعات و توهم دارند. در ماه ژوئن، وکلای استیون شوارتز و پیتر لودوکا به نمایندگی از شرکت حقوقی Levidow، Levidow & Oberman، مستقر در نیویورک، به دلیل استناد به پرونده های قانونی جعلی ساخته شده توسط ChatGPT در یک دادخواست مورد انتقاد قرار گرفتند.

آنها از یک شرکت هواپیمایی کلمبیایی آویانکا به نمایندگی از مسافری که در یک پرواز 2019 مجروح شده بود شکایت کردند و ChatGPT را بر آن داشت تا موارد مشابهی را برای استناد به آنها یادآوری کند، اما همین طور مستقیماً برخی را تصور کرد. در آن زمان شوارتز و لودوکا اشتباه خود را به خاطر عدم درک محدودیت‌های چت بات می‌دانستند و ادعا می‌کردند که نمی‌دانستند این ربات می‌تواند اطلاعات را توهم ایجاد کند.

قاضی کوین کاستل از دادگاه ناحیه جنوبی نیویورک متوجه زمانی که وکلای طرف مقابل نتوانستند اسناد دادگاه ذکر شده را بیابند و از شوارتز و لودوکا خواستند که منابع خود را ذکر کنند، موارد ساختگی بودند. کاستل هر دوی آنها را 5,000 دلار جریمه کرد و دعوی را به کلی رد کرد. 

استفان وو، سهامدار گروه حقوقی سیلیکون ولی و رئیس مؤسسه ملی هوش مصنوعی و رباتیک انجمن وکلای آمریکا، «درس اینجا این است که شما نمی‌توانید چیزهایی را که یک وکیل مسئول آن است به یک دستگاه واگذار کنید». قبلا گفته بود ثبت نام.

روزاریو، با این حال، معتقد است که این فناوری می تواند به طور موثر مورد استفاده قرار گیرد. من متقاعد شده ام که ... بشریت یک انقلاب تکنولوژیکی جدید را تجربه خواهد کرد. تمام ابزارهایی که ما به عنوان یک تمدن توسعه داده ایم، می توانند برای شر و خیر استفاده شوند. به همین دلیل ما باید نشان دهیم که چگونه می توان از آن به خوبی استفاده کرد. ®

PS: آمازون اعلام کرد ربات چت Q آن در re:Invent this week، یک دستیار دیجیتال برای ویرایش کد، استفاده از منابع AWS و موارد دیگر. این در پیش نمایش در دسترس است، و از آنجایی که یک سیستم LLM است، ما تصور می کردیم که موارد را درست می کند و همه چیز را اشتباه می کند. و حق با ما بود: اسناد داخلی نشت کرد به پلتفرمر شبکه عصبی را "تجربه توهمات شدید و افشای داده های محرمانه" توصیف کرد.

تمبر زمان:

بیشتر از ثبت نام