بافین ها استدلال می کنند که برای تنظیم هوش مصنوعی، با سخت افزار شروع کنید

بافین ها استدلال می کنند که برای تنظیم هوش مصنوعی، با سخت افزار شروع کنید

To regulate AI, start with hardware, boffins argue PlatoBlockchain Data Intelligence. Vertical Search. Ai.

در تلاش ما برای محدود کردن پتانسیل مخرب هوش مصنوعی، مقاله جدیدی از دانشگاه کمبریج پیشنهاد کرده است که سوئیچ‌های کشتن از راه دور و قفل‌ها، مانند مواردی که برای جلوگیری از پرتاب غیرمجاز تسلیحات هسته‌ای ساخته شده‌اند، به سخت‌افزاری که به آن نیرو می‌دهد، پخت شود.

کاغذ [PDF]، که شامل صداهایی از موسسات دانشگاهی متعدد و چندین موسسه از OpenAI می‌شود، نشان می‌دهد که تنظیم سخت‌افزاری که این مدل‌ها به آن متکی هستند، ممکن است بهترین راه برای جلوگیری از سوء استفاده از آن باشد.

محققان استدلال می‌کنند: «محاسبات مرتبط با هوش مصنوعی یک نقطه مداخله به‌ویژه مؤثر است: قابل تشخیص، حذف، و قابل اندازه‌گیری است و از طریق یک زنجیره تأمین بسیار متمرکز تولید می‌شود».

آموزش پرکارترین مدل‌ها، که تصور می‌شود بیش از یک تریلیون پارامتر هستند، به زیرساخت فیزیکی عظیمی نیاز دارد: ده‌ها هزار پردازنده گرافیکی یا شتاب‌دهنده و هفته‌ها یا حتی ماه‌ها زمان پردازش. به گفته محققان، این موضوع پنهان کردن وجود و عملکرد نسبی این منابع را دشوار می‌کند.

علاوه بر این، پیشرفته‌ترین تراشه‌های مورد استفاده برای آموزش این مدل‌ها توسط تعداد نسبتا کمی از شرکت‌ها مانند Nvidia، AMD و Intel تولید می‌شوند که به سیاست‌گذاران اجازه می‌دهد فروش این کالاها را به افراد یا کشورهای مورد نظر محدود کنند.

این مقاله می‌گوید: این عوامل، همراه با عوامل دیگری مانند محدودیت‌های زنجیره تامین در تولید نیمه‌رسانا، به سیاست‌گذاران ابزاری برای درک بهتر نحوه و مکان زیرساخت‌های هوش مصنوعی ارائه می‌دهند، چه کسی مجاز است و چه کسی اجازه دسترسی به آن را ندارد، و مجازات‌هایی را برای سوء استفاده از آن اعمال می‌کند. .

کنترل زیرساخت ها

این مقاله راه‌های متعددی را نشان می‌دهد که سیاست‌گذاران ممکن است به مقررات سخت‌افزاری هوش مصنوعی نزدیک شوند. بسیاری از پیشنهادات - از جمله پیشنهادهایی که برای بهبود دید و محدود کردن فروش شتاب‌دهنده‌های هوش مصنوعی طراحی شده‌اند - در حال حاضر در سطح ملی اجرا می‌شوند.

سال گذشته، جو بایدن، رئیس جمهور ایالات متحده، پیشنهادی را مطرح کرد دستور اجرایی با هدف شناسایی شرکت‌هایی که مدل‌های بزرگ هوش مصنوعی با کاربرد دوگانه را توسعه می‌دهند و همچنین فروشندگان زیرساختی که قادر به انجام آن هستند آنها را آموزش دهد. اگر آشنا نیستید، «کاربرد دوگانه» به فناوری‌هایی اطلاق می‌شود که می‌توانند در کاربردهای غیرنظامی و نظامی وظیفه مضاعف داشته باشند.

اخیراً، وزارت بازرگانی ایالات متحده پیشنهاد شده مقرراتی که ارائه‌دهندگان ابری آمریکایی را ملزم می‌کند تا سیاست‌های سخت‌گیرانه‌تری «مشتری خود را بشناسید» برای جلوگیری از دور زدن محدودیت‌های صادراتی توسط افراد یا کشورهای مورد نظر اعمال کنند.

محققان خاطرنشان می‌کنند که این نوع دید ارزشمند است، زیرا می‌تواند به جلوگیری از مسابقه تسلیحاتی دیگر، مانند مسابقه‌ای که با مناقشه شکاف موشکی، که در آن گزارش‌های اشتباه منجر به ساخت انبوه موشک‌های بالستیک شد، کمک کند. اگرچه ارزشمند است، اما آنها هشدار می‌دهند که اجرای این الزامات گزارش‌دهی خطر تجاوز به حریم خصوصی مشتری و حتی افشای اطلاعات حساس را به همراه دارد.

در همین حال، در جبهه تجارت، وزارت بازرگانی به این کار ادامه داده است قدم بردار محدودیت ها، محدود کردن عملکرد شتاب دهنده های فروخته شده به چین. اما، همانطور که قبلاً گزارش داده‌ایم، در حالی که این تلاش‌ها دستیابی به تراشه‌های آمریکایی را برای کشورهایی مانند چین سخت‌تر کرده است، اما آنها از کامل بودن فاصله زیادی دارند.

برای رفع این محدودیت‌ها، محققان پیشنهاد کرده‌اند که یک رجیستری جهانی برای فروش تراشه‌های هوش مصنوعی پیاده‌سازی کنند که آنها را در طول چرخه عمرشان، حتی پس از خروج از کشور مبدا، ردیابی کند. آنها پیشنهاد می کنند که چنین رجیستری می تواند یک شناسه منحصر به فرد را در هر تراشه قرار دهد که می تواند به مبارزه با قاچاق از اجزای

در انتهای طیف، محققان پیشنهاد کرده‌اند که کلیدهای kill را می‌توان در سیلیکون قرار داد تا از استفاده از آنها در برنامه‌های مخرب جلوگیری شود.

در تئوری، این می‌تواند به تنظیم‌کننده‌ها اجازه دهد تا با قطع دسترسی به تراشه‌ها از راه دور، سریع‌تر به سوء استفاده از فناوری‌های حساس واکنش نشان دهند، اما نویسندگان هشدار می‌دهند که انجام این کار بدون خطر نیست. این مفهوم در صورت اجرای نادرست، این است که چنین سوئیچ کشتن می تواند به هدفی برای مجرمان سایبری تبدیل شود.

پیشنهاد دیگر، چندین طرف را ملزم می‌کند تا وظایف آموزشی بالقوه پرخطر هوش مصنوعی را قبل از استقرار در مقیاس، امضا کنند. آنها نوشتند: «سلاح‌های هسته‌ای از مکانیسم‌های مشابهی به نام پیوندهای اقدام مجاز استفاده می‌کنند.

برای سلاح‌های هسته‌ای، این قفل‌های امنیتی به گونه‌ای طراحی شده‌اند که از سرکشی یک نفر و انجام اولین حمله جلوگیری کنند. با این حال، برای هوش مصنوعی، ایده این است که اگر یک فرد یا شرکتی بخواهد مدلی را بیش از یک آستانه خاص در فضای ابری آموزش دهد، ابتدا باید مجوزی برای این کار دریافت کند.

اگرچه یک ابزار قدرتمند است، اما محققان مشاهده کردند که این می تواند با جلوگیری از توسعه هوش مصنوعی مطلوب نتیجه معکوس داشته باشد. به نظر می رسد بحث این است که در حالی که استفاده از تسلیحات هسته ای نتیجه کاملاً واضحی دارد، هوش مصنوعی همیشه سیاه و سفید نیست.

اما اگر این برای سلیقه شما کمی بیش از حد دیستوپیک به نظر می رسد، مقاله یک بخش کامل را به تخصیص مجدد منابع هوش مصنوعی برای بهبود جامعه به عنوان یک کل اختصاص می دهد. این ایده این است که سیاست گذاران می توانند گرد هم آیند تا محاسبات هوش مصنوعی را برای گروه هایی که بعید به نظر می رسد از آن برای شرارت استفاده کنند، قابل دسترس تر کنند، مفهومی که به عنوان "تخصیص" توصیف می شود.

چه اشکالی در تنظیم توسعه هوش مصنوعی وجود دارد؟

چرا باید به این همه دردسر برود؟ خب، نویسندگان مقاله معتقدند که کنترل سخت افزار فیزیکی ذاتا آسان تر است.

در مقایسه با سخت‌افزار، «دیگر ورودی‌ها و خروجی‌های توسعه هوش مصنوعی – داده‌ها، الگوریتم‌ها و مدل‌های آموزش‌دیده – کالاهای نامشهود غیرقابل‌رقیب و به‌راحتی قابل اشتراک‌گذاری هستند و کنترل آن‌ها را ذاتاً دشوار می‌کنند».

بحث این است که وقتی یک مدل منتشر می‌شود، چه در فضای باز و چه به بیرون درز کند، دیگر نمی‌توان جن را در بطری بازگرداند و جلوی پخش آن را در سراسر شبکه گرفت.

محققان همچنین تاکید کردند که تلاش‌ها برای جلوگیری از سوء استفاده از مدل‌ها غیرقابل اعتماد بوده است. در یکی از نمونه‌ها، نویسندگان سهولتی را که محققان می‌توانند در لاما 2 متا از بین ببرند، به‌منظور جلوگیری از تولید زبان توهین‌آمیز مدل، برجسته کردند.

با توجه به افراط، بیم آن می رود که یک مدل با کاربرد دوگانه به اندازه کافی پیشرفته برای تسریع توسعه سلاح های شیمیایی یا بیولوژیکی

این مقاله تصدیق می کند که مقررات سخت افزاری هوش مصنوعی یک گلوله نقره ای نیست و نیاز به مقررات در سایر جنبه های صنعت را از بین نمی برد.

با این حال، مشارکت چندین محقق OpenAI با توجه به مدیر عامل شرکت سام آلتمن دشوار است تلاش برای کنترل روایت پیرامون مقررات هوش مصنوعی. ®

تمبر زمان:

بیشتر از ثبت نام