دنیای جدید شجاع هوش مصنوعی: چه اتفاقی برای امنیت افتاد؟ حریم خصوصی؟

دنیای جدید شجاع هوش مصنوعی: چه اتفاقی برای امنیت افتاد؟ حریم خصوصی؟

دنیای جدید شجاع هوش مصنوعی: چه اتفاقی برای امنیت افتاد؟ حریم خصوصی؟ هوش داده PlatoBlockchain. جستجوی عمودی Ai.

مطلب زیر یک پست مهمان از جان دوادوس، هیئت مدیره شورای تجارت جهانی بلاک چین در ژنو و یکی از بنیانگذاران اتحاد InterWork در واشنگتن دی سی است.

هفته گذشته، من این فرصت را داشتم که در واشنگتن دی سی، پیامدهای هوش مصنوعی مرتبط با امنیت را با برخی از اعضای کنگره و کارکنان آنها ارائه و بحث کنم.

هوش مصنوعی مولد امروز مرا به یاد اینترنت در اواخر دهه 80 می اندازد – تحقیقات بنیادی، پتانسیل نهفته و استفاده آکادمیک، اما هنوز برای عموم آماده نشده است. این بار، جاه‌طلبی بی‌مانند فروشنده، که توسط سرمایه‌های خطرپذیر لیگ‌های کوچک تقویت شده و توسط اتاق‌های پژواک توییتر تقویت شده است، دنیای جدید شجاع هوش مصنوعی را به سرعت دنبال می‌کند.

مدل های به اصطلاح فونداسیون عمومی برای استفاده مصرف کننده و تجاری آلوده و نامناسب هستند. انتزاعات حریم خصوصی، در جایی که وجود دارند، مانند غربال نشت می کنند. ساختارهای امنیتی بسیار در حال پیشرفت هستند، زیرا سطح حمله و بردارهای تهدید هنوز در حال درک هستند. و گاردریل های توهمی، هر چه کمتر در مورد آنها گفته شود، بهتر است.

خب، چطور به اینجا رسیدیم؟ و چه اتفاقی برای امنیت افتاد؟ حریم خصوصی؟

مدل های بنیادی "به خطر افتاده".

مدل های به اصطلاح "باز" ​​هر چیزی جز باز هستند. فروشندگان مختلف درجات باز بودن خود را با باز کردن دسترسی به وزن‌های مدل، اسناد یا آزمایش‌ها اعلام می‌کنند. با این حال، هیچ یک از فروشندگان عمده چیزی نزدیک به مجموعه داده های آموزشی یا مانیفست ها یا اصل و نسب آنها ارائه نمی کنند تا بتوانند مدل های خود را تکرار و بازتولید کنند.

این عدم شفافیت با توجه به مجموعه داده‌های آموزشی به این معنی است که اگر می‌خواهید از یک یا چند مدل از این مدل‌ها استفاده کنید، به‌عنوان یک مصرف‌کننده یا به‌عنوان یک سازمان، توانایی تأیید یا تأیید میزان آلودگی داده‌ها را ندارید. احترام به IP، حق چاپ و غیره و همچنین محتوای غیرقانونی بالقوه.

به طور بحرانی، بدون مانیفست مجموعه داده های آموزشی، هیچ راهی برای تأیید یا تأیید محتوای مخرب وجود ندارد. بازیگران بدجنس، از جمله بازیگران تحت حمایت دولت، محتوای اسب تروجان را در سرتاسر وب می کارند که مدل ها در طول آموزش خود مصرف می کنند، که منجر به عوارض جانبی غیرقابل پیش بینی و بالقوه مخرب در زمان استنتاج می شود.

به یاد داشته باشید، زمانی که یک مدل به خطر بیفتد، راهی برای حذف آن وجود ندارد، تنها گزینه این است که آن را از بین ببرید.

امنیت "متخلخل".

مدل‌های هوش مصنوعی مولد، هانی‌پات‌های امنیتی نهایی هستند زیرا «همه» داده‌ها در یک ظرف وارد شده‌اند. کلاس ها و دسته های جدیدی از بردارهای حمله در عصر هوش مصنوعی به وجود می آیند. صنعت هنوز با پیامدهای آن هم در رابطه با ایمن سازی این مدل ها در برابر تهدیدات سایبری و هم در رابطه با نحوه استفاده از این مدل ها به عنوان ابزار توسط عوامل تهدید سایبری کنار نیامده است.

ممکن است از تکنیک‌های تزریق سریع مخرب برای مسموم کردن شاخص استفاده شود. ممکن است از مسمومیت داده ها برای خراب کردن وزنه ها استفاده شود. حملات جاسازی، از جمله تکنیک‌های وارونگی، ممکن است برای بیرون کشیدن داده‌های غنی از جاسازی‌ها استفاده شوند. استنباط عضویت ممکن است برای تعیین اینکه آیا داده های خاصی در مجموعه آموزشی وجود دارد یا خیر استفاده شود، و این فقط نوک کوه یخ است.

عوامل تهدید ممکن است از طریق وارونگی مدل و پرس و جو برنامه‌ای به داده‌های محرمانه دسترسی پیدا کنند. آنها ممکن است فاسد کنند یا رفتار پنهان مدل را تحت تأثیر قرار دهند. و همانطور که قبلا ذکر شد، مصرف خارج از کنترل داده ها در کل منجر به تهدید فعالیت سایبری تعبیه شده توسط دولت از طریق اسب های تروجان و موارد دیگر می شود.

حریم خصوصی "نشتی".

مدل‌های هوش مصنوعی به دلیل مجموعه داده‌هایی که روی آن‌ها آموزش دیده‌اند، مفید هستند. مصرف بی رویه داده ها در مقیاس، خطرات حریم خصوصی بی سابقه ای را برای فرد و عموم مردم ایجاد می کند. در عصر هوش مصنوعی، حریم خصوصی به یک نگرانی اجتماعی تبدیل شده است. مقرراتی که در درجه اول به حقوق داده های فردی می پردازد، ناکافی هستند.

فراتر از داده های ایستا، ضروری است که پیام های مکالمه پویا به عنوان IP در نظر گرفته شوند تا محافظت و محافظت شوند. اگر شما یک مصرف‌کننده هستید و درگیر ساختن یک مصنوع با یک مدل هستید، می‌خواهید از پیام‌های شما که این فعالیت خلاقانه را هدایت می‌کند برای آموزش مدل استفاده نشود یا با سایر مصرف‌کنندگان مدل به اشتراک گذاشته نشود.

اگر کارمندی هستید که با مدلی کار می‌کنید تا نتایج کسب‌وکار را ارائه دهید، کارفرمای شما انتظار دارد که درخواست‌های شما محرمانه باشد. علاوه بر این، درخواست‌ها و پاسخ‌ها به یک مسیر حسابرسی مطمئن در صورت بروز مسائل مربوط به بدهی توسط هر یک از طرفین نیاز دارند. این در درجه اول به دلیل ماهیت تصادفی این مدل ها و تغییر در پاسخ های آنها در طول زمان است.

بعد از آن چه اتفاقی می افتد؟

ما با نوع متفاوتی از فناوری سر و کار داریم، برخلاف فناوری‌هایی که قبلاً در تاریخ محاسبات دیده‌ایم. رویکردهای دیروز برای امنیت، حریم خصوصی و محرمانه بودن دیگر کار نمی کنند.

رهبران صنعت احتیاط را به باد می دهند و تنظیم کننده ها و سیاست گذاران را چاره ای جز دخالت نمی گذارند.

تمبر زمان:

بیشتر از CryptoSlate