شرکت ها برای ایمن کردن ابزارهای هوش مصنوعی مولد به چندین روش متکی هستند

شرکت ها برای ایمن کردن ابزارهای هوش مصنوعی مولد به چندین روش متکی هستند

شرکت ها برای ایمن سازی ابزارهای هوش مصنوعی مولد از هوش داده PlatoBlockchain به چندین روش متکی هستند. جستجوی عمودی Ai.

همانطور که سازمان‌های بیشتری از فناوری‌های هوش مصنوعی مولد استفاده می‌کنند - برای ایجاد طرح‌ها، تکمیل درخواست‌های کمک مالی و نوشتن کد دیگ بخار - تیم‌های امنیتی نیاز به پرداختن به یک سوال جدید را درک می‌کنند: چگونه ابزارهای هوش مصنوعی را ایمن می‌کنید؟

یک سوم از پاسخ دهندگان در یک نظرسنجی اخیر از گارتنر گزارش دادند استفاده یا پیاده سازی ابزارهای امنیتی برنامه مبتنی بر هوش مصنوعی برای رسیدگی به خطرات ناشی از استفاده از هوش مصنوعی مولد در سازمان خود.

فناوری‌های تقویت‌کننده حریم خصوصی (PET) با 7 درصد پاسخ‌دهندگان، با 19 درصد از شرکت‌ها که آن را پیاده‌سازی می‌کنند، بیشترین استفاده کنونی را نشان دادند. این دسته شامل راه هایی برای محافظت از داده های شخصی، مانند رمزنگاری هامومورفیک, داده های مصنوعی تولید شده توسط هوش مصنوعی, محاسبات چند جانبه امن, یادگیری فدراسیونو حریم خصوصی دیفرانسیل. با این حال، 17 درصد از آنها هیچ برنامه ای برای به کار انداختن PET ها در محیط خود ندارند.

تنها 19 درصد از ابزارهایی برای توضیح مدل استفاده می کنند یا پیاده می کنند، اما علاقه قابل توجهی (56 درصد) در میان پاسخ دهندگان به کاوش و درک این ابزارها برای پرداختن به ریسک هوش مصنوعی مولد وجود دارد. به گفته گارتنر، قابلیت توضیح، نظارت بر مدل، و ابزارهای امنیتی برنامه هوش مصنوعی همگی می توانند در مدل های منبع باز یا اختصاصی برای دستیابی به قابلیت اطمینان و قابلیت اطمینان مورد نیاز کاربران سازمانی مورد استفاده قرار گیرند.

خطراتی که پاسخ دهندگان بیشتر نگران آن هستند شامل خروجی های نادرست یا مغرضانه (58٪) و آسیب پذیری ها یا اسرار افشا شده در کدهای تولید شده توسط هوش مصنوعی (57٪) است. به طور قابل توجهی، 43٪ موارد بالقوه حق نسخه برداری یا مجوز را ناشی از محتوای تولید شده توسط هوش مصنوعی به عنوان خطرات اصلی برای سازمان خود ذکر کردند.

یکی از مدیران C-suite در پاسخ به نظرسنجی گارتنر نوشت: «هنوز هیچ شفافیتی در مورد مدل‌های داده‌ای که در حال آموزش هستند وجود ندارد، بنابراین درک و برآورد خطر مرتبط با سوگیری و حریم خصوصی بسیار دشوار است.

در ماه ژوئن، موسسه ملی استاندارد و فناوری (NIST) یک گروه کاری عمومی راه اندازی کرد برای کمک به حل این سوال، بر اساس چارچوب مدیریت ریسک هوش مصنوعی از ژانویه. همانطور که داده های گارتنر نشان می دهد، شرکت ها منتظر نیستند برای دستورالعمل های NIST

تمبر زمان:

بیشتر از تاریک خواندن