پیشبرد حکمرانی هوش مصنوعی

پیشبرد حکمرانی هوش مصنوعی

حرکت حکمرانی هوش مصنوعی به سمت هوش داده پلاتوبلاک چین. جستجوی عمودی Ai.

5) مکانیزم‌هایی را ایجاد و به کار بگیرید که کاربران را قادر می‌سازد بفهمند محتوای صوتی یا بصری توسط هوش مصنوعی تولید شده است، از جمله منشأ قوی، واترمارک یا هر دو، برای محتوای صوتی یا بصری تولید شده توسط هوش مصنوعی.

شرکت‌هایی که این تعهد را انجام می‌دهند تشخیص می‌دهند که برای مردم مهم است که بتوانند بفهمند محتوای صوتی یا بصری چه زمانی توسط هوش مصنوعی تولید می‌شود. برای پیشبرد این هدف، آنها موافقت کردند که مکانیسم‌های قوی، از جمله سیستم‌های منشأ و/یا واترمارک برای محتوای صوتی یا بصری ایجاد شده توسط هر یک از سیستم‌های در دسترس عموم را در محدوده معرفی شده پس از توسعه سیستم واترمارک ایجاد کنند. آنها همچنین ابزارها یا APIهایی را برای تعیین اینکه آیا یک قطعه خاص از محتوا با سیستم آنها ایجاد شده است ایجاد می کنند. محتوای سمعی و بصری که به راحتی از واقعیت قابل تشخیص است یا به گونه ای طراحی شده است که به راحتی قابل تشخیص باشد که توسط سیستم هوش مصنوعی یک شرکت تولید شده است - مانند صدای پیش فرض دستیاران هوش مصنوعی - خارج از محدوده این تعهد است. واترمارک یا داده‌های منشأ باید شامل شناسه‌ای از سرویس یا مدلی باشد که محتوا را ایجاد کرده است، اما نیازی به داشتن اطلاعات شناسایی کاربر ندارد. به‌طور کلی، شرکت‌هایی که این تعهد را انجام می‌دهند، متعهد می‌شوند که با همتایان صنعت و نهادهای تنظیم‌کننده استاندارد به‌منظور توسعه یک چارچوب فنی برای کمک به کاربران در تشخیص محتوای صوتی یا بصری تولید شده توسط کاربران از محتوای صوتی یا بصری تولید شده توسط هوش مصنوعی، همکاری کنند.

6) مدل یا سیستم قابلیت ها، محدودیت ها و حوزه های استفاده مناسب و نامناسب را به طور عمومی گزارش دهید، از جمله بحث در مورد خطرات اجتماعی، مانند تأثیرات بر عدالت و سوگیری 

شرکت‌هایی که این تعهد را انجام می‌دهند اذعان می‌کنند که کاربران باید قابلیت‌ها و محدودیت‌های شناخته‌شده سیستم‌های هوش مصنوعی را که استفاده می‌کنند یا با آنها تعامل دارند، درک کنند. آنها متعهد می‌شوند که گزارش‌هایی را برای همه نسخه‌های عمومی جدید مدل‌های مهم در محدوده منتشر کنند. این گزارش‌ها باید شامل ارزیابی‌های ایمنی انجام‌شده (از جمله در زمینه‌هایی مانند قابلیت‌های خطرناک، تا حدی که مسئول افشای عمومی هستند)، محدودیت‌های قابل توجه در عملکرد که پیامدهایی برای حوزه‌های استفاده مناسب دارد، بحث در مورد اثرات مدل بر جامعه باشد. خطراتی مانند انصاف و سوگیری و نتایج آزمایش های خصمانه انجام شده برای ارزیابی تناسب مدل برای استقرار. 

7) اولویت بندی تحقیقات در مورد خطرات اجتماعی ناشی از سیستم های هوش مصنوعی، از جمله در مورد اجتناب از سوگیری و تبعیض مضر، و حفاظت از حریم خصوصی

شرکت‌هایی که این تعهد را انجام می‌دهند، اهمیت اجتناب از سوگیری‌های مضر ناشی از انتشار و تبعیض اعمال شده توسط سیستم‌های هوش مصنوعی را تشخیص می‌دهند. شرکت ها به طور کلی متعهد به توانمندسازی تیم های اعتماد و ایمنی، پیشرفت تحقیقات ایمنی هوش مصنوعی، ارتقای حریم خصوصی، محافظت از کودکان و تلاش برای مدیریت پیشگیرانه خطرات هوش مصنوعی هستند تا مزایای آن محقق شود. 

8) توسعه و استقرار سیستم های هوش مصنوعی مرزی برای کمک به رسیدگی به بزرگترین چالش های جامعه

شرکت‌هایی که این تعهد را دارند موافقت می‌کنند از تحقیق و توسعه سیستم‌های هوش مصنوعی مرزی حمایت کنند که می‌تواند به مقابله با بزرگترین چالش‌های جامعه، مانند کاهش و سازگاری با تغییرات آب و هوا، تشخیص و پیشگیری زودهنگام سرطان، و مبارزه با تهدیدات سایبری کمک کند. شرکت‌ها همچنین متعهد می‌شوند که از طرح‌هایی حمایت کنند که آموزش و پرورش دانش‌آموزان و کارگران را تقویت می‌کند تا از مزایای هوش مصنوعی بهره‌مند شوند و به شهروندان کمک کنند تا ماهیت، قابلیت‌ها، محدودیت‌ها و تأثیر فناوری را درک کنند.

تمبر زمان:

بیشتر از OpenAI