پیش‌نویس مقررات قانون هوش مصنوعی اتحادیه اروپا می‌تواند تأثیری ترسناک بر نرم‌افزار منبع باز PlatoBlockchain Data Intelligence داشته باشد. جستجوی عمودی Ai.

پیش‌نویس مقررات قانون هوش مصنوعی اتحادیه اروپا می‌تواند تأثیری ترسناک بر نرم‌افزار منبع باز داشته باشد

به طور خلاصه به گفته اندیشکده آمریکایی بروکینگز، قوانین جدیدی که توسط اتحادیه اروپا با هدف تنظیم هوش مصنوعی پیش‌نویس شده است، می‌تواند مانع از انتشار مدل‌های منبع باز توسعه‌دهندگان شود.

La پیشنهاد شده قانون هوش مصنوعی اتحادیه اروپا که هنوز به قانون امضا نشده است، بیان می کند که توسعه دهندگان منبع باز باید از دقیق، ایمن بودن نرم افزار هوش مصنوعی خود اطمینان حاصل کنند و در مورد خطرات و استفاده از داده ها در اسناد فنی واضح شفاف باشند. 

بروکینگز استدلال می کند اگر یک شرکت خصوصی بخواهد از مدل عمومی استفاده کند یا از آن در یک محصول استفاده کند و به دلیل برخی اثرات پیش‌بینی‌نشده یا غیرقابل کنترل مدل دچار مشکل شود، احتمالاً شرکت سعی می‌کند توسعه‌دهندگان منبع باز را مقصر معرفی کند و از آنها شکایت کند. . 

ممکن است جامعه منبع باز را وادار کند که دو بار در مورد انتشار کد خود فکر کنند و متأسفانه به این معنی است که توسعه هوش مصنوعی توسط شرکت های خصوصی هدایت می شود. تجزیه و تحلیل و ایجاد کد اختصاصی دشوار است، به این معنی که نوآوری با مشکل مواجه خواهد شد.

اورن اتزیونی، مدیر اجرایی مؤسسه هوش مصنوعی آلن، معتقد است که توسعه دهندگان منبع باز نباید مشمول قوانین سختگیرانه ای مانند مهندسان نرم افزار در شرکت های خصوصی باشند.

«توسعه‌دهندگان متن‌باز نباید مانند کسانی که نرم‌افزارهای تجاری را توسعه می‌دهند، تحت فشار باشند. همیشه باید نرم‌افزار رایگان را بتوان «همان‌طور که هست» ارائه کرد. آنها نمی توانند از قوانین اتحادیه اروپا تبعیت کنند و ممکن است مجبور شوند نرم افزار خود را توزیع نکنند و در نتیجه تأثیری وحشتناک بر پیشرفت تحصیلی و تکرارپذیری نتایج علمی داشته باشند. گفته شده TechCrunch

نتایج جدید MLPerf برای استنتاج منتشر شده است

نتایج آزمایش استنتاج سالانه MLPerf که عملکرد تراشه‌های هوش مصنوعی را از فروشندگان مختلف در وظایف متعدد در پیکربندی‌های مختلف محک می‌زند، نشان می‌دهد. منتشر شده این هفته است.

تقریباً 5,300 نتیجه عملکرد و 2,400 اندازه گیری قدرت در سال جاری برای استنباط در مرکز داده و در دستگاه های لبه گزارش شده است. آزمایش‌ها به این می‌پردازند که یک سیستم سخت‌افزاری با چه سرعتی می‌تواند یک مدل یادگیری ماشینی خاص را اجرا کند. میزان خرد شدن داده ها در صفحات گسترده گزارش می شود.

جای تعجب نیست که انویدیا امسال دوباره در صدر رده بندی قرار گیرد. انویدیا در یک پست وبلاگی خود نوشت: «در اولین معرفی خود بر روی معیارهای AI استاندارد صنعتی MLPerf، پردازنده‌های گرافیکی Nvidia H100 Tensor Core رکوردهای جهانی را در استنباط در تمام بارهای کاری ثبت کردند و عملکردی تا 4.5 برابر بیشتر از GPUهای نسل قبلی ارائه کردند. نتایج نشان می‌دهد که Hopper برای کاربرانی که بالاترین عملکرد را در مدل‌های هوش مصنوعی پیشرفته می‌خواهند، انتخاب برتر است.

اگرچه تعداد فزاینده‌ای از فروشندگان در چالش MLPerf شرکت می‌کنند، اما گرفتن ایده خوبی از رقابت می‌تواند دشوار باشد. برای مثال امسال هیچ نتیجه ای برای تراشه های TPU گوگل در مسیر دیتاسنتر گزارش نشده است. با این حال، به نظر می رسد گوگل این کار را انجام داده است تک خال مسابقات آموزشی MLPerf در اوایل امسال. 

هنرمندان هوش مصنوعی چهره هولناکی را در پشت تصویر کشف کردند

یک تاپیک ویروسی در توییتر که توسط یک هنرمند دیجیتال ارسال شده است نشان می‌دهد که مدل‌های تبدیل متن به تصویر چقدر می‌توانند در زیر سطح قرار بگیرند.

بسیاری از کاربران اینترنتی از آزمایش این سیستم ها برای تولید تصاویر با تایپ کردن پیام های متنی، خوشحال و ناامید شده اند. انواع هک برای تنظیم خروجی مدل وجود دارد. یکی از آنها، که به عنوان "اعلان منفی" شناخته می شود، به کاربران این امکان را می دهد که تصویر مخالف تصویری را که در اعلان توضیح داده شده است پیدا کنند. 

هنگامی که هنرمندی که در توییتر به نام سوپرکامپوزیت نامیده می‌شود، پیام منفی را برای آنچه که تصویری بی‌گناه از یک لوگوی جعلی توصیف می‌کرد، پیدا کرد، چیزی واقعاً وحشتناک پیدا کرد: چهره‌ای که شبیه یک زن جن زده به نظر می‌رسد. سوپرکامپوزیت نام این زن تولید شده توسط هوش مصنوعی را "Loab" گذاشته است و هنگامی که تصاویر او را با سایرین تلاقی می کردند، همیشه شبیه صحنه ای از یک فیلم ترسناک به نظر می رسیدند.

سوپرکامپوزیت گفت ال رج تصاویر تصادفی افراد تولید شده با هوش مصنوعی اغلب می توانند در پیام های منفی نشان داده شوند. رفتار عجیب هنوز است مثالی دیگر برخی از ویژگی‌های عجیب این مدل‌ها می‌توانند داشته باشند که افراد تازه شروع به بررسی آن‌ها کرده‌اند. 

ساندار پیچای، مدیر عامل شرکت گوگل، می گوید هیچ چت ربات حساسی در اینجا وجود ندارد

ساندار پیچای ادعاهای مطرح شده توسط مهندس سابق، بلیک لمواین، مبنی بر اینکه گوگل یک ربات چت حساس را در خلال سخنرانی خود در کنفرانس کد این هفته ساخته است، مخالفت کرد.

Lemoine در ماه ژوئیه زمانی که او خبرساز شد اعلام کرد او فکر می کرد چت ربات LaMDA گوگل آگاه است و ممکن است روح داشته باشد. او بعدها بود از کار اخراج بنا بر گزارش‌ها، پس از اینکه او وکیلی را برای چت کردن با LaMDA و ارزیابی حقوق قانونی آن استخدام کرد، خط‌مشی‌های حریم خصوصی شرکت را نقض کرد و ادعا کرد که دستگاه به او گفته است این کار را انجام دهد.

اکثر مردم - از جمله مدیر عامل گوگل - با Lemoine مخالف هستند. "من هنوز فکر می کنم راه زیادی در پیش است. پیچای گفت: احساس می‌کنم اغلب وارد بحث‌های فلسفی یا متافیزیکی می‌شوم که احساسات چیست و آگاهی چیست. مطابق به فورچون. او افزود: «ما از آن دور هستیم و ممکن است هرگز به آنجا نرسیم.

او برای تاکید بیشتر بر نکته خود، اعتراف کرد که دستیار صوتی هوش مصنوعی گوگل گاهی اوقات در درک و پاسخ مناسب به درخواست ها ناتوان است. او گفت: «خبر خوب این است که هر کسی که با دستیار گوگل صحبت می‌کند – در حالی که من فکر می‌کنم این دستیار بهترین دستیار برای هوش مصنوعی مکالمه‌ای است – همچنان می‌بینید که در موارد خاص چقدر خراب است. ®

تمبر زمان:

بیشتر از ثبت نام