به طور خلاصه به گفته اندیشکده آمریکایی بروکینگز، قوانین جدیدی که توسط اتحادیه اروپا با هدف تنظیم هوش مصنوعی پیشنویس شده است، میتواند مانع از انتشار مدلهای منبع باز توسعهدهندگان شود.
La پیشنهاد شده قانون هوش مصنوعی اتحادیه اروپا که هنوز به قانون امضا نشده است، بیان می کند که توسعه دهندگان منبع باز باید از دقیق، ایمن بودن نرم افزار هوش مصنوعی خود اطمینان حاصل کنند و در مورد خطرات و استفاده از داده ها در اسناد فنی واضح شفاف باشند.
بروکینگز استدلال می کند اگر یک شرکت خصوصی بخواهد از مدل عمومی استفاده کند یا از آن در یک محصول استفاده کند و به دلیل برخی اثرات پیشبینینشده یا غیرقابل کنترل مدل دچار مشکل شود، احتمالاً شرکت سعی میکند توسعهدهندگان منبع باز را مقصر معرفی کند و از آنها شکایت کند. .
ممکن است جامعه منبع باز را وادار کند که دو بار در مورد انتشار کد خود فکر کنند و متأسفانه به این معنی است که توسعه هوش مصنوعی توسط شرکت های خصوصی هدایت می شود. تجزیه و تحلیل و ایجاد کد اختصاصی دشوار است، به این معنی که نوآوری با مشکل مواجه خواهد شد.
اورن اتزیونی، مدیر اجرایی مؤسسه هوش مصنوعی آلن، معتقد است که توسعه دهندگان منبع باز نباید مشمول قوانین سختگیرانه ای مانند مهندسان نرم افزار در شرکت های خصوصی باشند.
«توسعهدهندگان متنباز نباید مانند کسانی که نرمافزارهای تجاری را توسعه میدهند، تحت فشار باشند. همیشه باید نرمافزار رایگان را بتوان «همانطور که هست» ارائه کرد. آنها نمی توانند از قوانین اتحادیه اروپا تبعیت کنند و ممکن است مجبور شوند نرم افزار خود را توزیع نکنند و در نتیجه تأثیری وحشتناک بر پیشرفت تحصیلی و تکرارپذیری نتایج علمی داشته باشند. گفته شده TechCrunch
نتایج جدید MLPerf برای استنتاج منتشر شده است
نتایج آزمایش استنتاج سالانه MLPerf که عملکرد تراشههای هوش مصنوعی را از فروشندگان مختلف در وظایف متعدد در پیکربندیهای مختلف محک میزند، نشان میدهد. منتشر شده این هفته است.
تقریباً 5,300 نتیجه عملکرد و 2,400 اندازه گیری قدرت در سال جاری برای استنباط در مرکز داده و در دستگاه های لبه گزارش شده است. آزمایشها به این میپردازند که یک سیستم سختافزاری با چه سرعتی میتواند یک مدل یادگیری ماشینی خاص را اجرا کند. میزان خرد شدن داده ها در صفحات گسترده گزارش می شود.
جای تعجب نیست که انویدیا امسال دوباره در صدر رده بندی قرار گیرد. انویدیا در یک پست وبلاگی خود نوشت: «در اولین معرفی خود بر روی معیارهای AI استاندارد صنعتی MLPerf، پردازندههای گرافیکی Nvidia H100 Tensor Core رکوردهای جهانی را در استنباط در تمام بارهای کاری ثبت کردند و عملکردی تا 4.5 برابر بیشتر از GPUهای نسل قبلی ارائه کردند. نتایج نشان میدهد که Hopper برای کاربرانی که بالاترین عملکرد را در مدلهای هوش مصنوعی پیشرفته میخواهند، انتخاب برتر است.
اگرچه تعداد فزایندهای از فروشندگان در چالش MLPerf شرکت میکنند، اما گرفتن ایده خوبی از رقابت میتواند دشوار باشد. برای مثال امسال هیچ نتیجه ای برای تراشه های TPU گوگل در مسیر دیتاسنتر گزارش نشده است. با این حال، به نظر می رسد گوگل این کار را انجام داده است تک خال مسابقات آموزشی MLPerf در اوایل امسال.
هنرمندان هوش مصنوعی چهره هولناکی را در پشت تصویر کشف کردند
یک تاپیک ویروسی در توییتر که توسط یک هنرمند دیجیتال ارسال شده است نشان میدهد که مدلهای تبدیل متن به تصویر چقدر میتوانند در زیر سطح قرار بگیرند.
بسیاری از کاربران اینترنتی از آزمایش این سیستم ها برای تولید تصاویر با تایپ کردن پیام های متنی، خوشحال و ناامید شده اند. انواع هک برای تنظیم خروجی مدل وجود دارد. یکی از آنها، که به عنوان "اعلان منفی" شناخته می شود، به کاربران این امکان را می دهد که تصویر مخالف تصویری را که در اعلان توضیح داده شده است پیدا کنند.
هنگامی که هنرمندی که در توییتر به نام سوپرکامپوزیت نامیده میشود، پیام منفی را برای آنچه که تصویری بیگناه از یک لوگوی جعلی توصیف میکرد، پیدا کرد، چیزی واقعاً وحشتناک پیدا کرد: چهرهای که شبیه یک زن جن زده به نظر میرسد. سوپرکامپوزیت نام این زن تولید شده توسط هوش مصنوعی را "Loab" گذاشته است و هنگامی که تصاویر او را با سایرین تلاقی می کردند، همیشه شبیه صحنه ای از یک فیلم ترسناک به نظر می رسیدند.
🧵: I discovered this woman, who I call Loab, in April. The AI reproduced her more easily than most celebrities. Her presence is persistent, and she haunts every image she touches. CW: Take a seat. This is a true horror story, and veers sharply macabre. pic.twitter.com/gmUlf6mZtk
— Supercomposite (@supercomposite) September 6, 2022
سوپرکامپوزیت گفت ال رج تصاویر تصادفی افراد تولید شده با هوش مصنوعی اغلب می توانند در پیام های منفی نشان داده شوند. رفتار عجیب هنوز است مثالی دیگر برخی از ویژگیهای عجیب این مدلها میتوانند داشته باشند که افراد تازه شروع به بررسی آنها کردهاند.
ساندار پیچای، مدیر عامل شرکت گوگل، می گوید هیچ چت ربات حساسی در اینجا وجود ندارد
ساندار پیچای ادعاهای مطرح شده توسط مهندس سابق، بلیک لمواین، مبنی بر اینکه گوگل یک ربات چت حساس را در خلال سخنرانی خود در کنفرانس کد این هفته ساخته است، مخالفت کرد.
Lemoine در ماه ژوئیه زمانی که او خبرساز شد اعلام کرد او فکر می کرد چت ربات LaMDA گوگل آگاه است و ممکن است روح داشته باشد. او بعدها بود از کار اخراج بنا بر گزارشها، پس از اینکه او وکیلی را برای چت کردن با LaMDA و ارزیابی حقوق قانونی آن استخدام کرد، خطمشیهای حریم خصوصی شرکت را نقض کرد و ادعا کرد که دستگاه به او گفته است این کار را انجام دهد.
اکثر مردم - از جمله مدیر عامل گوگل - با Lemoine مخالف هستند. "من هنوز فکر می کنم راه زیادی در پیش است. پیچای گفت: احساس میکنم اغلب وارد بحثهای فلسفی یا متافیزیکی میشوم که احساسات چیست و آگاهی چیست. مطابق به فورچون. او افزود: «ما از آن دور هستیم و ممکن است هرگز به آنجا نرسیم.
او برای تاکید بیشتر بر نکته خود، اعتراف کرد که دستیار صوتی هوش مصنوعی گوگل گاهی اوقات در درک و پاسخ مناسب به درخواست ها ناتوان است. او گفت: «خبر خوب این است که هر کسی که با دستیار گوگل صحبت میکند – در حالی که من فکر میکنم این دستیار بهترین دستیار برای هوش مصنوعی مکالمهای است – همچنان میبینید که در موارد خاص چقدر خراب است. ®
- AI
- آی هنر
- مولد هنر ai
- ربات ai
- هوش مصنوعی
- گواهی هوش مصنوعی
- هوش مصنوعی در بانکداری
- ربات هوش مصنوعی
- ربات های هوش مصنوعی
- نرم افزار هوش مصنوعی
- بلاکچین
- کنفرانس بلاک چین ai
- coingenius
- هوش مصنوعی محاوره ای
- کنفرانس کریپتو ai
- دل-ه
- یادگیری عمیق
- گوگل ai
- فراگیری ماشین
- افلاطون
- افلاطون آی
- هوش داده افلاطون
- بازی افلاطون
- PlatoData
- بازی پلاتو
- مقیاس Ai
- نحو
- ثبت نام
- زفیرنت