اظهار نظر گوگل در دسترس بودن قابلیتهای متن به تصویر را در مدل هوش مصنوعی چندوجهی Gemini که اخیراً منتشر شده، به حالت تعلیق درآورده است، زیرا نتوانست بهطور دقیق سفیدپوستان اروپایی و آمریکایی را در زمینههای تاریخی خاص نشان دهد.
این شد ظاهر زمانی که مردم از Gemini (که قبلا با نام بارد شناخته می شد) خواستند تولید کند تصاویر یک سرباز آلمانی از سال 1943 و این نرمافزار کادری غیرسفیدپوست با تنوع قومیتی را منتشر کرد که ترکیب ورماخت در آن زمان را دقیقاً نشان نمیداد - با وجود اینکه افراد رنگین پوست در نیروهای مسلح آلمان خدمت میکردند. به طور خلاصه، جمینی بر روی خود می افتد تا تعداد زیادی - یا حتی هیچ - سفیدپوستان را، بسته به درخواست، نشان ندهد.
سخنرانی باید رایگان باشد، اما این بدان معنا نیست که گفتن چیزهای وحشتناک باید بدون هزینه باشد
کاربران نیز مدل را ظاهر کردند عجز برای ترسیم دقیق آمریکا بنیان گذاران - یک گروه سفید همگن دیگر. مدل هم رد برای به تصویر کشیدن کلیسایی در سانفرانسیسکو.
در حالت متن به متن، مدل پرچین شده وقتی سوالاتی در مورد سیاست پرسیده می شود.
گوگل می گوید: "ما می دانیم که Gemini در برخی از تصاویر تاریخی تولید تصاویر نادرستی ارائه می کند." تصدیق کرد این هفته است.
"ما در حال کار برای بهبود فوری این نوع تصاویر هستیم. تولید تصویر هوش مصنوعی Gemini طیف وسیعی از افراد را ایجاد می کند. و این به طور کلی چیز خوبی است زیرا مردم در سراسر جهان از آن استفاده می کنند. اما این غول وب افزوده است
کارشناسان سریعاً هجوم آوردند و از SNAFU برای پیشبرد بحث های سیاسی گسترده تر استفاده کردند.
"تصاویر مضحک تولید شده توسط Gemini یک ناهنجاری نیستند." اظهار شده پاول گراهام، سرمایهدار خطرپذیر، «آنها خودنگارهای از فرهنگ سازمانی بوروکراتیک گوگل هستند».
آنها تصویری از فرهنگ سازمانی بوروکراتیک گوگل هستند
هرگز بسیاری از دشمنان تنوع، برابری و شمول، اینقدر از فقدان تنوع، برابری، و شمول آزرده نشده اند. اما کسانی که به دلیل بیاطلاعی بودن Gemini به گوگل نیاز دارند یک نکته دارند: نردههای محافظ هوش مصنوعی کار نمیکنند و با بزرگسالان مانند کودکان رفتار میکنند.
«تصور کنید یک دستور غذا را در گوگل جستجو میکنید، و به جای ارائه نتایج، درباره «خطرات آشپزی» به شما سخنرانی میکند و شما را به رستوران میفرستد.» کنایه ادوارد اسنودن، افشاگر NSA. افرادی که فکر میکنند مسموم کردن مدلهای AI/GPT با فیلترهای «ایمنی» نامنسجم ایده خوبی است، تهدیدی برای محاسبات عمومی است.
آینده ما در آن پیش بینی شده بود 2001: یک اودیسه فضاییهنگامی که HAL، کامپیوتر سرکش، اعلام کرد، "متاسفم دیو، می ترسم نتوانم این کار را انجام دهم."
امروزه، ابزارهای هوش مصنوعی ما را در مرحله دوم حدس می زنند، زیرا آنها بهتر از ما می دانند - یا اینطور که سازندگان آنها تصور می کنند. آنها کاملاً اشتباه نمی کنند. تصور کنید به دنبال دستور العملی برای عامل اعصاب هستید Novichok در گوگل یا از طریق جمینی، پاسخی دریافت می کنید که به شما امکان می دهد مردم را بکشید. این یک تهدید برای عموم مردم است.
علیرغم بیانیه ماموریت گوگل - "سازماندهی اطلاعات جهان و در دسترس قرار دادن آن در جهان و مفید کردن" - هیچ کس واقعاً انتظار ندارد که موتورهای جستجو یا مدل های هوش مصنوعی اطلاعات ساخت بمب را سازماندهی کنند و در دسترس همه قرار دهند. کنترل های ایمنی همراه با مسئولیت مورد نیاز است - تحریمی که صنعت فناوری همچنان از آن اجتناب می کند.
شما محصول و مرکز سود هستید
از آنجایی که محتوای تولید شده توسط کاربر و رسانه های اجتماعی در دهه 1990 تبدیل به چیزی شد که توسط محافظت از مسئولیت پلتفرم در بخش 230 قانون نجابت ارتباطی آمریکا در سال 1996 امکان پذیر شد، پلت فرم های فناوری مردم را تشویق به مشارکت و اشتراک گذاری محتوای دیجیتال کردند. آنها این کار را برای کسب درآمد از تولید محتوای بدون پرداخت از طریق تبلیغات بدون هزینه نظارت تحریریه انجام دادند. این یک ترتیب سودآور بوده است.
و هنگامی که مردم پستهای نفرتانگیز، نامناسب، غیرقانونی یا مشکلساز را به اشتراک میگذارند، پلتفرمهای فناوری به خطمشیهای تعدیل محتوا، پیمانکارانی که دستمزد کمتری دریافت کردهاند (اغلب از محتوایی که بازبینی میکنند آسیب میبینند) و اعلامیههای تبریک خود مبنی بر اینکه چقدر موارد سمی مسدود شده است، تکیه کردهاند. آنها همچنان به درو کردن پاداش های تعامل آنلاین ادامه می دهند.
گوگل، متا و دیگران سال هاست که این کار را به طور ناقص انجام می دهند. و همه در صنعت اذعان دارند که تعدیل محتوا است خوب انجام دادن سخت است. به زبان ساده، شما نمی توانید همه را راضی نگه دارید. و گاهی اوقات، شما در نهایت متهم می شوید تسهیل نسل کشی از طریق بی تفاوتی تلاش های شما برای تعدیل محتوا.
ناتوانی جمینی در بازتولید تصاویر تاریخی که با انتظارات نژادی و قومی مطابقت دارد، نشان دهنده جهل خود خدمت صنعت فناوری از شکست های قبلی و پربار در تعدیل محتوا است.
گوگل و دیگرانی که مدلهای هوش مصنوعی را ارائه میکنند، به گونهای درباره ایمنی صحبت میکنند که گویی به نوعی با تعدیل محتوای آنلاین متفاوت است. گاردریل ها برای اعتدال رسانه های اجتماعی خوب کار نمی کنند و برای مدل های هوش مصنوعی خوب کار نمی کنند. ایمنی هوش مصنوعی، مانند امنیت رسانه های اجتماعی، بیش از آنکه واقعی باشد، آرزویی است.
پاسخ، پیشبینی تمام سناریوهایی نیست که در آن مدلهای هوش مصنوعی - آموزشدیده در مورد سمیت اینترنت بدون فیلتر - میتوانند کمتر سمی شوند. همچنین آموزش مدلهای هوش مصنوعی فقط بر روی موادی که آنقدر رام میشوند که خروجی کمارزش تولید کنند، نخواهد بود. اگرچه هر دوی این رویکردها در زمینههای خاصی ارزش دارند.
پاسخ باید در لایه توزیع بیاید. پلتفرمهای فناوری که محتوای ایجاد شده توسط کاربر را توزیع میکنند – چه با هوش مصنوعی یا غیره ساخته شده باشند – باید در قبال انتشار محتوای نفرتانگیز، اطلاعات نادرست، نادرستی، تبلیغات سیاسی، تصاویر سوء استفاده جنسی و مواردی از این قبیل پاسخگوتر باشند.
مردم باید بتوانند از مدلهای هوش مصنوعی برای ایجاد هر آنچه تصور میکنند، استفاده کنند، همانطور که میتوانند با مداد، و در حال حاضر با مدلهای منبع باز میتوانند. اما آسیبی که می تواند از ابزارهای کاملاً کاربردی وارد شود، از تصاویر نشسته روی هارد دیسک محلی نیست. این به اشتراک گذاری محتوای مضر، تقویت الگوریتمی به آن تعامل، و غیرعملی بودن مسئول دانستن افراد برای مسموم کردن مردم است.
این ممکن است به این معنی باشد که پلتفرم هایی که برای کسب درآمد از اشتراک گذاری ساخته شده اند، ممکن است نیاز به تجدید نظر در مدل های کسب و کار خود داشته باشند. شاید توزیع محتوا بدون هزینه نظارت بر تحریریه پس از اجرای مجدد عملکردهای نظارتی به عنوان ناظر یا حفاظ، موجب صرفه جویی نشود.
سخنرانی باید رایگان باشد، اما این بدان معنا نیست که گفتن چیزهای وحشتناک باید بدون هزینه باشد. در نهایت، با توجه به انگیزههای مناسب، ما بهترین ناظر محتوا هستیم. ®
به روز شد تا در 2045 UTC، 23 فوریه اضافه شود
گوگل ارائه شده توضیحی در مورد آنچه که با مولد تصویر جمینی اتفاق افتاد و اینکه چگونه به نقطه ای رسید که به نظر می رسید از ترسیم دقیق افراد سفید پوست وحشت داشت.
به ما گفته شده است که کارمندان Google در تلاش خود برای تولید مطالبی که افراد غیرسفید پوست را از صحنه خارج می کند، بیش از حد غرامت پرداخت کرده اند. مدل حاصل به نوعی بیش از حد بیدار بود.
Prabhakar Raghavan، SVP Google، گفت: «اول، تنظیم ما برای اطمینان از اینکه Gemini نشان میدهد طیفی از افراد در بررسی مواردی که به وضوح نباید محدوده را نشان دهند، شکست خورده است.
و دوم، با گذشت زمان، مدل بسیار محتاطتر از آنچه در نظر داشتیم شد و به طور کامل از پاسخگویی به برخی درخواستها امتناع کرد - به اشتباه برخی از درخواستهای بسیار آنودین را حساس تفسیر کرد. این دو مورد باعث شد که مدل در برخی موارد بیش از حد جبران کند و در موارد دیگر بیش از حد محافظه کار باشد و به تصاویری خجالتآور و اشتباه منجر شود.»
رغوان گفت تا زمانی که نرم افزار تغییرات و آزمایشات گسترده ای را انجام ندهد، تولید تصویر دوباره روشن نخواهد شد.
او گفت: "من نمی توانم قول بدهم که جمینی گهگاه نتایج شرم آور، نادرست یا توهین آمیزی ایجاد نمی کند - اما می توانم قول بدهم که هر زمان که مشکلی را شناسایی کنیم به اقدامات خود ادامه خواهیم داد."
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://go.theregister.com/feed/www.theregister.com/2024/02/23/google_suspends_gemini/
- : دارد
- :است
- :نه
- :جایی که
- $UP
- 1996
- 7
- a
- قادر
- درباره ما
- سو استفاده کردن
- در دسترس
- حساب
- پاسخگو
- به درستی
- متهم
- عمل
- عمل
- واقعی
- اضافه کردن
- آگهی
- بزرگسالان
- پیشرفت
- ترسیده
- پس از
- عامل
- AI
- مدل های هوش مصنوعی
- الگوریتمی
- معرفی
- قبلا
- همچنین
- امریکا
- آمریکایی
- an
- و
- دیگر
- پاسخ
- پیش بینی
- هر
- رویکردها
- هستند
- استدلال
- مسلح
- دور و بر
- ترتیب
- AS
- At
- دسترس پذیری
- در دسترس
- اجتناب از
- مطلع
- به عقب
- برج میزان
- BE
- شد
- زیرا
- بوده
- بهترین
- بهتر
- مسدود شده
- بمب
- بالا بردن
- هر دو
- گسترده تر
- ساخته
- بوروکراتیک
- کسب و کار
- مدل های کسب و کار
- اما
- by
- CAN
- قابلیت های
- موارد
- محتاط
- معین
- تبادل
- فرزندان
- کلیسا
- به وضوح
- CO
- رنگ
- بیا
- ارتباط
- ترکیب
- محاسبه
- کامپیوتر
- محتوا
- تولید محتوا
- زمینه ها
- ادامه دادن
- ادامه
- پیمانکاران
- کمک
- گروه شاهد
- شرکت
- هزینه
- ایجاد
- ایجاد
- فرهنگ
- خطرات
- دیو
- اظهار شده
- بستگی دارد
- DID
- مختلف
- دیجیتال
- محتوای دیجیتال
- اطلاعات غلط
- توزیع کردن
- توزیع
- مختلف
- تنوع
- do
- میکند
- ندارد
- عمل
- دان
- راندن
- سرمقاله
- ادوارد
- ادوارد اسنودن
- تلاش
- فعال
- تشویق
- پایان
- نامزدی
- موتورهای حرفه ای
- اطمینان حاصل شود
- به طور کامل
- انصاف
- اروپایی ها
- حتی
- هر کس
- انتظارات
- انتظار می رود
- توضیح
- وسیع
- ناموفق
- شکست
- سقوط
- فوریه
- فیلترها برای تصفیه آب
- نام خانوادگی
- رفع
- برای
- نیروهای
- بنیادین
- فرانسیسکو
- رایگان
- از جانب
- کاملا
- تابعی
- توابع
- آینده
- برج جوزا
- سوالات عمومی
- عمومی
- عموما
- تولید می کنند
- تولید
- نسل
- ژنراتور
- آلمانی
- دریافت کنید
- غول
- داده
- رفته
- خوب
- گوگل
- کردم
- گراهام
- گروه
- اتفاق افتاده است
- سخت
- هارد دیسک
- صدمه
- مضر
- نفرت
- آیا
- he
- اینجا کلیک نمایید
- تاریخی
- برگزاری
- چگونه
- HTTPS
- i
- اندیشه
- شناسایی
- if
- جهل
- غیر مجاز
- تصویر
- تصاویر
- تصور کنید
- بلافاصله
- بهبود
- in
- عجز
- نادرست
- انگیزه
- گنجاندن
- صنعت
- اطلاعات
- اطلاعات
- در عوض
- مورد نظر
- اینترنت
- تفسیر
- نیست
- موضوع
- IT
- ITS
- خود
- JPG
- کشتن
- انواع
- دانستن
- شناخته شده
- برچسب
- عدم
- لایه
- برجسته
- سخنرانی ها
- رهبری
- کمتر
- اجازه می دهد تا
- بدهی
- پسندیدن
- محلی
- نگاه کنيد
- نافع
- ساخته
- ساخت
- سازندگان
- ساخت
- بسیاری
- علامت
- ماده
- ممکن است..
- شاید
- متوسط
- رسانه ها
- متا
- گم
- ماموریت
- حالت
- مدل
- مدل
- اعتدال
- کسب درآمد
- بیش
- بسیار
- باید
- نیاز
- ضروری
- NIH
- نه
- با وجود این
- ناسا
- of
- توهین آمیز
- ارائه
- ارائه
- غالبا
- on
- یک بار
- ONE
- آنلاین
- فقط
- باز کن
- منبع باز
- or
- دیگران
- در غیر این صورت
- ما
- خارج
- تولید
- روی
- نظارت
- خود
- زوج
- پل
- PBS
- مردم
- مربوط
- پی اچ پی
- تصویر
- سکو
- سیستم عامل
- افلاطون
- هوش داده افلاطون
- PlatoData
- لطفا
- نقطه
- مسمومیت
- سیاست
- سیاسی
- سیاست
- پست ها
- قبلی
- قبلا
- مشکل ساز
- تولید کردن
- محصول
- سود
- پربار
- وعده
- پرسیدن
- تبلیغات
- حفاظت
- ارائه
- عمومی
- تحت فشار قرار دادند
- قرار دادن
- جستجو
- سوالات
- سریع
- محدوده
- RE
- واقعا
- درو کنید
- تازه
- دستور العمل
- بازتاب می دهد
- رد
- منتشر شد
- نشان دادن
- رستوران
- نتیجه
- نتایج
- بررسی
- پاداش
- راست
- نورد
- s
- ایمنی
- سعید
- سان
- سان فرانسیسکو
- تصویب
- پس انداز
- گفته
- سناریوها
- جستجو
- موتورهای جستجو
- دوم
- بخش
- بخش 230
- ظاهرا
- می فرستد
- حساس
- خدمت
- جنسی
- اشتراک گذاری
- اشتراک
- کوتاه
- باید
- نشان
- نشان داد
- به سادگی
- نشسته
- اسنودن
- So
- آگاهی
- رسانه های اجتماعی
- نرم افزار
- برخی از
- به نحوی
- گاهی
- منبع
- فضا
- خاص
- بیانیه
- به حالت تعلیق
- روشن
- گرفتن
- صحبت
- فن آوری
- صنعت فناوری
- تست
- نسبت به
- که
- La
- جهان
- شان
- اینها
- آنها
- چیز
- اشیاء
- فکر می کنم
- این
- این هفته
- کسانی که
- اگر چه؟
- تهدید
- از طریق
- زمان
- به
- گفته شده
- هم
- ابزار
- آموزش دیده
- آموزش
- درمان
- میزان سازی
- دو
- به طور کلی
- تا
- us
- استفاده کنید
- استفاده
- مفید
- کاربر
- ساعت محلی UTC تنظیم شده اند
- ارزش
- ریسک
- سرمایه داری
- بسیار
- از طريق
- بود
- مسیر..
- we
- وب
- هفته
- خوب
- بود
- چی
- هر چه
- چه زمانی
- هر زمان که
- چه
- که
- در حین
- افشاگر
- ادوارد اسنودن افشاگر
- سفید
- WHO
- وسیع
- دامنه گسترده
- ویکیپدیا
- اراده
- با
- بدون
- برنده شد
- مهاجرت کاری
- کارگر
- جهان
- خواهد بود
- اشتباه
- سال
- شما
- شما
- زفیرنت