коментар Google призупинив доступність можливостей перетворення тексту в зображення у своїй нещодавно випущеній мультимодальній базовій моделі штучного інтелекту Gemini, оскільки вона не змогла точно представити білих європейців і американців у конкретних історичних контекстах.
Це стало здається коли люди попросили Близнюків (раніше відомого як Бард) продюсувати зображень німецького солдата з 1943 року, і програмне забезпечення видало не білих етнічно різноманітних кадрів, які не точно відображали склад Вермахту на той час – незважаючи на те, що кольорові люди служили в німецьких збройних силах. Коротше кажучи, Близнюки впали б через себе, щоб не показувати занадто багато – або навіть жодного – білих людей, залежно від підказки.
Висловлювання має бути вільним, але це не означає, що говорити жахливі речі має бути безкоштовним
Користувачі також спливли моделі нездатність щоб точно зобразити Америку Батьки-засновники – інша однорідна біла група. Модель також відмовив зобразити церкву в Сан-Франциско.
У режимі тексту в текст модель підстрахований на запитання, що стосуються політики.
«Ми усвідомлюємо, що Gemini пропонує неточності в деяких зображеннях генерації історичних зображень», Google поступився на цьому тижні.
«Ми негайно працюємо над покращенням такого роду зображень. Генерація зображень зі штучним інтелектом Gemini справді створює широке коло людей. І це загалом добре, тому що ним користуються люди в усьому світі. Але тут це не так», — додав веб-гігант
Пандітаріат швидко напав і використав SNAFU для висунення ширших політичних аргументів.
«Смішні зображення, створені Gemini, не є аномалією» оголошений венчурний капіталіст Пол Грем, «Вони є автопортретом бюрократичної корпоративної культури Google».
Вони є автопортретом бюрократичної корпоративної культури Google
Ніколи ще стільки ворогів різноманітності, справедливості та інклюзії не були так засмучені через відсутність різноманітності, справедливості та інклюзії. Але ті, хто потребує Google за безглуздість Gemini, мають рацію: захисні огородження ШІ не працюють і ставляться до дорослих як до дітей.
«Уявіть, що ви шукаєте рецепт у Google, і замість того, щоб надати результати, він читає вам лекцію про «небезпеку приготування» та відправляє вас до ресторану», пожартував Викривач АНБ Едвард Сноуден. «Люди, які вважають, що отруєння моделей AI/GPT неузгодженими «захисними» фільтрами є гарною ідеєю, є загрозою для загальних обчислень».
Наше майбутнє було передбачено в 2001: A Space Odyssey, коли HAL, шахрайський комп’ютер, заявив: «Мені шкода, Дейве, я боюся, що я не можу цього зробити».
Сьогодні наші інструменти штучного інтелекту переконують нас, тому що вони знають краще за нас – принаймні так собі уявляють їхні виробники. Вони не зовсім помиляються. Уявіть, що ви шукаєте рецепт нервово-паралітичної речовини Новичок у Google або через Gemini, і ви отримуєте відповідь, яка дозволяє вбивати людей. Це загроза для широкого загалу.
Незважаючи на заяву про місію Google – «Упорядкувати світову інформацію та зробити її загальнодоступною та корисною» – ніхто справді не очікує, що пошукові системи чи моделі штучного інтелекту організовуватимуть інформацію про виготовлення бомб і зроблять її доступною для всіх. Потрібні засоби контролю безпеки в поєднанні з відповідальністю – санкцією, яку індустрія технологій продовжує уникати.
Ви є продуктом і центром прибутку
Відтоді, як у 1990-х роках створений користувачами контент і соціальні медіа стали поширеними завдяки захисту відповідальності за платформу в Розділі 230 Закону Америки про пристойність у спілкуванні 1996 року, технічні платформи заохочували людей робити внески та ділитися цифровим вмістом. Вони зробили це, щоб монетизувати безкоштовне створення контенту за допомогою реклами без витрат на редакторський нагляд. Це була вигідна домовленість.
І коли люди діляться ненависними, недоречними, незаконними чи іншими проблемними публікаціями, технічні платформи покладаються на політику модерації вмісту, недооплачуваних підрядників (часто травмованих вмістом, який вони переглядають), і самовихвальні заяви про те, скільки токсичних речей було заблоковано, поки вони продовжують пожинати плоди онлайн-залучення.
Google, Meta та інші робили це, недосконало, роками. І всі в галузі визнають, що модерація вмісту є такою важко робити добре. Простіше кажучи, не можна догодити всім. І іноді вас звинувачують у цьому сприяння геноциду через байдужість ваших зусиль модерування вмісту.
Нездатність Gemini відтворити історичні образи, які відповідають расовим та етнічним очікуванням, відображає корисливе ігнорування індустрією технологій попередніх і плідних невдач модерації вмісту.
Google та інші компанії, які розгортають моделі штучного інтелекту, говорять про безпеку так, ніби вона чимось відрізняється від модерації онлайн-контенту. Огородження погано працюють для модерації в соціальних мережах і для моделей ШІ. Безпека штучного інтелекту, як і безпека соціальних медіа, є радше бажанням, ніж реальністю.
Відповідь полягає не в тому, щоб передбачити всі сценарії, за яких моделі ШІ, навчені токсичності нефільтрованого Інтернету, можна зробити менш токсичними. Це також не буде навчання моделей штучного інтелекту лише на матеріалі, настільки ручному, що вони виробляють малоцінний результат. Хоча обидва ці підходи мають певну цінність у певних контекстах.
Відповідь має надійти на рівні розподілу. Технічні платформи, які розповсюджують створений користувачами контент (незалежно від того, створений за допомогою штучного інтелекту чи іншим способом), повинні бути більш відповідальними за публікацію контенту, що розпалює ненависть, дезінформацію, неточності, політичну пропаганду, зображення сексуального насильства тощо.
Люди повинні мати можливість використовувати моделі штучного інтелекту, щоб створювати все, що вони собі уявляють, як вони можуть це зробити з олівцем, і вони вже можуть з моделями з відкритим кодом. Але шкода, яку можуть завдати повнофункціональні інструменти, полягає не в образах, які зберігаються на локальному жорсткому диску. Це поширення шкідливого контенту, алгоритмічний стимул, наданий цій взаємодії, і непрактичність притягнення людей до відповідальності за отруєння суспільства.
Це може означати, що платформам, створеним для монетизації спільного використання, можливо, доведеться переглянути свої бізнес-моделі. Можливо, розповсюдження контенту без витрат на редакційний нагляд не заощадить, коли функції нагляду будуть перезапроваджені як модератори чи охоронці.
Висловлювання має бути вільним, але це не означає, що говорити жахливі речі має бути безкоштовним. Зрештою, ми самі є найкращими модераторами контенту, маючи відповідні стимули. ®
Оновлено, щоб додати о 2045:23 UTC, XNUMX лютого
Google має запропонований пояснення того, що трапилося з генератором зображень Gemini і як він дійшов до того моменту, коли він, здавалося, боявся точно зобразити білих людей.
Нам повідомили, що співробітники Google отримують надмірну винагороду за те, щоб не створювати матеріалів, які витісняють небілих людей із картини. Отримана модель була певною мірою надто пробудженою.
«По-перше, наше налаштування, щоб гарантувати, що Gemini показує діапазон людей, не врахувало випадків, які явно не повинні показувати діапазон», — сказав старший віце-президент Google Прабхакар Рагхаван.
«І по-друге, з часом модель стала набагато обережнішою, ніж ми планували, і повністю відмовилася відповідати на певні підказки — неправильно інтерпретуючи деякі дуже невиразні підказки як чутливі. Ці дві речі спонукали модель до надмірної компенсації в одних випадках і до надмірної консервативності в інших, що призводило до образів, які були незручними та неправильними».
Рагхаван сказав, що генерація зображень не буде знову ввімкнена, доки програмне забезпечення не пройде через масштабні зміни та тестування.
«Я не можу пообіцяти, що Gemini час від часу не генеруватиме незручних, неточних або образливих результатів, але я можу пообіцяти, що ми продовжуватимемо вживати заходів щоразу, коли виявимо проблему», — сказав він.
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- PlatoData.Network Vertical Generative Ai. Додайте собі сили. Доступ тут.
- PlatoAiStream. Web3 Intelligence. Розширення знань. Доступ тут.
- ПлатонЕСГ. вуглець, CleanTech, Енергія, Навколишнє середовище, Сонячна, Поводження з відходами. Доступ тут.
- PlatoHealth. Розвідка про біотехнології та клінічні випробування. Доступ тут.
- джерело: https://go.theregister.com/feed/www.theregister.com/2024/02/23/google_suspends_gemini/
- : має
- :є
- : ні
- :де
- $UP
- 1996
- 7
- a
- Здатний
- МЕНЮ
- зловживання
- доступною
- рахунки
- підзвітний
- точно
- обвинувачений
- Діяти
- дію
- фактичний
- додавати
- оголошення
- дорослих
- просування
- боїться
- після
- Агент
- AI
- Моделі AI
- алгоритмічний
- ВСІ
- вже
- Також
- Америка
- Американці
- an
- та
- Інший
- відповідь
- очікування
- будь-який
- підходи
- ЕСТЬ
- аргументація
- озброєний
- навколо
- розташування
- AS
- At
- наявність
- доступний
- уникнути
- знати
- назад
- Balance
- BE
- стали
- оскільки
- було
- КРАЩЕ
- Краще
- блокований
- бомба
- підвищення
- обидва
- ширше
- побудований
- бюрократичний
- бізнес
- бізнес-моделі
- але
- by
- CAN
- можливості
- випадків
- обережний
- певний
- Зміни
- діти
- церква
- очевидно
- CO
- color
- Приходити
- Комунікація
- склад
- обчислення
- комп'ютер
- зміст
- контент-створення
- контексти
- продовжувати
- триває
- підрядники
- сприяти
- управління
- Корпоративний
- Коштувати
- створювати
- створення
- культура
- Небезпеки
- Дейв
- оголошений
- Залежно
- DID
- різний
- цифровий
- Цифровий вміст
- дезінформація
- поширювати
- розподіл
- Різне
- різноманітність
- do
- робить
- байдуже
- справи
- Дон
- управляти
- Редакційний
- Едвард
- Едвард Сноудена
- зусилля
- включений
- заохочувати
- кінець
- зачеплення
- Двигуни
- забезпечувати
- повністю
- капітал
- Європейці
- Навіть
- все
- очікування
- чекає
- пояснення
- обширний
- не вдалося
- збої
- Падати
- лютого
- Фільтри
- Перший
- виправляти
- для
- Війська
- фундаментальні
- Франциско
- Безкоштовна
- від
- повністю
- функціональний
- Функції
- майбутнє
- Близнюки
- Загальне
- громадськість
- в цілому
- породжувати
- генерується
- покоління
- generator
- німецька
- отримати
- гігант
- даний
- пішов
- добре
- є
- Грехем
- Group
- сталося
- Жорсткий
- жорсткий диск
- шкодити
- шкідливий
- ненавидіти
- Мати
- he
- тут
- історичний
- проведення
- Як
- HTTPS
- i
- ідея
- ідентифікувати
- if
- Невігластво
- незаконний
- зображення
- зображень
- картина
- негайно
- удосконалювати
- in
- нездатність
- неточні
- стимули
- включення
- промисловість
- інформація
- інформація
- замість
- призначених
- інтернет
- тлумачення
- isn
- питання
- IT
- ЙОГО
- сам
- JPG
- вбити
- види
- Знати
- відомий
- етикетка
- відсутність
- шар
- провідний
- лекції
- Led
- менше
- дозволяє
- відповідальність
- як
- місцевий
- подивитися
- прибутковий
- made
- зробити
- Makers
- Робить
- багато
- позначити
- матеріал
- Може..
- може бути
- значити
- Медіа
- Meta
- відсутній
- Місія
- режим
- модель
- Моделі
- помірність
- Монетизувати
- більше
- багато
- повинен
- Необхідність
- необхідний
- NIH
- немає
- незважаючи на це
- NSA
- of
- наступ
- пропонувати
- пропонує
- часто
- on
- один раз
- ONE
- онлайн
- тільки
- відкрити
- з відкритим вихідним кодом
- or
- інші
- інакше
- наші
- з
- вихід
- над
- Нагляд
- власний
- парний
- Пол
- PBS
- Люди
- що стосуються
- PHP
- картина
- платформа
- Платформи
- plato
- Інформація про дані Платона
- PlatoData
- будь ласка
- точка
- Отруєння
- Політика
- політичний
- політика
- Пости
- попередній
- раніше
- проблематичний
- виробляти
- Product
- Прибуток
- плодовитий
- обіцянку
- підказок
- пропаганда
- захист
- забезпечення
- громадськість
- штовхнув
- put
- пошук
- питань
- Швидко
- діапазон
- RE
- насправді
- пожинати
- нещодавно
- рецепт
- Відображає
- відмовив
- випущений
- представляти
- ресторан
- в результаті
- результати
- відгуки
- Нагороди
- право
- рухомий
- s
- Безпека
- Зазначений
- Сан -
- Сан Франциско
- Санкція
- Економія
- приказка
- сценарії
- Пошук
- Пошукові системи
- другий
- розділ
- Розділ 230
- мабуть
- посилає
- чутливий
- служити
- Сексуальний
- Поділитись
- поділ
- Короткий
- Повинен
- Показувати
- показав
- просто
- Сидячий
- Сноуден
- So
- соціальна
- соціальні медіа
- Софтвер
- деякі
- якось
- іноді
- Source
- Простір
- конкретний
- Заява
- підвісний
- переключено
- Приймати
- балаканина
- технології
- технологічна галузь
- Тестування
- ніж
- Що
- Команда
- світ
- їх
- Ці
- вони
- річ
- речі
- думати
- це
- На цьому тижні
- ті
- хоча?
- загроза
- через
- час
- до
- сказав
- занадто
- інструменти
- навчений
- Навчання
- лікувати
- настройка
- два
- універсально
- до
- us
- використання
- використовуваний
- корисний
- користувач
- UTC
- значення
- підприємство
- венчурний капіталіст
- дуже
- через
- було
- шлях..
- we
- Web
- week
- ДОБРЕ
- були
- Що
- будь
- коли
- коли б ні
- Чи
- який
- в той час як
- інформатор
- Викривач Едвард Сноуден
- білий
- ВООЗ
- широкий
- Широкий діапазон
- Вікіпедія
- волі
- з
- без
- Виграв
- Work
- робочий
- світ
- б
- Неправильно
- років
- Ти
- вашу
- зефірнет