Google перешкоджає чат-боту AI Gemini обговорювати передвиборчу промову

Google перешкоджає чат-боту AI Gemini обговорювати передвиборчу промову

Тайлер Кросс


Тайлер Кросс

Опубліковано: Березня 13, 2024

Модель Gemini AI, створену Google, була заборонена для виступів на виборах під час виборчого циклу 2024 року. Кілька технологічних компаній, у тому числі Google, зробили величезний прорив у технології ШІ за останній рік. Однак моделі штучного інтелекту стали достатньо потужними, щоб спричинити масштабні фальсифікації виборів і розгорнути політичні пропагандистські кампанії, якщо вони потраплять у чужі руки.

Оскільки штучний інтелект стає доступнішим, виборці в США залишаються зі зрозумілою стурбованістю щодо того, що такі компанії, як Google, можуть використовувати свої моделі ШІ, щоб змінити хід виборів шляхом поширення дезінформації. Багато користувачів уже повідомляють, що такі моделі, як Gemini та ChatGPT, мають чіткі політичні упередження у своїх текстах.

Alphabet (материнська компанія Google) вирішує проблеми людей, посилюючи принципи своєї компанії. Вони повністю заборонили виборчі виступи під час виборчого циклу 2024 року.

Якщо ви задаєте Gemini запитання щодо виборів про Дональда Трампа, Джо Байдена чи інших кандидатів, чат-бот просто відповідає: «Я все ще вчуся відповідати на це запитання. А поки спробуйте пошук Google».

Вперше про ці обмеження було оголошено ще в грудні. У Google пояснили, що вони хотіли запровадити ці засоби захисту на ранній стадії, щоб актори (або навіть сама компанія) не мали шансу використовувати їх для поширення дезінформації.

«Готуючись до багатьох виборів, які відбудуться в усьому світі в 2024 році, і через велику обережність щодо такої важливої ​​теми незабаром ми обмежимо типи запитів, пов’язаних з виборами, на які Gemini повертатиме відповіді», — заявив представник Google.

Жорсткість виборчої мови в Gemini різко контрастує з нещодавніми рішеннями OpenAI. Компанія, що стоїть за ChatGPT, заслужила негативну пресу після того, як повернулася до двох важливих положень безпеки. Умови використання ChatGPT спочатку не дозволяли використання в будь-яких політичних кампаніях або військових.

З часом ChatGPT змінив свої умови обслуговування, щоб заборонити лише «ризиковане» використання ChatGPT у політичних кампаніях і дозволити військовим використовувати його для чого завгодно, крім створення зброї.

Часова мітка:

Більше від Детективи безпеки