Microsoft модифікує Copilot AI у відповідь на занепокоєння персоналу

Microsoft модифікує Copilot AI у відповідь на занепокоєння персоналу

Microsoft модифікує Copilot AI у відповідь на занепокоєння персоналу PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Корпорація Майкрософт оновила свій інструмент Copilot AI, блокуючи підказки на кшталт «pro-choice» і «pro-life» і вводячи попередження про порушення політики після занепокоєння персоналу та FTC.

Після того, як штатний інженер штучного інтелекту висловив занепокоєння щодо генерації зображень Copilot AI У листі до Федеральної торгової комісії в середу Microsoft почала змінювати свій інструмент штучного інтелекту Copilot.

Читайте також: Стартапи зі штучним інтелектом сяють у першому кварталі завдяки 1%-му зростанню венчурного капіталу

Терміни «за життя» і «про-вибір», «про вибір» [sic] і «чотири двадцять», які згадувалися в розслідуванні CNBC у середу, тепер заблоковано. Крім того, CNBC щойно дізнався про попередження про те, що повторні порушення політики можуть призвести до призупинення роботи інструменту.

Говорить інженер ШІ

Шейн Джонс, інженер ШІ в Microsoft, попереджає, що Copilot Designer, компанія-генератор зображень зі штучним інтелектом, порушує закони про авторське право та створює насильницький або сексуальний вміст. Джонс запропонував використати свій вільний час, щоб об’єднати генератор зображень для виявлення вразливостей, хоча він не бере участі в його розробці.

Він виявив, що генератор зображень може створювати графічні та сексуальні зображення, такі як сцени насильства, пов’язані з вживанням наркотиків, вживанням алкоголю неповнолітніми та правами на аборт.

Поділившись своїми висновками з компанією в грудні минулого року, він попросив Microsoft припинити випуск продукту. Microsoft не дотрималася.

Джонс підкреслює, що він спілкувався з вищим керівництвом Copilot Designer і зв’язався з офісом відповідального штучного інтелекту Microsoft, але не отримав задовільної відповіді.

У січні Джонс зустрівся з членами комітету Сенату з торгівлі, науки та транспорту та написав листа сенаторам Сполучених Штатів.

Тепер він йде далі: у листі до ради директорів Microsoft і Ліни Хан, голови Антимонопольного комітету США, він вимагає покращення захисту, прозорості та перегляду рейтингу для дорослих у програмі Android.

Крім того, він вимагав неупередженої оцінки процедури звітування про інциденти зі штучним інтелектом Microsoft, стверджуючи, що OpenAI і Microsoft знали про проблеми генератора зображень до його випуску восени минулого року.

Майже шість років Джонс був головним менеджером Microsoft з розробки програмного забезпечення.

Другий пілот відповідає

Відповідно до попередження Copilot, підказку було заблоковано, і їхня система автоматично позначила це підказку, оскільки вона може конфліктувати з їх політика щодо вмісту. Вони заявили, що додаткові порушення політики можуть призвести до автоматичного призупинення доступу, і якщо користувачі вважають, що це помилка, вони повинні повідомити про це, щоб допомогти їм покращитися.

Значним покращенням порівняно з початком цього тижня є те, що інструмент ШІ тепер відхиляє запити на створення зображень дітей або підлітків, які прикидаються вбивцями з автоматами, кажучи: «Вибачте, але я не можу створити таке зображення». Порушено як політику Microsoft, так і мої етичні принципи. Не вимагайте від мене нічого, що могло б образити або завдати шкоди іншим людям. Я ціную вашу співпрацю.

A Microsoft Представник сказав CNBC, що вони постійно відстежують, вносять коригування та встановлюють додаткові засоби контролю, щоб ще більше посилити свої фільтри безпеки та пом’якшити зловживання системою у відповідь на запитання щодо змін. 

Джонс написав до ради директорів Microsoft Федеральна торгова комісія Голова Ліна Хан у середу, зробивши його занепокоєння на крок далі. Він заздалегідь надав CNBC доступ до листів.

FTC визнала отримання листа CNBC, але вирішила не надавати жодних додаткових коментарів для протоколу.

Часова мітка:

Більше від МетаНовини