Палата представників США повідомляє співробітникам: «Немає вам Microsoft Copilot».

Палата представників США повідомляє співробітникам: «Немає вам Microsoft Copilot».

Палата представників США повідомляє співробітникам: жодного Microsoft Copilot для вас PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Співробітникам Палати представників Конгресу США заборонено використовувати чат-бот Microsoft Copilot та інструменти підвищення продуктивності штучного інтелекту до запуску версії, адаптованої до потреб державних користувачів.

Згідно з документами отриманий від Axios, головний адміністративний директор (CAO) Палати представників Кетрін Шпіндор видала наказ і повідомила персоналу, що Copilot «неавторизовано для використання в Палаті», і що послугу буде видалено та заблоковано з усіх пристроїв.

«Управління кібербезпеки визнало програму Microsoft Copilot небезпечною для користувачів через загрозу витоку даних Палати до хмарних служб, які не схвалені Палатою представників», — йдеться в документах.

Запущений наприкінці 2022 року Copilot — це набір безкоштовних і платних служб штучного інтелекту, які включені у все більшу кількість програм і веб-сервісів Microsoft, включаючи GitHub для генерації коду, Office 365 для автоматизації типових завдань і пошукову систему Bing від Redmond.

Рішення Палати про заборону Copilot не повинно стати несподіванкою, оскільки чат-бот зі штучним інтелектом побудовано на основі тих самих моделей, розроблених OpenAI для забезпечення ChatGPT, а минулого року Палата обмежений використання цього інструменту співробітниками.

Побоювання щодо конфіденційності та безпеки даних, особливо на урядовому рівні, породили концепцію суверенний ШІ – здатність країни розробляти моделі ШІ, використовуючи власні дані та ресурси.

Microsoft є робочий про урядову версію програм Copilot, адаптовану до вищих вимог безпеки, спрямовану на розвіювання цих страхів. Офіс CAO палати оцінить урядову версію пакету, коли вона стане доступною пізніше цього року.

Побоювання Шпіндора щодо того, що дані, які використовує штучний інтелект, потраплять не в ті руки, цілком обґрунтовані: у червні 2023 року Samsung, як повідомляється, витік свої власні секрети в ChatGPT принаймні тричі. Це тому, що підказки користувачів часто використовуються розробниками ШІ для навчання майбутніх ітерацій моделі.

За місяць до фіаско в даних Samsung генеральний директор OpenAI Сем Альтман звинувачують помилка в бібліотеці з відкритим кодом через витік історії чатів. Снафу дозволив деяким користувачам бачити фрагменти розмов інших – це не зовсім те, що ви хотіли б мати з секретними документами. ®

Часова мітка:

Більше від Реєстр