Три головні проблеми конфіденційності даних, з якими сьогодні стикається штучний інтелект - The Daily Hodl

Три головні проблеми конфіденційності даних, з якими сьогодні стикається ШІ – The Daily Hodl

Повідомлення гостей HodlX  Відправте своє повідомлення

 

ШІ (штучний інтелект) викликав шалене хвилювання серед споживачів і компаній - Керуючись пристрасною вірою в те, що LLM (великі мовні моделі) і такі інструменти, як ChatGPT, змінять спосіб навчання, роботи та життя.

Але, як і на початку існування Інтернету, користувачі втручаються, не замислюючись про те, як використовуються їхні особисті дані - aй вплив, який це може мати на їх конфіденційність.

Уже є незліченна кількість прикладів витоку даних у просторі ШІ. У березні 2023 року OpenAI тимчасово взяв ChatGPT offline після «значної» помилки означало, що користувачі могли бачити історії розмов незнайомців.

Цей же баг стосувався платіжної інформації передплатників - включаючи імена, адреси електронної пошти та часткові номери кредитних карток - також були у відкритому доступі.

У вересні 2023 року приголомшливі 38 терабайт даних Microsoft були випадково витік співробітником, при цьому експерти з кібербезпеки попереджають, що це могло дозволити зловмисникам проникнути в моделі ШІ за допомогою шкідливого коду.

Дослідники також змогли маніпулювати Системи штучного інтелекту в розкритті конфіденційних записів.

Всього за кілька годин група під назвою Robust Intelligence змогла вимагати особисту інформацію від програмного забезпечення Nvidia та обійти захисні заходи, спрямовані на те, щоб система не могла обговорювати певні теми.

З усіх цих сценаріїв було винесено уроки, але кожне порушення яскраво ілюструє виклики, які потрібно подолати, щоб ШІ став надійною та надійною силою в нашому житті.

Gemini, чат-бот Google, навіть визнає, що всі розмови обробляються рецензентами - підкреслюючи відсутність прозорості в її системі.

«Не вводьте нічого, що ви не хотіли б переглядати або використовувати», — йдеться в попередженні для користувачів.

Штучний інтелект швидко виходить за межі інструменту, який використовують учні для виконання домашнього завдання або на який покладаються туристи, щоб отримати рекомендації під час поїздки до Риму.

Це все більше залежить від делікатних дискусій - і пояснили все, від медичних питань до нашого робочого графіка.

Через це важливо зробити крок назад і поміркувати над трьома головними проблемами конфіденційності даних, з якими сьогодні стикається ШІ, і чому вони важливі для всіх нас.

1. Підказки не є приватними

Такі інструменти, як ChatGPT, запам’ятовують минулі розмови, щоб повернутися до них пізніше. Хоча це може покращити взаємодію з користувачем і допомогти в навчанні LLM, це пов’язано з ризиком.

Якщо систему успішно зламано, існує реальна небезпека оприлюднення підказок на публічному форумі.

Потенційно незручні деталі з історії користувача можуть витікати, а також комерційно конфіденційна інформація, коли ШІ розгортається для робочих цілей.

Як ми бачили від Google, усі подання також можуть бути ретельно перевірені його командою розробників.

Samsung вжила заходів щодо цього в травні 2023 року, коли повністю заборонила своїм співробітникам використовувати генеративні інструменти ШІ. Це прийшло після працівника завантажено конфіденційний вихідний код для ChatGPT.

Технологічний гігант був стурбований тим, що цю інформацію буде важко отримати та видалити, а це означає, що ІВ (інтелектуальна власність) може стати загальнодоступною.

Apple, Verizon і JPMorgan вжили подібних заходів, і звіти свідчать про те, що Amazon розпочала репресії після того, як відповіді від ChatGPT мали схожість із власними внутрішніми даними.

Як бачите, занепокоєння поширюється не тільки на те, що станеться в разі витоку даних, але й на те, що інформація, введена в системи ШІ, може бути перепрофільована та поширена серед ширшої аудиторії.

Такі компанії, як OpenAI, уже є облицювання численні судові процеси на тлі звинувачень у тому, що їхні чат-боти навчалися з використанням матеріалів, захищених авторським правом.

2. Спеціальні моделі ШІ, навчені організаціями, не є приватними

Це підводить нас до наступного пункту - хоча окремі особи та корпорації можуть створювати власні моделі LLM на основі власних джерел даних, вони не будуть повністю приватними, якщо існують у межах такої платформи, як ChatGPT.

Зрештою, неможливо дізнатися, чи використовуються вхідні дані для навчання цих масивних систем - або чи може особиста інформація використовуватися в майбутніх моделях.

Подібно до головоломки, дані з багатьох джерел можна об’єднати, щоб сформувати вичерпну та надзвичайно детальну інформацію про особу та історію людини.

Основні платформи також можуть не пропонувати детальні пояснення того, як ці дані зберігаються та обробляються, і не можуть відмовитися від функцій, які незручні для користувача.

Окрім відповіді на підказки користувача, системи штучного інтелекту дедалі більше мають здатність читати між рядків і визначати все, від місця розташування людини до її особистості.

У разі витоку даних можливі жахливі наслідки. Неймовірно витончені фішингові атаки можуть бути організовані - і користувачів, націлених на інформацію, яку вони конфіденційно ввели в систему ШІ.

Інші потенційні сценарії включають використання цих даних для припущення чиєїсь особи, чи то через додатки для відкриття банківських рахунків, чи підроблені відео.

Споживачі повинні залишатися пильними, навіть якщо вони самі не використовують ШІ. ШІ все частіше використовується для забезпечення систем спостереження та покращення технології розпізнавання облич у громадських місцях.

Якщо така інфраструктура не буде створена в дійсно приватному середовищі, громадянські свободи та приватне життя незліченної кількості громадян можуть бути порушені без їх відома.

3. Приватні дані використовуються для навчання систем ШІ

Є занепокоєння, що основні системи штучного інтелекту накопичили свій інтелект, переглядаючи незліченну кількість веб-сторінок.

За оцінками, для навчання ChatGPT було використано 300 мільярдів слів - це 570 гігабайт даних - із книгами та записами у Вікіпедії серед наборів даних.

Відомо також, що алгоритми залежать від сторінок у соціальних мережах і онлайн-коментарів.

З деякими з цих джерел можна стверджувати, що власники цієї інформації мали б розумне очікування конфіденційності.

Але ось що - на багато інструментів і програм, з якими ми щодня взаємодіємо, вже сильно впливає ШІ - і реагувати на нашу поведінку.

Face ID на вашому iPhone використовує AI для відстеження незначних змін вашої зовнішності.

Алгоритми TikTok і Facebook на основі штучного інтелекту пропонують рекомендації щодо вмісту на основі кліпів і публікацій, які ви переглядали в минулому.

Голосові помічники, такі як Alexa та Siri, теж сильно залежать від машинного навчання.

Існує запаморочлива плеяда стартапів зі штучним інтелектом, і кожен має певну мету. Однак деякі більш прозорі, ніж інші, щодо того, як дані користувачів збираються, зберігаються та застосовуються.

Це особливо важливо, оскільки ШІ впливає на сферу охорони здоров’я - від медичної візуалізації та діагностики до ведення документації та фармацевтичних препаратів.

Необхідно витягти уроки з інтернет-бізнесу, який останніми роками потрапив у скандали щодо конфіденційності.

Flo, додаток для здоров’я жінок, був обвинувачений регулюючими органами ділилися інтимними подробицями про своїх користувачів таким компаніям, як Facebook і Google у 2010-х роках.

Куди нам далі

ШІ матиме незгладимий вплив на наше життя в найближчі роки. LLM з кожним днем ​​стають кращими, і продовжують з’являтися нові випадки використання.

Однак існує реальний ризик того, що регуляторам буде важко встигати, оскільки галузь розвивається шаленою швидкістю.

А це означає, що споживачі повинні почати захищати власні дані та стежити за тим, як вони використовуються.

Децентралізація може відіграти тут життєво важливу роль і запобігти потраплянню великих обсягів даних у руки основних платформ.

DePIN (мережі децентралізованої фізичної інфраструктури) мають потенціал, щоб гарантувати, що звичайні користувачі відчують усі переваги штучного інтелекту без шкоди для їх конфіденційності.

Зашифровані підказки не тільки можуть забезпечувати набагато більш персоналізовані результати, але LLM, що зберігають конфіденційність, забезпечать користувачам повний контроль над своїми даними в будь-який час - і захист від неправомірного використання.


Кріс Вер є генеральним директором компанії Веріда, децентралізована самосуверенна мережа даних, яка дає людям можливість контролювати свою цифрову ідентифікацію та особисті дані. Кріс – австралійський технологічний підприємець, який понад 20 років присвятив розробці інноваційних програмних рішень.

 

Перевірте останні заголовки на HodlX

Слідкуй за нами на Twitter Facebook Telegram

Від'їзд Останні анонси галузі  

Top Three Data Privacy Issues Facing AI Today - The Daily Hodl PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Відмова: Думки, висловлені на The Daily Hodl, не є інвестиційною порадою. Інвестори повинні зробити належну ретельність, перш ніж робити будь-які інвестиції з високим ризиком в біткойн, криптовалюту або цифрові активи. Будь ласка, майте на увазі, що ваші перекази та торги піддаються вашому власному ризику, а будь-які втрати, які ви можете понести, - це ваша відповідальність. Daily Hodl не рекомендує купувати чи продавати будь-які криптовалюти чи цифрові активи, також не є Daily Hodl інвестиційним консультантом. Зверніть увагу, що Daily Hodl бере участь у партнерському маркетингу.

Створене зображення: Midjourney

Часова мітка:

Більше від Daily Hodl