Зростання занепокоєння щодо безпеки ChatGPT підкреслює потребу в освіті громадськості та прозорості щодо ризиків ШІ

Зростання занепокоєння щодо безпеки ChatGPT підкреслює потребу в освіті громадськості та прозорості щодо ризиків ШІ

Зростання занепокоєння щодо безпеки ChatGPT підкреслює потребу в освіті громадськості та прозорості щодо ризиків штучного інтелекту PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Розвиток штучного інтелекту (ШІ) викликав хвилю занепокоєння щодо безпеки та конфіденційності, особливо в міру того, як ці технології стають все більш досконалими та інтегрованими в наше повсякденне життя. Одним із найвидатніших прикладів технології ШІ є ChatGPT, модель мови штучного інтелекту, яка була створена OpenAI і підтримується Microsoft. Наразі мільйони людей уже використовували ChatGPT з моменту його запуску в листопаді 2022 року.

Останніми днями пошук за запитом «чи безпечний ChatGPT?» різко зросли, оскільки люди в усьому світі висловлюють свою стурбованість потенційними ризиками, пов’язаними з цією технологією.

Згідно з даними Google Trends, пошуки за запитом «чи безпечний ChatGPT?» зросла на величезні 614% з 16 березня. Дані були виявлені Cryptomaniaks.com, провідна криптоосвітня платформа, яка допомагає новачкам і новачкам зрозуміти світ блокчейну та криптовалюти.

Зростання кількості пошуків інформації про безпеку ChatGPT підкреслює потребу в більшій освіті громадськості та прозорості щодо систем ШІ та їхніх потенційних ризиків. Оскільки технологія штучного інтелекту, як-от ChatGPT, продовжує розвиватися та інтегруватися в наше повсякденне життя, важливо вирішити проблеми безпеки, які виникають, оскільки використання ChatGPT або будь-якого іншого чат-бота штучного інтелекту може становити потенційну небезпеку.

ChatGPT розроблений, щоб допомогти користувачам генерувати людські відповіді на їхні запити та брати участь у розмові. Таким чином, проблеми з конфіденційністю є одним із найбільш значних ризиків, пов’язаних із використанням ChatGPT. Коли користувачі взаємодіють із ChatGPT, вони можуть ненавмисно ділитися особистою інформацією про себе, такою як своє ім’я, місцезнаходження та інші конфіденційні дані. Ця інформація може бути вразливою до хакерства чи інших форм кібератак.

Інше занепокоєння – можливість дезінформації. ChatGPT запрограмований на створення відповідей на основі вхідних даних, які він отримує від користувачів. Якщо вхідні дані неправильні або вводять в оману, ШІ може генерувати неточні або оманливі відповіді. Крім того, моделі штучного інтелекту можуть увічнити упередження та стереотипи, присутні в даних, на яких вони навчаються. Якщо дані, які використовуються для навчання ChatGPT, містять упереджену або упереджену мову, ШІ може генерувати відповіді, які зберігають ці упередження.

На відміну від інших помічників ШІ, таких як Siri або Alexa, ChatGPT не використовує Інтернет для пошуку відповідей. Натомість він генерує відповіді на основі шаблонів та асоціацій, які він дізнався з величезної кількості тексту, на якому його навчали. Він створює речення слово за словом, вибираючи найбільш вірогідне на основі своїх методів глибокого навчання, зокрема архітектури нейронної мережі під назвою трансформатор, для обробки та створення мови.

ChatGPT попередньо навчається на великій кількості текстових даних, включаючи книги, веб-сайти та інший онлайн-контент. Коли користувач вводить підказку або запитання, модель використовує своє розуміння мови та знання контексту підказки, щоб створити відповідь. І він, нарешті, приходить до відповіді, роблячи серію припущень, що частково є причиною того, чому він може дати вам неправильні відповіді.

Якщо ChatGPT навчається колективному написанню людей у ​​всьому світі та продовжує це робити, оскільки він використовується людьми, у моделі також можуть з’явитися ті самі упередження, які існують у реальному світі. У той же час цей новий і вдосконалений чат-бот чудово пояснює складні поняття, що робить його дуже корисним і потужним інструментом для навчання, але важливо не вірити всьому, що він говорить. ChatGPT, звичайно, не завжди правильний, ну, принаймні, поки що ні.

Зверніть увагу, що ці небезпеки не є унікальними для ChatGPT, вони також стосуються інших моделей ШІ. Щоб зменшити ці ризики, вкрай важливо, щоб ChatGPT використовувався відповідально та отримував точні та відповідні дані. Ми також повинні розуміти його обмеження.

Незважаючи на ці ризики, технологія штучного інтелекту, така як ChatGPT, має величезний потенціал для революції в різних галузях, включаючи блокчейн. Використання штучного інтелекту в технології блокчейн набирає обертів, особливо в таких сферах, як виявлення шахрайства, управління ланцюгом поставок і смарт-контракти. Нові боти на основі ШІ, наприклад ChainGPT, може допомогти новому блокчейн-бізнесу прискорити процес розвитку.

Однак важливо знайти баланс між інноваціями та безпекою. Розробники, користувачі та регулятори повинні працювати разом, щоб створити вказівки, які гарантуватимуть відповідальний розвиток і розгортання технології ШІ.

З останніх новин Італія стала першою західною країною, яка заблокувала просунутий чат-бот ChatGPT. Італійський орган із захисту даних висловив занепокоєння конфіденційністю, пов’язаною з цією моделлю. Регулятор заявив, що заборонить і розслідує OpenAI «з негайним ефектом».

Microsoft витратила на це мільярди доларів і минулого місяця додала інструмент чату штучного інтелекту в Bing. Він також повідомив, що планує вбудувати версію технології в свої програми Office, включаючи Word, Excel, PowerPoint і Outlook.

У той же час понад 1,000 експертів зі штучного інтелекту, дослідників і спонсорів приєдналися до заклику негайно призупинити створення штучного інтелекту принаймні на шість місяців, тому можливості та небезпеки систем типу ГПТ-4 можна належним чином вивчити.

Вимога міститься у відкритому листі, підписаному основними гравцями ШІ, зокрема: Елон Маск, який є співзасновником OpenAI, дослідницької лабораторії, що відповідає за ChatGPT і GPT-4; Емад Мостаке, який заснував лондонську компанію Stability AI; і Стів Возняк, співзасновник Apple.

У відкритому листі висловлено занепокоєння щодо можливості контролювати те, що неможливо повністю зрозуміти:

«В останні місяці лабораторії штучного інтелекту вийшли з-під контролю за розробкою та розгортанням все більш потужних цифрових розумів, які ніхто, навіть їхні творці, не можуть зрозуміти, передбачити або надійно контролювати. Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики – керованими».

Заклик до негайної паузи у створенні ШІ демонструє необхідність вивчення можливостей і небезпек таких систем, як ChatGPT і GPT-4. Оскільки технологія штучного інтелекту продовжує розвиватися та інтегруватися в наше повсякденне життя, вирішення проблем безпеки та забезпечення відповідальної розробки та розгортання штучного інтелекту є надзвичайно важливими.

Посилення занепокоєння щодо безпеки ChatGPT Підкреслити необхідність громадської освіти та прозорості щодо ризиків ШІ джерело https://blockchainconsultants.io/rising-concerns-about-chatgpt-safety-highlight-the-need-for-public-education-and-transparency -on-ai-risks/

<!–
->

Часова мітка:

Більше від Консультанти з блокчейнів