Якщо чат-боти зі штучним інтелектом розумні, вони також можуть бути білками. PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Якщо чат-боти зі штучним інтелектом розумні, вони теж можуть бути білками

Коротко Ні, чат-боти зі штучним інтелектом не розумні.

Тільки-но історія про інженера Google, який стверджував про те, що, за його словами, була модель розумної мови, стало вірусним, кілька публікацій втрутилися, щоб сказати, що він не правий.

Команда дебати про те, чи є компанія чат-бот LaMDA свідомий, має душу чи ні, це не дуже добре, лише тому, що надто легко закрити ту сторону, яка вірить, що вона є. Як і більшість великих мовних моделей, LaMDA має мільярди параметрів і була навчена на тексті, взятому з Інтернету. Модель вивчає зв’язки між словами та дізнається, які з них, швидше за все, з’являться поруч.

Він виглядає досить розумним і іноді може правильно відповідати на запитання. Але він нічого не знає про те, що говорить, і не має справжнього розуміння мови чи чогось насправді. Мовні моделі поводяться випадково. Запитайте його, чи є у нього почуття, і він може відповісти так чи немає. Запитайте, чи це а білка, і це також може сказати так чи ні. Чи можливо, що чат-боти ШІ насправді можуть бути білками?

FTC викликає тривогу щодо використання штучного інтелекту для модерації вмісту

ШІ змінює Інтернет. У профілях фальшивих акаунтів у соцмережах використовуються реалістичні фотографії, поширюються порнографічні фейкові відео з жінками, зображення та текст, створені за допомогою алгоритмів, викладаються в Інтернет.

Експерти попереджають, що ці можливості можуть підвищити ризики шахрайства, ботів, дезінформації, переслідувань та маніпуляцій. Платформи все частіше звертаються до алгоритмів штучного інтелекту для автоматичного виявлення та видалення шкідливого вмісту.

Тепер FTC попереджає, що ці методи можуть погіршити проблеми. «У нашому звіті наголошується, що ніхто не повинен розглядати ШІ як рішення для поширення шкідливого онлайн-контенту», – Семюел Левайн, директор Бюро захисту прав споживачів Федеральної торгової комісії США, сказав в заяві.

На жаль, технологія може бути «неточна, упереджена та дискримінаційна за своїм дизайном». «Боротьба зі шкодою в Інтернеті вимагає широких зусиль суспільства, а не надто оптимістичної віри в те, що нові технології — які можуть бути як корисними, так і небезпечними — знімуть ці проблеми з наших рук», — сказав Левін.

Spotify фіксує запуск глибокого фейку

Гігант потокового аудіо Spotify придбав Sonantic, лондонську вискочку, яка зосереджена на створенні програмного забезпечення для штучного інтелекту, здатного генерувати повністю вигадані голоси.

Технологія Sonantic використовувалася в іграх і в голлівудських фільмах, допомагаючи акторові Валу Кілмеру озвучити Топ Gun: Maverick. Кілмер зіграв Айсмена в бойовику; його репліки були вимовлені машиною через проблеми з промовою після боротьби з раком горла.

Тепер така ж технологія, схоже, потрапить і в Spotify. Очевидним застосуванням було б використання голосів AI для читання аудіокниг. Зрештою, Spotify, придбаний Findaway, платформа аудіокниг, минулого року в листопаді. Буде цікаво подивитися, чи зможуть слухачі налаштувати, як вони хочуть, щоб звучали їхні машинні диктори. Можливо, будуть інші голоси для читання вголос дитячих книжок порівняно з казками жахів.

«Ми дуже раді можливості перенести голосову технологію AI Sonantic на платформу Spotify і створити новий досвід для наших користувачів», – Зіад Султан, віце-президент Spotify з персоналізації, сказав у заяві. «Ця інтеграція дозволить нам залучати користувачів новим і ще більш персоналізованим способом», — натякнув він.

TSA тестує програмне забезпечення AI для автоматичного сканування багажу

Адміністрація безпеки транспорту США перевірятиме, чи може програмне забезпечення комп’ютерного зору автоматично перевіряти багаж, щоб виявити предмети, які виглядають дивно або заборонені на рейсах.

Випробування відбуватимуться в лабораторії та ще не готові до реальних аеропортів. Програмне забезпечення працює з уже існуючими зображеннями 3D комп’ютерної томографії (КТ), які офіцери TSA використовують, щоб зараз зазирнути через сумки людей на контрольно-пропускних пунктах. Якщо агенти побачать щось підозріле, вони віднесуть багаж в один бік і обійдуть його.

Алгоритми ШІ можуть автоматизувати частину цього процесу; вони можуть ідентифікувати об'єкти та позначати екземпляри, де вони виявляють певні елементи.

«Оскільки TSA та інші агенції безпеки впроваджують CT, це застосування штучного інтелекту представляє потенційно трансформаційний стрибок в авіаційній безпеці, роблячи авіаперевезення безпечнішими та послідовнішими, дозволяючи висококваліфікованим офіцерам TSA зосередитися на сумках, які становлять найбільший ризик», сказав Алексіс Лонг, директор з продуктів Pangiam, технологічної компанії, яка працює з адміністрацією.

«Наша мета полягає в тому, щоб використовувати технології штучного інтелекту та комп’ютерного зору для підвищення безпеки, надавши TSA та співробітникам служби безпеки потужні інструменти для виявлення заборонених предметів, які можуть становити загрозу авіаційній безпеці, є значним кроком до встановлення нового стандарту безпеки з усіма наслідками». ®

Часова мітка:

Більше від Реєстр