Воскресити померлих близьких за допомогою штучного інтелекту вже є справою – розшифруйте

Воскресити померлих близьких за допомогою штучного інтелекту вже є справою – розшифруйте

Воскресити померлих близьких за допомогою штучного інтелекту вже є річчю – розшифруйте дані PlatoBlockchain Intelligence. Вертикальний пошук. Ai.

Факти слідують за вигадкою. У новому документальному фільмі досліджується науково-фантастичний сценарій, де улюблених людей відтворюють за допомогою штучного інтелекту, щоб мати можливість спілкуватися з потойбіччя.

Фільм «Вічний ти» режисерів Ганса Блока та Моріца Різевіка дебютував на кінофестивалі «Санденс» у Парк-Сіті, штат Юта, і зосереджується на новому бізнесі створення штучних аватарів мертвих.

Як перший повідомляє by Перекотиполе, у фільмі розповідається про Крісті Анджел, яка використовувала чат-бот зі штучним інтелектом під назвою Project December, щоб «спілкуватися» з другою половинкою, яка померла. Те, що сталося далі, підійшло б до голлівудського фільму жахів.

Коли Ангел запитав аватар ШІ, де він, чат-бот відповів: «У пеклі».

Звернення до технологій, щоб заповнити порожнечу, залишену партнером, батьком чи близьким другом, навряд чи є новим. Залучення ШІ до того, як хтось помре є однією зі стратегій досягнення типу безсмертя. І "боти-привиди” вже є трендом у Китаї. Але експерти сумніваються в психологічному, емоційному та етичному впливі практики.

Зі свого боку, засновник Project December Джейсон Рорер також заінтригований можливостями розповіді.

«Мене також цікавить більш моторошний аспект цього», — сказав Рорер. «Коли я читаю таку стенограму, і від неї в мене мурашки по шкірі, я люблю мурашки».

Рорер поки що не відповів Розшифрувати запит на коментар.

Ймовірною причиною жахливого досвіду чат-бота Ангела можна пояснити постійну проблему галюцинацій ШІ. У моделях AI, галюцинація стосується випадків, коли штучний інтелект впевнено реагує неточно, безглуздим або тривожним способом.

Чат-боти, такі як ChatGPT від OpenAI, набули популярності після публічного запуску цієї пам’ятки генеративний ШІ модель минулого року. Чат-боти, які навчаються на даних померлої людини, називаються ”танаботів.“ Термін походить від танатологія, що відноситься до наукового вивчення смерті, зосереджуючись на потребах невиліковно хворих та їхніх сімей, досліджуючи фізичні, емоційні та культурні аспекти. Поле також включає суспільне ставлення та ритуали навколо смерті.

Згенеровані штучним інтелектом дипфейки відео померлих людей стали вірусними в TikTok у травні минулого року. Ці короткі відеокліпи включали відео, аудіо та описи дітей від першої особи, в тому числі Роялті Марі Флойд, який був убитий у 2018 році.

Діпфейк створюється за допомогою штучного інтелекту, який відображає неправдиві події. У той час як глибокі підробки зображень є найвідомішою формою, відео та аудіо підробки стають все більш поширеними завдяки генеративному ШІ.

Використання «танаботів» зі штучним інтелектом спонукало деяких експертів із психічного здоров’я попередити, що наявність цифрового аватара померлої близької людини заважає процесу скорботи.

«Використання штучного інтелекту для створення аватара для особистого чи комерційного використання слід ретельно розглянути, враховуючи потенційний вплив на людину, яка переживає цю втрату», — терапевт і педагог із питань горя, втрати та втрати. Елізабет Шандельмейер сказав Розшифрувати. «Проходження скорботи — це процес адаптації та інтеграції втрати в наше життя, який допомагає нам усвідомити величезні зміни, які може принести смерть важливої ​​для нас людини».

Співробітник у галузі танатології та експерт із питань горя Центр підтримки скорботи «Виючий лев», Шандельмейєр сказав, що частиною процесу горя є розповідь про життя людини, її спадщину, історію про те, ким вона є, і як вона торкнулася свого життя.

За словами Шандельмейєра, використання штучного інтелекту для відтворення людини може сильно порушити цей процес, оскільки образ або особа штучного інтелекту можуть бути дуже схожими, але не зовсім схожими на людину, яка померла.

«Будь-які розбіжності створять когнітивний дисонанс і кинуть виклик сприйняттю та спогадам скорботної людини, що може викликати глибоке занепокоєння та ввести в оману», — сказав Шандельмайер. «Це також може перешкоджати здатності людини адаптуватися до поточного життя та призвести до опору цілком реальним і практичним змінам, які супроводжують смерть».

Док Елрісі, танатолог і ад’юнкт-професор танатології у Вашингтоні Капстонський університет, зазначає, що використання штучного інтелекту для імітації або копіювання померлої близької людини має свої плюси та мінуси. Взаємодія з аватаром коханої людини може заспокоїти та закрити, дозволяючи їй знову побачити свою кохану людину та висловити неподілені почуття, допомагаючи впоратися з втратою.

«Хоча ці переваги є багатообіцяючими, використання цих аватарів все ще може викликати серйозне занепокоєння», — сказав Док.

Як пояснив Док, взаємодія з аватаром ШІ померлої людини — особливо для людини, яка все ще перебуває на початковій стадії заперечення або шоку — може стати емоційно залежною від їх взаємодії з аватаром ШІ їх коханої людини.

«Останнє зауваження, яке варто визнати, полягає в тому, що використання аватарів штучного інтелекту для повторення подоби померлої коханої людини потенційно може дуже засмутити деяких людей», — сказав Док. «Хоча триває дискусія про те, щоб зрештою спробувати інтегрувати чиюсь свідомість і спогади в штучний інтелект, змодельовані взаємодії та відповіді зазвичай не зможуть замінити ті унікальні стосунки, які були розділені з коханою людиною, або загальну цінність і значення людського зв’язку. з ними."

Особливо, можна уявити, якщо той коханий каже, що вони пишуть повідомлення з пекла.

За редакцією Раян Озава.

Будьте в курсі криптовалютних новин, отримуйте щоденні оновлення на свою поштову скриньку.

Часова мітка:

Більше від Розшифрувати