Мене звільнили, — каже інженер, який стверджував, що чат-бот Google — це розумний PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Мене звільнили, — каже інженер, який стверджував, що чат-бот Google розумний

Коротко Повідомляється, що Google звільнив Блейка Лемуана, інженера, якого відправили в адміністративну відпустку після того, як він наполягав, що чат-бот веб-гіганта LaMDA розумний.

Лемуан не потрапив у неприємності через свою суперечливу думку про модель, яка викликала підняття брів. Натомість його покарали за порушення політики конфіденційності Google. Він як повідомляється запросив юриста для оцінки потенційних законних прав LaMDA та поспілкувався з представником Палати представників, заявивши, що Google поводиться неетично.

Речник Google сказав інформаційний бюлетень Big Technology вирішив припинити його роботу, оскільки Лемуан продовжував порушувати «політику працевлаштування та безпеки даних», що ставило під загрозу комерційну таємницю.

«Якщо співробітник поділяє занепокоєння щодо нашої роботи, як це зробив Блейк, ми ретельно їх розглядаємо. Ми визнали абсолютно необґрунтованими заяви Блейка про те, що LaMDA розумна, і працювали над роз’ясненням цього з ним протягом багатьох місяців. Ці дискусії були частиною відкритої культури, яка допомагає нам відповідально впроваджувати інновації», — сказав речник.

«Отож, на жаль, незважаючи на тривалу роботу над цією темою, Блейк все ж вирішив наполегливо порушувати чітку політику щодо працевлаштування та безпеки даних, яка включає необхідність захисту інформації про продукт. Ми продовжимо нашу ретельну розробку мовних моделей і бажаємо Блейку успіху».

Багато експертів у Google, наукових колах і індустрії сумніваються в тому, що LaMDA або будь-який існуючий чат-бот ШІ розумний. Мовні моделі вивчають математичні зв’язки між словами та добре імітують людську мову без реального розуміння. Ніхто з них не є насправді розумним, не кажучи вже про свідомість.

Чому розробники не можуть запускати код ШІ з відкритим кодом

Який сенс випускати код для моделей машинного навчання, якщо розробники не мають ресурсів, необхідних для його запуску?

Програмне забезпечення штучного інтелекту, як відомо, важко розгорнути та спробувати самостійно, навіть якщо воно з відкритим кодом. Частини джерела пропущено, або набори даних, необхідні для навчання моделі, недоступні. Іноді ці частини доступні, але розробники не мають достатньої обчислювальної потужності, щоб керувати такими великими системами.

Візьміть Мету Відкрийте Pretrained Transformer, наприклад. Найбільша версія мовної моделі містить 175 мільярдів параметрів. Навіть незважаючи на те, що рекламний гігант випустив свій код, не у багатьох буде достатньо чіпів під рукою, щоб навчити та використовувати модель з нуля, Метт Есей, який керує партнерським маркетингом у MongoDB, зазначив, в особистій якості.

«Ключ у тому, щоб надати достатній доступ для дослідників, щоб вони могли відтворити успіхи та невдачі того, як працює конкретна модель штучного інтелекту… Як компаній і окремих осіб, наша мета має полягати в тому, щоб відкрити доступ до програмного забезпечення таким чином, щоб це приносило користь нашим клієнтам і третім – партійним розробникам сприяти доступу та розумінню замість того, щоб намагатися переробити концепцію відкритого вихідного коду, що склалася десятиліттями, у хмару», – стверджував він.

Dall-E від OpenAI переходить в бета-режим

Комерційна модель генерації тексту в зображення OpenAI DALL·E 2 відкрита для ще мільйона людей, які приєдналися до її списку очікування.

Раніше доступ був обмежений для обраних художників, дослідників і розробників, оскільки OpenAI хотів протестувати свою систему перед повним комерційним випуском. Люди використовували цей інструмент для створення різноманітних зображень для створення інтернет-мемів, коміксів або цифрового мистецтва. 

Користувачі отримають 50 безкоштовних кредитів протягом першого місяця використання та 15 безкоштовних кредитів щомісяця після цього. Кожен кредит можна використати для створення однієї оригінальної генерації підказки Dall-E, і вони отримають чотири зображення як вихідні дані замість попередніх шести. Редагування наявних текстових підказок призведе до повернення трьох зображень. Якщо вони хочуть створити більше, їм доведеться заплатити 15 доларів, щоб отримати ще 115 кредитів за додаткові 460 зображень. 

Вони також зможуть комерціалізувати будь-які зображення, створені за допомогою моделі, тобто творці мають право продавати та друкувати свої зображення для товарів тощо. «Ми раді бачити, що люди створюють за допомогою DALL·E, і з нетерпінням чекаємо відгуків користувачів протягом цього періоду бета-тестування», — дослідницька лабораторія сказав на цьому тижні. 

Підгляд за дітьми за допомогою розпізнавання облич

Суперечливий комерційний онлайн-сервіс розпізнавання облич PimEyes можна використовувати для пошуку «потенційно відвертих» фотографій дітей.

PimEyes дозволяє будь-кому завантажувати фото, він шукає потенційні збіги та повертає зображення та їхні відповідні URL-адреси. Служба, яка продається як інструмент збереження конфіденційності, за допомогою якого користувачі можуть бачити, де в Інтернеті опубліковано їхні фотографії, заявила, що допомогла боротися з такими проблемами, як порно з помстою.

Але є й темна сторона. Будь-хто може використовувати веб-сайт для пошуку фотографій кого завгодно, навіть дітей. Ан дослідження The Intercept виявив, що легко знайти фотографії молодих людей, і деякі з цих зображень навіть позначені як «потенційно відверті». В експерименті використовували підроблені фотографії дітей, створені штучним інтелектом, і PimEyes все одно показав збіги, що свідчить про те, що його програмне забезпечення, ймовірно, не дуже точне.

«Той факт, що PimEyes не має засобів захисту для дітей і, очевидно, не знає, як забезпечити захист для дітей, лише підкреслює ризики такого роду послуг розпізнавання облич», – Джерамі Скотт, директор проекту контролю за наглядом в Electronic Цитується Центр інформації про конфіденційність. «Участь у громадських місцях, як онлайн, так і офлайн, не повинна означати піддавання себе послугам, що порушують конфіденційність, таким як PimEyes».

Інструменти для письма на основі ШІ допомагають незалежним авторам публікувати більше книг

Створення контенту часто є важкою справою. Ви повинні часто придумувати свіжий матеріал, щоб зберегти та збільшити аудиторію.

Одна незалежна письменниця-фантаст, яка публікує свої роботи на платформі Amazon Kindle під псевдонімом Ліан Лідс, описала можливості та обмеження використання інструменту для генерування тексту на базі GPT-3 як партнера по написанню.

Завантажуючи речення в програмне забезпечення під назвою Sudowrite, такі автори, як Лідс, можуть автоматично генерувати попередні уривки тексту; він діє як більш інтелектуальне автозаповнення. Лідс сказав The Verge її продуктивність зросла більш ніж на 20 відсотків, якщо використовувати це для створення своєї прози. Вона редагує вихідні дані програмного забезпечення та розміщує абзаци у своїх книгах. Sudowrite допомагає їй швидше писати книги, щоб читачі були зацікавленіші. 

Але письменники розриваються через використання ШІ. Деякі вважають, що це суперечить креативності та магії літератури, а інші бачать у ньому потенціал для оповідання. Чи повинні автори розкривати, що їхні книги написані за допомогою алгоритмів? І що важливіше, чи корисні ці автоматично згенеровані каракулі?

Зараз машини недостатньо хороші й потребують редагування, щоб наративи та сюжетні лінії не зійшли з колії. Лідс вірить, що такі інструменти, як Sudowrite, одного разу стануть достатньо хорошими, щоб писати загальну художню літературу. «Я думаю, що це справжня небезпека, що ви можете це зробити, і тоді нічого оригінального більше не буде. Все просто копія чогось іншого», – сказала вона. «Проблема в тому, що це подобається читачам». ®

Часова мітка:

Більше від Реєстр