Искусственный интеллект-самоучка демонстрирует сходство с тем, как работает мозг PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

ИИ-самоучка демонстрирует сходство с тем, как работает мозг

Вот уже десять лет многие из самых впечатляющих систем искусственного интеллекта обучаются с использованием огромного количества размеченных данных. Изображение может быть помечено как «полосатый кот» или «тигровый кот», например, чтобы «обучить» искусственную нейронную сеть правильно отличать полосатого кота от тигра. Стратегия оказалась одновременно впечатляюще успешной и прискорбно несовершенной.

Такое «контролируемое» обучение требует, чтобы данные были скрупулезно помечены людьми, и нейронные сети часто выбирают более короткие пути, учась ассоциировать метки с минимальной, а иногда и поверхностной информацией. Например, нейронная сеть может использовать наличие травы для распознавания фотографии коровы, потому что коров обычно фотографируют в поле.

«Мы воспитываем поколение алгоритмов, которые похожи на старшекурсников, [которые] не приходили на занятия весь семестр, а затем в ночь перед выпускным экзаменом зубрят», — сказал он. Алексей Эфрос, ученый-компьютерщик Калифорнийского университета в Беркли. «Они не усваивают материал, но хорошо справляются с тестом».

Более того, для исследователей, интересующихся пересечением интеллекта животных и машин, это «обучение под наблюдением» может быть ограничено тем, что оно может рассказать о биологическом мозге. Животные, в том числе люди, не используют помеченные наборы данных для обучения. По большей части они исследуют окружающую среду самостоятельно, и при этом они приобретают глубокое и надежное понимание мира.

Теперь некоторые вычислительные нейробиологи начали исследовать нейронные сети, которые были обучены с небольшим количеством данных, помеченных человеком, или без них. Эти алгоритмы «обучения с самоконтролем» оказались чрезвычайно успешными в моделирование человеческого языка и, совсем недавно, распознавание изображений. В недавней работе вычислительные модели зрительной и слуховой систем млекопитающих, построенные с использованием моделей обучения с самоконтролем, показали более близкое соответствие функциям мозга, чем их аналоги с контролируемым обучением. Некоторым нейробиологам кажется, что искусственные сети начинают раскрывать некоторые из реальных методов, которые использует наш мозг для обучения.

Неправильный надзор

Модели мозга, вдохновленные искусственными нейронными сетями, появились примерно 10 лет назад, примерно в то же время, когда была создана нейронная сеть под названием АлексНет революционизировал задачу классификации неизвестных изображений. Эта сеть, как и все нейронные сети, состояла из слоев искусственных нейронов, вычислительных единиц, которые образуют связи друг с другом, которые могут различаться по силе или «весу». Если нейронная сеть не может правильно классифицировать изображение, алгоритм обучения обновляет веса связей между нейронами, чтобы сделать эту неправильную классификацию менее вероятной в следующем раунде обучения. Алгоритм повторяет этот процесс много раз со всеми обучающими изображениями, настраивая веса, пока частота ошибок сети не станет приемлемо низкой.

Примерно в то же время нейробиологи разработали первые вычислительные модели мозга. зрительная система приматов, используя нейронные сети, такие как AlexNet и его преемники. Союз выглядел многообещающе: когда, например, обезьянам и искусственным нейронным сетям показывали одни и те же изображения, активность реальных нейронов и искусственных нейронов обнаруживала интригующее соответствие. Затем последовали искусственные модели слуха и обнаружения запахов.

Но по мере развития области исследователи осознали ограничения контролируемого обучения. Например, в 2017 году Леон Гэтис, ученый-компьютерщик из Тюбингенского университета в Германии, и его коллеги сделали изображение Ford Model T, а затем наложили на фотографию рисунок леопардовой кожи, создав причудливое, но легко узнаваемое изображение. . Ведущая искусственная нейронная сеть правильно классифицировала исходное изображение как Модель Т, но посчитала измененное изображение леопардом. Он был зациклен на текстуре и не понимал формы автомобиля (или леопарда, если уж на то пошло).

Стратегии обучения с самоконтролем предназначены для того, чтобы избежать таких проблем. В этом подходе люди не маркируют данные. Скорее, «ярлыки исходят из самих данных», сказал Фридеманн Зенке, вычислительный нейробиолог из Института биомедицинских исследований имени Фридриха Мишера в Базеле, Швейцария. Алгоритмы с самоконтролем, по сути, создают пробелы в данных и просят нейронную сеть заполнить пробелы. Например, в так называемой большой языковой модели обучающий алгоритм покажет нейронной сети несколько первых слов предложения и попросит ее предсказать следующее слово. При обучении на массивном корпусе текстов, почерпнутых из Интернета, модель кажется, учиться синтаксическую структуру языка, демонстрируя впечатляющие лингвистические способности — и все это без внешних ярлыков или надзора.

Аналогичные усилия предпринимаются в области компьютерного зрения. В конце 2021 г. Каймин Хэ и коллеги раскрыли свои «замаскированный автокодировщик», который строится на техника впервые был разработан командой Эфроса в 2016 году. Алгоритм обучения с самоконтролем случайным образом маскирует изображения, скрывая почти три четверти каждого из них. Маскированный автокодировщик превращает немаскированные части в скрытые представления — сжатые математические описания, содержащие важную информацию об объекте. (В случае изображения скрытое представление может быть математическим описанием, которое фиксирует, среди прочего, форму объекта на изображении.) Затем декодер преобразует эти представления обратно в полные изображения.

Алгоритм обучения с самоконтролем обучает комбинацию кодер-декодер превращать замаскированные изображения в их полные версии. Любые различия между реальными изображениями и реконструированными возвращаются в систему, чтобы помочь ей учиться. Этот процесс повторяется для набора обучающих изображений до тех пор, пока частота ошибок системы не станет достаточно низкой. В одном примере, когда обученному автокодировщику в маске было показано ранее невидимое изображение автобуса, почти 80% которого было скрыто, система успешно реконструировала структуру автобуса.

«Это очень, очень впечатляющий результат», — сказал Эфрос.

Скрытые представления, созданные в такой системе, по-видимому, содержат значительно более глубокую информацию, чем могли включать предыдущие стратегии. Например, система может узнать форму автомобиля или леопарда, а не только их узоры. «И это действительно основная идея самоконтролируемого обучения — вы строите свои знания снизу вверх», — сказал Эфрос. Нет зубрежки в последнюю минуту, чтобы сдать тесты.

Самостоятельный мозг

Некоторые нейробиологи видят в подобных системах отголоски того, как мы учимся. «Я думаю, что нет никаких сомнений в том, что 90% того, что делает мозг, — это обучение под самоконтролем», — сказал он. Блейк Ричардс, нейробиолог из Университета Макгилла и Мила из Квебекского института искусственного интеллекта. Считается, что биологический мозг постоянно предсказывает, скажем, будущее местоположение объекта по мере его движения или следующее слово в предложении, точно так же, как самоуправляемый алгоритм обучения пытается предсказать пробел в изображении или сегменте текста. И мозг тоже учится на своих ошибках — лишь небольшая часть обратной связи нашего мозга исходит от внешнего источника, говорящего, по сути, «неправильный ответ».

Например, рассмотрим зрительные системы человека и других приматов. Из всех сенсорных систем животных они изучены лучше всего, но нейробиологи изо всех сил пытались объяснить, почему они включают два отдельных пути: вентральный зрительный поток, отвечающий за распознавание объектов и лиц, и дорсальный зрительный поток, отвечающий за движение (« пути «что» и «где» соответственно).

Ричардс и его команда создали модель самоконтроля, которая намекает на ответ. Они специалистов ИИ, объединивший две разные нейронные сети: первая, называемая архитектурой ResNet, была разработана для обработки изображений; вторая, известная как рекуррентная сеть, может отслеживать последовательность предыдущих входных данных, чтобы делать прогнозы относительно следующего ожидаемого входного сигнала. Чтобы обучить комбинированный ИИ, команда начала с последовательности, скажем, 10 кадров из видео и позволила ResNet обработать их один за другим. Затем рекуррентная сеть предсказала скрытое представление 11-го кадра, а не просто сопоставила первые 10 кадров. Алгоритм обучения с самоконтролем сравнил прогноз с фактическим значением и дал указание нейронным сетям обновить свои веса, чтобы сделать прогноз лучше.

Команда Ричардса обнаружила, что ИИ, обученный с одним ResNet, хорошо распознавал объекты, но не классифицировал движения. Но когда они разделили один ResNet на два, создав два пути (без изменения общего числа нейронов), ИИ разработал представления для объектов в одном и для движения в другом, что позволило классифицировать эти свойства ниже по течению — так же, как наш мозг, вероятно, делать.

Для дальнейшего тестирования ИИ команда показала ему набор видеороликов, которые исследователи из Института наук о мозге Аллена в Сиэтле ранее показывали мышам. Как и у приматов, у мышей есть области мозга, специализирующиеся на статических изображениях и движениях. Исследователи Аллена записали нейронную активность в зрительной коре мыши, когда животные смотрели видео.

Здесь команда Ричардса также обнаружила сходство в том, как ИИ и живой мозг реагировали на видео. Во время обучения один из путей в искусственной нейронной сети стал больше похож на вентральные области мозга мыши, обнаруживающие объекты, а другой путь стал похож на дорсальные области, ориентированные на движение.

«Результаты показывают, что наша зрительная система имеет два специализированных пути, потому что они помогают предсказывать визуальное будущее», — сказал Ричардс; одного пути недостаточно.

Модели слуховой системы человека рассказывают аналогичную историю. В июне группа под руководством Жан-Реми Кинг, научный сотрудник Meta AI, обучил ИИ по имени Wav2Vec 2.0, который использует нейронную сеть для преобразования звука в скрытые представления. Исследователи маскируют некоторые из этих представлений, которые затем передаются в другой компонент нейронной сети, называемый преобразователем. Во время обучения преобразователь предсказывает замаскированную информацию. В процессе весь ИИ учится превращать звуки в скрытые представления — опять же, ярлыки не нужны. Команда использовала около 600 часов речевых данных для обучения сети, «что примерно соответствует тому, что ребенок получит за первые два года опыта», — сказал Кинг.

После того, как система была обучена, исследователи проигрывали ей отрывки из аудиокниг на английском, французском и китайском языках. Затем исследователи сравнили производительность ИИ с данными 412 человек — носителей трех языков, которые слушали одни и те же фрагменты аудио во время сканирования их мозга с помощью МРТ-сканера. Кинг сказал, что его нейронная сеть и человеческий мозг, несмотря на зашумленные изображения фМРТ с низким разрешением, «не только коррелируют друг с другом, но и систематически коррелируют»: активность на ранних уровнях ИИ согласуется с активностью. в первичной слуховой коре, тогда как активность самых глубоких слоев ИИ совпадает с активностью в более высоких слоях мозга, в данном случае в префронтальной коре. «Это действительно прекрасные данные, — сказал Ричардс. «Это не окончательный вывод, но [это] еще одно убедительное доказательство того, что мы действительно изучаем язык в значительной степени, пытаясь предсказать следующие вещи, которые будут сказаны».

Невылеченные патологии

Не все уверены. Джош МакДермотт, вычислительный нейробиолог из Массачусетского технологического института, работал над моделями зрения и слухового восприятия, используя как контролируемое, так и самоконтролируемое обучение. Его лаборатория разработала то, что он называет «метамерами», синтезированные звуковые и визуальные сигналы, которые для человека просто непостижимый шум. Однако для искусственной нейронной сети метамеры кажутся неотличимыми от реальных сигналов. Это говорит о том, что представления, которые формируются в более глубоких слоях нейронной сети, даже при самоконтролируемом обучении, не совпадают с представлениями в нашем мозгу. Эти подходы к обучению с самоконтролем «являются прогрессом в том смысле, что вы можете изучать репрезентации, которые могут поддерживать множество способов распознавания, не нуждаясь во всех этих ярлыках», — сказал Макдермотт. «Но у них все еще есть много патологий моделей под наблюдением».

Сами алгоритмы также нуждаются в доработке. Например, в Wav2Vec 2.0 от Meta AI ИИ предсказывает скрытые представления только для звука длительностью в несколько десятков миллисекунд — меньше времени, чем требуется, чтобы произнести воспринимаемый звук, не говоря уже о слове. «Чтобы сделать что-то похожее на то, что делает мозг, нужно сделать многое», — сказал Кинг.

Для истинного понимания работы мозга потребуется нечто большее, чем обучение под самоконтролем. Во-первых, мозг полон обратных связей, в то время как в современных моделях таких связей мало, если они вообще есть. Очевидным следующим шагом было бы использование обучения с самоконтролем для обучения часто повторяющихся сетей — сложный процесс — и посмотреть, как активность в таких сетях сравнивается с реальной активностью мозга. Другим важным шагом было бы согласование активности искусственных нейронов в моделях обучения с самоконтролем с активностью отдельных биологических нейронов. «Надеюсь, в будущем [наши] результаты будут подтверждены и записями отдельных клеток», — сказал Кинг.

Если наблюдаемое сходство между мозгом и моделями обучения с самоконтролем применимо и к другим сенсорным задачам, это будет еще более убедительным признаком того, что любое волшебство, на которое способен наш мозг, требует обучения с самоконтролем в той или иной форме. «Если мы обнаружим систематическое сходство между совершенно разными системами, это [будет] означать, что, возможно, существует не так много способов разумной обработки информации», — сказал Кинг. «По крайней мере, это красивая гипотеза, с которой мы хотели бы работать».

Отметка времени:

Больше от Квантовый журнал