Как ребенок, этот искусственный интеллект, вдохновленный мозгом, может объяснить свои рассуждения

Как ребенок, этот искусственный интеллект, вдохновленный мозгом, может объяснить свои рассуждения

Как ребенок, этот искусственный интеллект, вдохновленный мозгом, может объяснить свои рассуждения. PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Дети – учёные-естественники. Они наблюдают за миром, формируют гипотезы и проверяют их. Со временем они учатся объяснять свои (иногда очень забавные) доводы.

ИИ, не очень. Нет сомнений в том, что глубокое обучение — тип машинного обучения, основанный на работе мозга, — кардинально меняет технологии. От прогнозирования экстремальных погодных условий до разработки новых лекарств или диагностики смертельных раковых заболеваний — искусственный интеллект все чаще интегрируется в границы науки.

Но у глубокого обучения есть огромный недостаток: алгоритмы не могут обосновать свои ответы. Эта непрозрачность, которую часто называют проблемой «черного ящика», препятствует их использованию в ситуациях высокого риска, например, в медицине. Пациенты хотят получить объяснение, когда у них диагностировано заболевание, меняющее жизнь. На данный момент алгоритмы, основанные на глубоком обучении, даже если они обладают высокой диагностической точностью, не могут предоставить такую ​​информацию.

Чтобы открыть черный ящик, команда Юго-западного медицинского центра Техасского университета обратилась за вдохновением к человеческому разуму. В исследовании in Вычислительная наука о природеОни объединили принципы изучения мозговых сетей с более традиционным подходом к искусственному интеллекту, который опирается на объяснимые строительные блоки.

Получившийся ИИ действует как ребенок. Он конденсирует различные типы информации в «концентраторы». Каждый концентратор затем транскрибируется в рекомендации по кодированию, которые могут читать люди — CliffsNotes для программистов, которые объясняют выводы алгоритма о шаблонах, которые он обнаружил в данных, на простом английском языке. Он также может генерировать полностью исполняемый программный код для тестирования.

Названный «глубокой перегонкой», ИИ работает как учёный, когда ему приходится решать различные задачи, такие как сложные математические задачи и распознавание изображений. Изучая данные, ИИ превращает их в пошаговые алгоритмы, которые могут превзойти алгоритмы, разработанные человеком.

«Глубокая перегонка способна обнаружить обобщаемые принципы, дополняющие человеческий опыт», писал команда в своей статье.

Тонкая бумага

ИИ иногда допускает ошибки в реальном мире. Возьмите роботакси. В прошлом году некоторые из них неоднократно застревали в районе Сан-Франциско, что доставляло неудобства местным жителям, но все равно смеялись. Что еще более серьезно, беспилотные автомобили заблокировали движение транспорта и машин скорой помощи, а в одном случае нанесли серьезный вред пешеходу.

В здравоохранении и научных исследованиях опасности также могут быть высокими.

Когда дело доходит до этих областей высокого риска, алгоритмы «требуют низкой терпимости к ошибкам», — говорит доктор Джозеф Бакарджи из Американского университета в Бейруте, который не участвовал в исследовании. писал в сопутствующей статье о работе.

Препятствием для большинства алгоритмов глубокого обучения является их необъяснимость. Они структурированы как многоуровневые сети. Собирая тонны необработанной информации и получая бесчисленные раунды обратной связи, сеть корректирует свои связи, чтобы в конечном итоге давать точные ответы.

Этот процесс лежит в основе глубокого обучения. Но он испытывает затруднения, когда данных недостаточно или если задача слишком сложна.

Еще в 2021 году команда разработал ИИ там был другой подход. Нейронная сеть, называемая «символическим» рассуждением, кодирует явные правила и опыт, наблюдая за данными.

По сравнению с глубоким обучением, людям легче интерпретировать символические модели. Думайте об ИИ как о наборе блоков Lego, каждый из которых представляет собой объект или концепцию. Они могут творчески сочетаться друг с другом, но эти связи подчиняются четкому набору правил.

Сам по себе ИИ мощный, но хрупкий. Для поиска строительных блоков он во многом полагается на предыдущие знания. Когда он сталкивается с новой ситуацией без предварительного опыта, он не может мыслить нестандартно — и ломается.

И здесь на помощь приходит нейробиология. Команда была вдохновлена ​​коннектомами, которые являются моделями совместной работы различных областей мозга. Объединив эту связь с символическими рассуждениями, они создали ИИ, который имеет прочную, объяснимую основу, но также может гибко адаптироваться при столкновении с новыми проблемами.

В нескольких тестах «нейрокоггнитивная» модель превзошла другие глубокие нейронные сети в задачах, требующих рассуждения.

Но могут ли данные иметь смысл и разрабатываться алгоритмы, чтобы объяснить это?

Человеческое прикосновение

Одна из самых сложных частей научного открытия — это наблюдение зашумленных данных и формулирование выводов. Этот процесс ведет к созданию новых материалов и лекарств, более глубокому пониманию биологии и пониманию нашего физического мира. Часто это повторяющийся процесс, который занимает годы.

ИИ может ускорить процесс и потенциально найти закономерности, ускользнувшие от человеческого разума. Например, глубокое обучение оказалось особенно полезным для предсказания белковых структур, но его обоснование для предсказания этих структур сложно понять.

«Можем ли мы разработать алгоритмы обучения, которые превращают наблюдения в простые и всеобъемлющие правила, как это обычно делают люди?» написал Бакарджи.

Новое исследование взяло существующую нейрокогнитивную модель команды и придало ей дополнительный талант: способность писать код.

Искусственный интеллект, называемый глубокой дистилляцией, группирует схожие концепции вместе, при этом каждый искусственный нейрон кодирует определенную концепцию и ее связь с другими. Например, один нейрон может изучить понятие кошки и понять, что она отличается от собаки. Другой тип справляется с изменчивостью, когда ему предлагают новое изображение (скажем, тигра), чтобы определить, на кого оно больше похоже: на кошку или на собаку.

Эти искусственные нейроны затем складываются в иерархию. С каждым слоем система все больше дифференцирует концепции и в конечном итоге находит решение.

Вместо того, чтобы заставлять ИИ обрабатывать как можно больше данных, обучение происходит шаг за шагом — почти как обучение малыша. Это позволяет оценить рассуждения ИИ по мере того, как он постепенно решает новые проблемы.

По словам Бакарджи, по сравнению со стандартным обучением нейронных сетей, аспект, требующий пояснений, встроен в ИИ.

В ходе теста команда бросила вызов ИИ с помощью классической видеоигры — «Игры жизни Конвея». Впервые разработанная в 1970-х годах, игра посвящена выращиванию цифровой клетки в различные структуры с учетом определенного набора правил (попробуйте сами здесь). Обученный на смоделированных данных игрового процесса, ИИ смог предсказать потенциальные результаты и преобразовать свои рассуждения в удобочитаемые рекомендации или код компьютерного программирования.

ИИ также хорошо справился с множеством других задач, таких как обнаружение линий на изображениях и решение сложных математических задач. В некоторых случаях он генерировал творческий компьютерный код, который превосходил устоявшиеся методы, и мог объяснить, почему.

Глубокая перегонка может стать толчком для физических и биологических наук, где простые части порождают чрезвычайно сложные системы. Одним из потенциальных применений этого метода является сотрудничество с исследователями, декодирующими функции ДНК. Большая часть нашей ДНК представляет собой «темную материю», и мы не знаем, какую роль она играет (если вообще имеет вообще). Объяснимый ИИ потенциально может расшифровать генетические последовательности и помочь генетикам выявлять редкие мутации, вызывающие разрушительные наследственные заболевания.

Помимо исследований, команда воодушевлена ​​перспективой более тесного сотрудничества ИИ и человека.

Нейросимволические подходы потенциально может обеспечить более человеческие возможности машинного обучения», — написала команда.

Бакарджи соглашается. Новое исследование выходит «за рамки технических достижений и затрагивает этические и социальные проблемы, с которыми мы сталкиваемся сегодня». Объясняемость может работать как ограждение, помогая системам ИИ синхронизироваться с человеческими ценностями по мере их обучения. В приложениях высокого риска, таких как медицинская помощь, это может способствовать укреплению доверия.

На данный момент алгоритм лучше всего работает при решении задач, которые можно разбить на концепции. Он не может обрабатывать непрерывные данные, такие как видеопотоки.

«Это следующий шаг в глубокой перегонке», — написал Бакарджи. Это «откроет новые возможности в научных вычислениях и теоретических исследованиях».

Изображение Фото: 7АВ 7АВ / Unsplash 

Отметка времени:

Больше от Singularity Hub