Стэнфордский отчет об искусственном интеллекте показывает, что бурно развивающаяся отрасль находится на перепутье

Стэнфордский отчет об искусственном интеллекте показывает, что бурно развивающаяся отрасль находится на перепутье

Стэнфордский отчет об искусственном интеллекте показывает, что бурно развивающаяся отрасль находится на перепутье PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Стэнфордский институт человеко-ориентированного искусственного интеллекта (HAI) опубликовал седьмой ежегодный отчет об индексе искусственного интеллекта, в котором сообщается о процветающей отрасли, которая сталкивается с растущими затратами, регулированием и общественным беспокойством.

502-страница отчету [PDF] исходит из академических и промышленных кругов — руководящий комитет HAI возглавляют соучредитель Anthropic Джек Кларк и Рэй Перро, ученый-компьютерщик из Центра искусственного интеллекта SRI International — и поэтому не слишком много внимания уделяет сжиганию мусора. с огненными аргументами.

В связи с этим в отчете определяется конфиденциальность таким образом, что люди имеют право дать согласие на использование больших языковых моделей (LLM) с использованием их данных. Однако он не предлагает компаниям, занимающимся искусственным интеллектом, отказаться от существующих моделей, потому что они были созданы без разрешения. Это предполагает прозрачность, а не покаяние.

«Получение подлинного и осознанного согласия на сбор данных по обучению особенно сложно для программ LLM, которые полагаются на огромные объемы данных», — говорится в отчете. «Во многих случаях пользователи не знают, как используются их данные или масштабы их сбора. Поэтому важно обеспечить прозрачность практики сбора данных».

Результат нескольких незавершенных судебных процессов, таких как случай против Copilot от GitHub, может означать, что прозрачности недостаточно, что данные для обучения ИИ требуют явного разрешения и, возможно, непомерно высоких платежей.

Но если предположить, что искусственный интеллект никуда не денется и с ним придется считаться в его нынешнем виде, в докладе удается подчеркнуть перспективы и опасности автоматизированного принятия решений.

«Наша миссия — предоставить беспристрастные, тщательно проверенные данные из широкого спектра источников, чтобы политики, исследователи, руководители, журналисты и широкая общественность могли получить более глубокое и детальное понимание сложной области ИИ», — поясняется в отчете.

Некоторые из основных выводов отчета не вызывают особого удивления, например: «ИИ превосходит людей в некоторых задачах, но не во всех» и «Промышленность продолжает доминировать в передовых исследованиях в области ИИ».

Что касается последнего пункта, в отчете говорится, что промышленность создала 51 заслуживающую внимания модель машинного обучения, по сравнению с 15 моделями академических кругов и 21 моделью сотрудничества между промышленностью и академическими кругами.

Хотя закрытые модели (например, GPT-4, Gemini) превзошли модели с открытым исходным кодом по набору из 10 тестов искусственного интеллекта, модели с открытым исходным кодом становятся все более распространенными. Из 149 моделей фундаментов, выпущенных в 2023 году, 65.7 процента имели открытый исходный код по сравнению с 44.4 процента в 2022 году и 33.3 процента в 2021 году.

Сохранится ли эта тенденция, может быть связано с другим важным выводом: «Модели Frontier становятся намного дороже». То есть модели с открытым исходным кодом вряд ли станут более конкурентоспособными по сравнению со своими конкурентами с закрытым исходным кодом, если затраты на обучение передовой модели ИИ станут чем-то доступным только хорошо финансируемым.

«По оценкам AI Index, средние затраты на обучение передовых моделей ИИ почти удвоились за последний год», — говорится в отчете. «Затраты на обучение современных моделей достигли беспрецедентного уровня. Например, для обучения OpenAI GPT-4 потребовалось около 78 миллионов долларов вычислительных ресурсов, а для вычислений Gemini Ultra от Google потребовалось 191 миллион долларов».

Уже есть некоторые сомнения в том, что ИИ стоит своих денег. Январское исследование MIT CSAIL, MIT Sloan, Института производительности и Института ценности бизнеса IBM. найденный что «экономически разумно заменять человеческий труд искусственным интеллектом примерно на четверти рабочих мест, где видение является ключевым компонентом работы». И недавний Wall Street Journal отчету указывает на то, что технологические компании не обязательно нашли способ окупить инвестиции в ИИ.

Отсюда все дополнительные сборы для услуг, дополненных ИИ.

Если принять во внимание другие выводы отчета HAI, такие как «В США резко ужесточаются правила ИИ», обучение моделям ИИ, вероятно, станет еще более капиталоемким. В отчете говорится, что в прошлом году в США действовало 25 правил, связанных с ИИ, по сравнению с одним в 2016 году, и это повлечет за собой дополнительные расходы.

Еще один вывод, который может привести к ужесточению регулирования и, следовательно, к затратам на соблюдение требований, — это отношение людей к ИИ. «Люди во всем мире лучше осведомлены о потенциальном влиянии ИИ и больше нервничают», — говорится в отчете. В нем говорится об увеличении числа людей, которые считают, что ИИ повлияет на их жизнь в ближайшие три-пять лет (66 процентов, рост на шесть процентных пунктов), а также числа людей, которые нервничают по поводу ИИ (52 процента, рост на 13 процентов). точки).

Еще одним потенциальным источником проблем для компаний, занимающихся ИИ, является отсутствие стандартов оценки для LLM, ситуация, которая позволяет компаниям, занимающимся ИИ, выбирать свои собственные критерии для тестирования. «Подобная практика усложняет усилия по систематическому сравнению рисков и ограничений ведущих моделей ИИ», — говорится в отчете.

В отчете HAI утверждается, что ИИ повышает производительность труда и ускоряет научный прогресс, ссылаясь на GNoME от DeepMind, «который облегчает процесс открытия материалов».

Хотя было доказано, что автоматизация ИИ повышает производительность при выполнении конкретных задач, ее полезность как источника идей остается предметом споров. Как мы переправу в последнее время, например, все еще существует некоторый скептицизм по поводу ценности прогнозов с помощью ИИ для жизнеспособных новых материалов.

Как бы то ни было, на ИИ делаются большие ставки. Инвестиции в генеративный ИИ увеличились в восемь раз: с 3 миллиардов долларов в 2022 году до 25.2 миллиардов долларов в 2023 году. А США в настоящее время являются крупнейшим источником систем ИИ: в 61 году была разработана 2023 известная модель ИИ по сравнению с 21 в Европейском Союзе и 15 в Китае.

«ИИ сталкивается с двумя взаимосвязанными будущими», — пишут Кларк и Перро. «Во-первых, технологии продолжают совершенствоваться и все чаще используются, что имеет серьезные последствия для производительности и занятости. Его можно использовать как во благо, так и во зло. Во втором будущем внедрение ИИ ограничено ограничениями самой технологии».

В течение следующих нескольких лет мы должны увидеть, какое из этих двух вариантов будущего будет доминировать. ®

Отметка времени:

Больше от Регистр