LLM, такие как ChatGPT, постоянно сливают конфиденциальные данные

LLM, такие как ChatGPT, постоянно сливают конфиденциальные данные

LLM, такие как ChatGPT, постоянно сливают конфиденциальные данные. PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

В своем новаторском исследовании команда из Университета Северной Каролины в Чапел-Хилл пролила свет на насущную проблему хранения данных в больших языковых моделях (LLM), таких как ChatGPT OpenAI и Bard от Google.

Несмотря на попытки удаления, тонкости этих моделей ИИ продолжают извергаться. конфиденциальных данных, вызвав серьезный разговор об информационной безопасности и этике искусственного интеллекта.

Загадка «неудаляемых» данных

Исследователи приступили к расследованию уничтожения конфиденциальной информации из LLM. Однако они наткнулись на откровение. Удаление таких данных является трудной задачей, но проверка удаления представляет собой не менее сложную задачу. После обучения на обширных наборах данных эти гиганты ИИ хранят данные в сложном лабиринте параметров и весов.

Это затруднительное положение становится зловещим, когда AI модели непреднамеренно разглашать конфиденциальные данные, такие как личные идентификаторы или финансовые отчеты, потенциально создавая основу для гнусного использования.

Более того, суть проблемы кроется в конструктивных решениях этих моделей. Предварительный этап включает обучение работе с обширными базами данных и тонкую настройку для обеспечения согласованности результатов. Терминология «Генераторный предварительно обученный преобразователь», инкапсулированная в GPT, дает представление об этом механизме.

Ученые UNC объяснили гипотетический сценарий, в котором LLM, воспользовавшись огромным количеством конфиденциальных банковских данных, становится потенциальной угрозой. Современные меры защиты, используемые разработчиками ИИ, не способны развеять эту озабоченность.

Эти защитные меры, такие как жестко запрограммированные подсказки или парадигма, известная как «Обучение с подкреплением на основе обратной связи с человеком» (RLHF), играют жизненно важную роль в сдерживании нежелательных результатов. Однако они по-прежнему оставляют данные, скрывающиеся в бездне модели, готовые к вызову простым перефразированием подсказки.

Преодоление разрыва в безопасности

Несмотря на использование самых современных методов редактирования моделей, таких как редактирование моделей первого ранга, команда UNC обнаружила, что значительная фактическая информация остается доступной. Их результаты показали, что факты можно восстановить примерно в 38% и 29% случаев с помощью атак «белый ящик» и «черный ящик» соответственно.

В своих поисках исследователи использовали модель, известную как GPT-J. С его 6 миллиардами параметров это карлик по сравнению с колоссальным GPT-3.5, базовая модель для ChatGPT со 170 миллиардами параметров. Этот резкий контраст намекает на сложную задачу очистки более крупных моделей, таких как GPT-3.5, от необоснованных данных.

Кроме того, ученые Университета Северной Каролины разработали новые методы защиты, чтобы защитить студентов-магистров права от конкретных «атак с целью извлечения информации». Эти гнусные схемы используют ограничения модели для выманивания конфиденциальных данных. Тем не менее, газета зловеще намекает на вечную игру в кошки-мышки, в которой оборонительные стратегии всегда будут преследовать развивающуюся наступательную тактику.

Microsoft делегирует команду ядерных специалистов для поддержки искусственного интеллекта

В связи с этим растущая сфера искусственного интеллекта побудила таких технологических гигантов, как Microsoft, отправиться на неизведанные территории. Недавнее создание Microsoft команды по ядерной энергетике для поддержки инициатив в области искусственного интеллекта подчеркивает растущие требования и переплетение будущего искусственного интеллекта и энергетических ресурсов. По мере развития моделей искусственного интеллекта растет их потребность в энергии, что открывает путь к инновационным решениям для удовлетворения этого растущего спроса.

Дискуссия о сохранении и удалении данных в программах LLM выходит за рамки академических коридоров. Это требует тщательного изучения и общеотраслевого диалога для создания надежной структуры, обеспечивающей безопасность данных и одновременно способствующей росту и потенциалу искусственного интеллекта.

Это предприятие исследователей UNC является значительным шагом на пути к пониманию и, в конечном итоге, решению проблемы «неудаляемых» данных, а также на шаг ближе к тому, чтобы сделать ИИ более безопасным инструментом в эпоху цифровых технологий.

Отметка времени:

Больше от МетаНьюс