Три основные проблемы конфиденциальности данных, с которыми сегодня сталкивается ИИ — The Daily Hodl

Три основные проблемы конфиденциальности данных, с которыми сегодня сталкивается ИИ – The Daily Hodl

HodlX Гостевой пост  Отправить сообщение

 

ИИ (искусственный интеллект) вызвал бешеный ажиотаж среди потребителей и бизнеса движимая страстной верой в то, что LLM (большие языковые модели) и такие инструменты, как ChatGPT, изменят то, как мы учимся, работаем и живем.

Но, как и в первые дни существования Интернета, пользователи подключаются к нему, не задумываясь о том, как используются их личные данные. на грани наркозаи какое влияние это может оказать на их конфиденциальность.

Уже было бесчисленное множество примеров утечки данных в сфере ИИ. В марте 2023 года OpenAI временно взял ChatGPT. оффлайн после «серьезной» ошибки пользователи могли видеть истории разговоров незнакомцев.

Тот самый баг означал платежную информацию подписчиков включая имена, адреса электронной почты и части номеров кредитных карт также находились в открытом доступе.

В сентябре 2023 года ошеломляющие 38 терабайт данных Microsoft были случайно утечка эксперты по кибербезопасности предупреждают, что это могло позволить злоумышленникам проникнуть в модели искусственного интеллекта с помощью вредоносного кода.

Исследователи также смогли манипулировать Системы искусственного интеллекта могут раскрыть конфиденциальные записи.

Всего за несколько часов группа под названием Robust Intelligence смогла запросить личную информацию из программного обеспечения Nvidia и обойти меры безопасности, предназначенные для предотвращения обсуждения в системе определенных тем.

Во всех этих сценариях были извлечены уроки, но каждое нарушение наглядно иллюстрирует проблемы, которые необходимо преодолеть, чтобы ИИ стал надежной и заслуживающей доверия силой в нашей жизни.

Gemini, чат-бот Google, даже признает, что все разговоры обрабатываются рецензентами-людьми. подчеркивая отсутствие прозрачности в его системе.

«Не вводите ничего, что вы не хотели бы, чтобы вы просмотрели или использовали», — предупреждает пользователей предупреждение.

ИИ быстро выходит за рамки инструмента, который студенты используют для выполнения домашних заданий или туристы полагаются на рекомендации во время поездки в Рим.

На него все чаще полагаются в деликатных дискуссиях. и кормил всем: от медицинских вопросов до наших рабочих графиков.

По этой причине важно сделать шаг назад и задуматься о трех основных проблемах конфиденциальности данных, с которыми сегодня сталкивается ИИ, и о том, почему они важны для всех нас.

1. Подсказки не являются приватными

Такие инструменты, как ChatGPT, запоминают прошлые разговоры, чтобы вернуться к ним позже. Хотя это может улучшить пользовательский опыт и помочь в обучении LLM, это сопряжено с риском.

Если система успешно взломана, существует реальная опасность того, что подсказки будут обнародованы на публичном форуме.

При использовании ИИ в рабочих целях могут быть раскрыты потенциально смущающие подробности из истории пользователя, а также коммерческая конфиденциальная информация.

Как мы видели на примере Google, все отправленные материалы также могут быть тщательно проверены командой разработчиков.

Samsung приняла меры в мае 2023 года, когда вообще запретила сотрудникам использовать инструменты генеративного искусственного интеллекта. Это произошло после того, как сотрудник загружено конфиденциальный исходный код для ChatGPT.

Технический гигант был обеспокоен тем, что эту информацию будет сложно получить и удалить, а это означает, что интеллектуальная собственность (ИС) может в конечном итоге стать достоянием общественности.

Apple, Verizon и JPMorgan предприняли аналогичные действия: в сообщениях говорится, что Amazon начала репрессии после того, как ответы ChatGPT имели сходство с ее собственными внутренними данными.

Как видите, опасения выходят за рамки того, что произойдет в случае утечки данных, а связаны с перспективой того, что информация, введенная в системы ИИ, может быть перепрофилирована и распространена среди более широкой аудитории.

Такие компании, как OpenAI, уже всего лишь пяти граммов героина многочисленные судебные иски на фоне обвинений в том, что их чат-боты были обучены с использованием материалов, защищенных авторским правом.

2. Пользовательские модели ИИ, обученные организациями, не являются частными.

Это плавно подводит нас к следующему пункту. хотя отдельные лица и корпорации могут создавать свои собственные модели LLM на основе своих собственных источников данных, они не будут полностью конфиденциальными, если будут существовать в рамках такой платформы, как ChatGPT.

В конечном итоге невозможно узнать, используются ли входные данные для обучения этих огромных систем. или может ли личная информация использоваться в будущих моделях.

Как мозаика, данные из нескольких источников могут быть собраны вместе, чтобы сформировать всеобъемлющее и пугающе подробное представление о чьей-либо личности и биографии.

Основные платформы также могут не предоставлять подробное объяснение того, как эти данные хранятся и обрабатываются, а также не могут отказаться от функций, которые неудобны пользователю.

Помимо реагирования на запросы пользователя, системы искусственного интеллекта все чаще получают возможность читать между строк и делать выводы обо всем — от местоположения человека до его личности.

В случае утечки данных возможны тяжелые последствия. Могут быть организованы невероятно сложные фишинговые атаки. и пользователи, нацеленные на информацию, которую они конфиденциально ввели в систему искусственного интеллекта.

Другие потенциальные сценарии включают использование этих данных для присвоения чьей-либо личности, будь то с помощью приложений для открытия банковских счетов или дипфейковых видео.

Потребителям необходимо сохранять бдительность, даже если они сами не используют ИИ. ИИ все чаще используется для обеспечения работы систем наблюдения и улучшения технологии распознавания лиц в общественных местах.

Если такая инфраструктура не будет создана в действительно частной среде, гражданские свободы и неприкосновенность частной жизни бесчисленного количества граждан могут быть нарушены без их ведома.

3. Частные данные используются для обучения систем искусственного интеллекта.

Есть опасения, что основные системы искусственного интеллекта почерпнули свой интеллект, изучая бесчисленные веб-страницы.

По оценкам, для обучения ChatGPT было использовано 300 миллиардов слов. это 570 гигабайт данных с книгами и записями в Википедии среди наборов данных.

Известно также, что алгоритмы зависят от страниц социальных сетей и комментариев в Интернете.

Используя некоторые из этих источников, вы можете утверждать, что владельцы этой информации имели бы разумные основания ожидать конфиденциальности.

Но вот в чем дело многие инструменты и приложения, с которыми мы взаимодействуем каждый день, уже находятся под сильным влиянием ИИ. и реагировать на наше поведение.

Face ID на вашем iPhone использует искусственный интеллект, чтобы отслеживать незначительные изменения в вашей внешности.

Алгоритмы TikTok и Facebook на базе искусственного интеллекта дают рекомендации по контенту на основе клипов и публикаций, которые вы просматривали в прошлом.

Голосовые помощники, такие как Alexa и Siri, также во многом зависят от машинного обучения.

Существует ошеломляющее созвездие стартапов в области искусственного интеллекта, и каждый из них преследует конкретную цель. Однако некоторые из них более прозрачны, чем другие, о том, как собираются, хранятся и применяются пользовательские данные.

Это особенно важно, поскольку ИИ оказывает влияние на сферу здравоохранения. от медицинской визуализации и диагностики до ведения учета и фармацевтических препаратов.

Необходимо извлечь уроки из опыта интернет-бизнеса, оказавшегося в последние годы в скандалах, связанных с конфиденциальностью.

Flo, приложение для женского здоровья, было обвиняют регулирующими органами, которые в 2010-х годах делились интимными подробностями о своих пользователях с такими компаниями, как Facebook и Google.

Куда мы идем отсюда

В ближайшие годы ИИ окажет неизгладимое влияние на всю нашу жизнь. LLM становятся лучше с каждым днем, и продолжают появляться новые варианты использования.

Однако существует реальный риск того, что регулирующим органам будет сложно идти в ногу со временем, поскольку отрасль движется с головокружительной скоростью.

А это означает, что потребителям необходимо начать защищать свои данные и следить за тем, как они используются.

Децентрализация может сыграть здесь жизненно важную роль и предотвратить попадание больших объемов данных в руки крупных платформ.

DePIN (децентрализованные сети физической инфраструктуры) могут гарантировать, что повседневные пользователи смогут воспользоваться всеми преимуществами искусственного интеллекта без ущерба для их конфиденциальности.

Зашифрованные подсказки не только могут обеспечить гораздо более персонализированные результаты, но и сохраняющие конфиденциальность LLM обеспечат пользователям полный контроль над своими данными в любое время. и защита от неправомерного использования.


Крис Уэр — генеральный директор Верида, децентрализованная, самостоятельная сеть передачи данных, дающая людям возможность контролировать свою цифровую идентификацию и личные данные. Крис — австралийский технологический предприниматель, посвятивший более 20 лет разработке инновационных программных решений.

 

Проверьте последние новости на HodlX

Подпишитесь на нас в Twitter что его цель Telegram

Попробуйте Последние отраслевые объявления  

Три основные проблемы конфиденциальности данных, с которыми сегодня сталкивается ИИ — The Daily Hodl PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Отказ от ответственности: Мнения, высказанные в The Daily Hodl, не являются рекомендациями для инвестиций. Инвесторы должны проявлять должную осмотрительность, прежде чем делать какие-либо инвестиции с высоким риском в биткойн, криптовалютные или цифровые активы. Пожалуйста, имейте в виду, что ваши переводы и сделки на свой страх и риск, и любые потери, которые вы можете понести, являются вашей ответственностью. The Daily Hodl не рекомендует покупать или продавать какие-либо криптоконверсии или цифровые активы, а также The Daily Hodl инвестиционный советник. Обратите внимание, что The Daily Hodl участвует в аффилированном маркетинге.

Сгенерированное изображение: Midjourney

Отметка времени:

Больше от Ежедневный ходж