Служба контроля конфиденциальности призывает компании отказаться от программного обеспечения искусственного интеллекта для эмоционального анализа PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Служба защиты конфиденциальности призывает компании отказаться от программного обеспечения искусственного интеллекта для анализа эмоций

Компании должны дважды подумать, прежде чем развертывать системы эмоционального анализа на базе ИИ, подверженные системным предубеждениям и другим заблуждениям, предупредил на этой неделе Управление комиссара по информации Великобритании (ICO).

Организации столкнутся с расследованием, если они будут настаивать и использовать эту некачественную технологию, которая подвергает людей риску, добавил наблюдатель.

Алгоритмы машинного обучения, предназначенные для прогнозирования настроения и реакции человека, используют компьютерное зрение для отслеживания взглядов, движений лица и обработки звука для оценки интонации и общего настроения. Как можно догадаться, это не обязательно точно или справедливо, и могут возникнуть проблемы с конфиденциальностью при обработке данных для обучения и вывода.

Действительно, заместитель комиссара ICO Стивен Боннер сказал, что технология не является надежной, что приводит к систематической предвзятости, неточности или дискриминации в отношении определенных социальных групп. «Развитие рынка биометрии и искусственного интеллекта эмоций еще незрело. Возможно, они еще не сработают или никогда не сработают, — сказал он. — сказал в своем заявлении. 

«Несмотря на наличие возможностей, риски в настоящее время выше. В ICO мы обеспокоены тем, что неправильный анализ данных может привести к предположениям и суждениям о человеке, которые будут неточными и приведут к дискриминации», — продолжил он.

Боннер отметил, что программное обеспечение для анализа эмоций часто сочетается с биометрическими системами, собирая и сохраняя более широкий спектр личной информации, помимо изображений лиц. Поставщики программного обеспечения часто не прозрачны в отношении того, как эти личные данные обрабатываются или сохраняются. 

«Единственными устойчивыми биометрическими развертываниями будут те, которые полностью функциональны, подотчетны и поддерживаются наукой», — сказал он. «В настоящее время мы еще не видели, чтобы какая-либо технология эмоционального ИИ развивалась таким образом, чтобы она удовлетворяла требованиям защиты данных, и у нас есть более общие вопросы о пропорциональности, справедливости и прозрачности в этой области».

Это кажется вежливым способом сказать: вы должны использовать только модели ИИ, считывающие эмоции, которые работают так, как ожидает ICO, а таких моделей не существует, поэтому вам следует просто прекратить то, что вы делаете.

Ожидается, что британский орган по надзору за конфиденциальностью данных опубликует отчет, в котором подробно описывается, как биометрические данные, включая распознавание лиц, идентификацию по отпечаткам пальцев и распознавание голоса, должны обрабатываться компаниями весной следующего года.

«ICO продолжит тщательно изучать рынок, выявляя заинтересованные стороны, которые стремятся создать или развертывать эти технологии, и объясняя важность повышения конфиденциальности данных и соответствия требованиям, одновременно поощряя доверие и уверенность в том, как работают эти системы», — добавил Боннер.

Эксперты годами бьют тревогу по поводу анализа настроений и эмоций. Чувства субъективны, и их трудно интерпретировать точно. Люди часто не могут сделать это эффективно для себя или других, не говоря уже о машинах. ®

Отметка времени:

Больше от Регистр