Орган із захисту конфіденційності закликає компанії відмовитися від програмного забезпечення ШІ для емоційного аналізу PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Орган із захисту конфіденційності закликає компанії відмовитися від програмного забезпечення ШІ емоційного аналізу

Компанії повинні двічі подумати, перш ніж розгортати системи емоційного аналізу на основі штучного інтелекту, схильні до системних упереджень та інших неприємностей, попередило цього тижня Управління інформаційного комісара Великобританії (ICO).

Організаціям загрожує розслідування, якщо вони наполягають і використовують цю неякісну технологію, яка наражає людей на небезпеку, додає сторожовий орган.

Алгоритми машинного навчання, які нібито передбачають настрій і реакцію людини, використовують комп’ютерний зір для відстеження поглядів, рухів обличчя та обробки аудіо, щоб оцінити перегин і загальні настрої. Як можна собі уявити, це не обов’язково точно чи чесно, і можуть виникнути проблеми з конфіденційністю під час обробки даних для навчання та висновків.

Дійсно, заступник комісара ICO Стівен Боннер сказав, що технологія не є надійною, що призводить до системної упередженості, неточності або дискримінації конкретних соціальних груп. «Розробки на ринку біометрії та штучного інтелекту емоцій незрілі. Можливо, вони ще не запрацюють, або взагалі ніколи", - сказав він сказав в заяві. 

«Хоча можливості є, ризики зараз більші. У ICO ми стурбовані тим, що неправильний аналіз даних може призвести до припущень і суджень про особу, які будуть неточними та призведуть до дискримінації», – продовжив його заяву.

Боннер зазначив, що програмне забезпечення емоційного аналізу часто поєднується з біометричними системами, збираючи та зберігаючи ширший спектр особистої інформації, крім зображень обличчя. Постачальники програмного забезпечення часто є непрозорими щодо того, як ці особисті дані обробляються чи зберігаються. 

«Єдиними стійкими розгортаннями біометрії будуть ті, які будуть повністю функціональними, підзвітними та науково підкріпленими», — сказав він. «На даний момент ми ще не побачимо, як емоційна технологія штучного інтелекту буде розроблена таким чином, щоб відповідати вимогам захисту даних, і у нас є більш загальні питання щодо пропорційності, справедливості та прозорості в цій сфері».

Це здається ввічливим способом сказати: ви повинні використовувати лише моделі штучного інтелекту, які зчитують емоції, які працюють, як очікує ICO, а таких моделей не існує, тому вам слід просто припинити те, що ви робите.

Очікується, що навесні наступного року британська служба захисту конфіденційності даних опублікує звіт із детальним описом того, як компанії мають обробляти біометричні дані, включаючи розпізнавання обличчя, ідентифікацію за відбитками пальців і розпізнавання голосу.

«ICO продовжуватиме ретельно досліджувати ринок, визначаючи зацікавлених сторін, які прагнуть створити або розгортати ці технології, і пояснювати важливість покращеної конфіденційності даних і відповідності, водночас заохочуючи довіру та впевненість у тому, як ці системи працюють», — додала Боннер.

Експерти роками били на сполох щодо аналізу настроїв і емоцій. Відчуття суб'єктивні, їх важко точно витлумачити. Люди часто не можуть зробити це ефективно ні для себе, ні для інших, не кажучи вже про машини. ®

Часова мітка:

Більше від Реєстр