Опровергнута способность ИИ правильно считывать человеческие эмоции

Определение настроения человека с помощью технологий ИИ несовершенно — поэтому должно быть запрещено.

Компании, занимающиеся разработками в сфере искусственного интеллекта, уверяют, что он может распознавать эмоции человека. Исследователь в сфере правовых основ ИИ Натали Ширд из Университета Ла Троба в Мельбурне оценила эти утверждения с научной точки зрения на страницах The Conversation.

ИИ определяет настроение на основе биометрических данных, таких как частота сердечных сокращений, влажность кожи, тон голоса, жесты или выражение лица.

Один из стартапов в Австралии замахнулся на выпуск наручного устройства, которое, по утверждению его создателей, сможет отслеживать эмоции владельца в режиме реального времени посредством измерения частоты сердечных сокращений и других физиологических показателей. Инновационная разработка, по словам основательницы компании Николь Гибсон, станет «искусственным тренером по эмоциям, который знает о вас все, включая то, что вы чувствуете и почему вы это чувствуете», и может быть использована работодателями для мониторинга «производительности и энергии» сотрудников.

Подобные технологии делают первые шаги, и о практическом опыте их применения говорить пока преждевременно. Однако после официальной жалобы американская компания HireVue удалила анализ эмоций на основе черт лица из системы видеоинтервью, которую уже начали использовать работодатели.

Ученые высказывают опасения, что эти системы предполагают возврат к дискредитировавшим себя френологии и физиогномике — то есть использованию физических или поведенческих характеристик человека для определения его способностей и характера.

Технологии распознавания эмоций во многом основаны на теориях, утверждающих, что внутренние эмоции поддаются измерению и универсально выражаются. Однако последние данные показывают, что способы выражения эмоций существенно различаются в зависимости от культуры, контекста и личности. К примеру, в одном случае черные лица считывались как более злые, чем белые, даже когда они одинаково улыбались.

Физиологические параметры также не дают ясной картины. В 2019 году группа экспертов пришла к выводу, что «не существует объективных мер — ни по отдельности, ни в виде шаблона, которые надежно, уникально и воспроизводимо» определяют эмоциональные категории. Например, влажность кожи человека может повышаться, понижаться или оставаться неизменной, когда он злится.

Гибсон признала, «что технологии распознавания эмоций сталкивались со значительными проблемами в прошлом». Но «за последние годы ситуация существенно изменилась», добавила она. «Предвзятость присуща не самой технологии, а скорее наборам данных, используемым для обучения этих систем», — объяснила исследовательница.

В Евросоюзе использование систем искусственного интеллекта для определения эмоций человека на рабочем месте с августа запрещено — за исключением случаев, когда это необходимо по «медицинским» или «соображениям безопасности».

В других странах специального регулирования пока нет, но их население — обеими руками за. Только 12,9% взрослых австралийцев не против внедрения подобных технологий на рабочих местах; в исследовании, проведенном в США, работники выразили опасение, что системы распознавания эмоций могут нанести вред их благополучию и повлиять на производительность труда: они боятся, что неточная работа ИИ создаст ложное впечатление о них, которое может помешать продвижению по службе и повышению зарплаты или даже привести к увольнению.

Нейросоветы – канал с советами от искусственного интеллекта!