ИИ не может корректно различать эмоции.
Издание The Conversation сообщает, что учёные и IT-компании не смогли создать модель искусственного интеллекта, которая могла бы корректно различать человеческие эмоции. На рынке появляются ИИ-сервисы, создатели которых обещают, что их продукты могут работать с человеческими эмоциями.
Однако учёные считают, что нейросети и машины пока уступают человеку в этом навыке. В качестве примера можно привести австралийский стартап inTruth.
Его специалисты заявили, что их модель ИИ способна различать человеческие эмоции и делать на основе этого выводы. Однако журналисты отметили, что научных доказательств того, что машины могут понимать эмоциональное состояние человека, до сих пор нет.
Ранее было установлено, что ИИ допускает дискриминацию по признаку расы, пола и инвалидности. Например, одна модель воспринимала эмоции чернокожих людей как более агрессивные.
Специалисты отмечают, что изученные модели ИИ при определении эмоций склонны полагаться на физиогномику и френологию — признанные сообществом псевдонаучные направления. В inTruth возразили, что добились прорыва в определении человеческих эмоций.
Специалисты отметили, что проблема дискриминации или предвзятого отношения сложилась не по вине самой технологии, а из-за набора данных, на которых обучали ИИ. Правозащитники из США призвали полицию не использовать ИИ для составления протоколов и отчётов.
Активисты полагают, что ИИ может стать причиной ошибок в полицейских материалах.