На благо клиента

Microsoft научила ИИ определять, кому из зрителей нравится выступление по видеосвязи, и показывать их спикеру

Об этом пишет New Scientist.

ИИ, получивший название AffectiveSpotlight, идентифицирует участников видеозвонка и использует нейронную сеть для определения таких эмоций, как грусть, счастье и удивление, по выражению их лиц. Он также учитывает движения головы (покачивание и кивание) и положение бровей.

Каждое выражение лица ИИ оценивает в диапазоне от 0 до 1 баллов, если реакция положительная, оценка выше. Каждые 15 секунд для ведущего подсвечивается человек, который получил самый высокий балл за этот период времени.

Представитель Microsoft Research сказал New Scientist, что «внимание к откликам слушателей позволяет выступающему лучше понять аудиторию и создаёт цепь обратной связи». В ходе опроса 175 человек, проведённого командой, 83% из тех, кто выступает с онлайн-презентациями, сказали, что они часто пропускают релевантные реакции аудитории — особенно невербальные сигналы.

Чтобы понять, может ли AffectiveSpotlight решить эту проблему, команда сравнила его работу с работой ПО, которое подсвечивало участников видеоконференции рандомно. Во время выступления AffectiveSpotlight подсветил только 40% слушателей, ПО — 87%. После эксперимента спикеры сообщили, что им больше понравилось выступать с AffectiveSpotlight, несмотря на то что слушатели не заметили разницы в качестве презентации.

Руа Уильямс, доцент кафедры компьютерной графики и дизайна в Университете Пердью, сомневается в пользе ИИ для онлайн-выступлений.

«Сомнительно, что интерпретация, основанная только на аудио или видео, или на том и другом, когда-либо была точной», — сказала она. — Хотя в некоторых исследованиях, подобных этому, могут упоминаться вопросы конфиденциальности и согласия, ни одно из них никогда не объясняет, как кто-то может оспорить неточную интерпретацию своих эмоций».

Источник: https://incrussia.ru/news/reaktsiya-auditorii/