Affective Computing: техника не разделяет наши чувства

Если бы компьютер распознавал ваше настроение, он мог бы вам посочувствовать. Другое дело, пошло бы это на пользу? (фото fcoe.k12.ca.us).

CD-плеер почувствовал, что вы не в духе, и включил вам музыку для поднятия настроения. Компьютерная игра оценила ваше неважное эмоциональное состояние и дала выиграть в себя. Всё это будет, когда технику научат распознавать и понимать человеческие эмоции. Когда?

Не сегодня. Потребуются годы, но работа по созданию «чувствительных» компьютеров уже идёт. Проблема серьёзная: к чему приводит отсутствие должного взаимопонимания между человеком и машиной, вы могли видеть. К примеру, вот, вот и вот. Если б понимала техника наши эмоции, такого могло бы не произойти.

Начнём с новости, поскольку её так или иначе СМИ разнесут по миру, не особо вдаваясь в подробности. Затем взглянем на проблему шире.

Итак, ВВС сообщает, что трёхлетняя научно-исследовательская работа над технологией распознавания эмоций началась в лондонском университете Брюнеля (Brunel University).

Вполне себе симпатичная докторша Кейт Хон (Kate Hone) отыскала спонсора в лице Совета по инженерным и физическим научным исследованиям (Engineering and Physical Sciences Research Council — EPSRC), сколотила команду и с октября 2002-го упорно трудится. В 2005-м, выходит, от неё можно ожидать каких-то результатов. Каких?

Кейт Хон предстоит выяснить, нужна ли кому-нибудь несуществующая пока технология машинного распознавания человеческих эмоций.

Проект группы Хон называется ERIC (Emotion Recognition for Interaction With Computers — распознавание эмоций для взаимодействия с компьютерами). Надо сказать, что до признания эмоций докторша занималась технологиями распознавания речи.

Вот, что пишет Хон о своём ERIC’е: «При исследованиях в данной области необходимо пройти через массу технических трудностей и проектирование наиболее сложных алгоритмов распознавания.

К тому же, многие пренебрегают фундаментальными вопросами об использовании такой технологии. Может ли она действительно улучшить человеческо-компьютерное взаимодействие? Какая из сфер применения является наиболее подходящей? Как это лучше всего осуществить?

Эти вопросы рождает не текущее состояние технологии: системы просто ещё не достаточно хороши, чтобы можно было говорить об их реальном применении. Но наше исследование преодолеет этот барьер посредством моделирования возможностей технологии будущего».

Выходит, команда из Брунеля взялась лишь оценить потенциал. Ладно. А вот их цели:

— Установить, насколько естественно люди выражают эмоции, когда знают, что взаимодействует с признающим эмоции компьютером;

По таким выражениям лиц определить эмоциональное состояние сможет, наверное, и микрокалькулятор (фото macbrain.org).

— Идентифицировать эмоциональные состояния, при которых применение технологий распознавания эмоций может привести к тем или иным усовершенствованиям;

— Оценить человеческие факторы, влияющие на технологию признания эмоций, которые могут помочь разработчикам такой системы удовлетворить потребности реальных пользователей.

Команда Хон собирается провести ряд экспериментов, причём непонятно каких и как, ведь пока компьютеры в Брунеле могут распознать основные человеческие эмоции только по фотографиям. Больше о работе докторши пока ничего неизвестно, надо подождать года два.

В то же время, аналогичными исследованиями занимаются в Штатах в стенах лаборатории Массачусетского технологического (MIT). Здесь у группы учёных работа кипит с 1995 года. Спонсоров, кстати, побольше, чем у британцев.

Группа занимается тем, что называется Affective Computing — «Эмоциональные компьютеры», а её директором тоже является женщина — Розалинда Пикард (Rosalind W. Picard).

Розалинда Пикард занимается эмоциональными компьютерами с 1995 года.

У Affective Computing Research Group проектов целая куча.

Есть, например, проект AffQuake на базе, понятное дело, продукта ID Software Quake II. Суть в том, чтобы игра реагировала на эмоциональные сигналы игрока — что-то вроде шоу «Кресло» под управлением Федора Бондарчука.

Геймера обвешивают датчиками, и если ему становится страшно, модифицированный Quake получает «физиологические сигналы» пользователя и заставляет точно так же бояться виртуальное воплощение игрока — оно в страхе отступает.

Или вот игрушка «Эмоциональный тигр» (Affective Tigger). «Тигр» этот может идентифицировать пять эмоциональных состояний играющего с ним ребёнка и выразить в ответ что-то вроде того же самого.

16 «сэмплов» для компьютерного анализа выражений лица (фото old-www.idiap.ch).

Если ребёнок прыгает, весело тискает и целует игрушку, сенсорная система «тигра» это физическое воздействие фиксируют, после чего демонстрируется счастье: Affective Tigger смеётся, улыбается и так далее. Игрушка всё ещё в стадии разработки.

«Исследования компьютерного распознавания и выражения эмоций пока находятся в младенческом возрасте, — пишет директор Affective Computing госпожа Пикард, занимающаяся „младенцем“, напомним, уже восьмой год.

— В лаборатории MIT свои усилия мы сосредоточили на синтезе признания выражения лица и голоса». То есть физиологические признаки, фиксируемые тем же детектором лжи, исследователи в расчёт не берут.

Одним из способов распознавания эмоционального состояния по лицу является видеозапись с последующими компьютерной оцифровкой и анализом — сравнением с заложенными образцами.

В ходе эксперимента по данному методу четыре эмоции восьми человек компьютер определил с 98-процентной точностью.

Недостаток: пока ещё эта технология не работает в режиме реального времени — требуется несколько секунд на обработку каждого выражения лица. Однако благодаря прогрессу в ближайшем будущем это распознавание будет, по существу, мгновенным. По крайней мере, для основных выражений.

Хотя изменения в лице — один из наиболее заметных признаков основных эмоциональных состояний, те же игроки в покер знают, что лицом можно легко управлять, чтобы эмоции скрыть. Так что одним выражением лица тут не ограничишься.

Другой способ — анализ голосовых интонаций. Для распознавания состояния по особенностям речи, модулируемых эмоциями, в MIT выделяют такие категории:

«Эмоциональный тигр» показывает, что несчастен (фото affect.media.mit.edu).

— Качество голоса (например, хриплый голос может сказать о нескольких индивидуальных факторах, в том числе, особенностях дыхания);

— Скорость произнесения (к примеру, быстрая речь может означать опасение, а медленная — отвращение);

— Контур подачи и высотный диапазон (обрывистые фразы и большой диапазон частот — гнев, небольшой диапазон низких частот — печаль).

Однако анализ интонаций в настоящее время проводить очень трудно — эффективного метода до сих пор нет. «Обратите внимание, что ни один из способов — ни распознавание выражения лица, ни анализ интонаций голоса — не является надёжным методом признания компьютером человеческой эмоции, — пишет Пикард.

— И то, и другое работает лучше всего, когда рассматривается в контексте: действительно ли это игра в покер, где надувательство является нормой, или же — предложение о браке, в котором подразумевается искренность».

В итоге мы имеем признание лидера, а Affective Computing действительно лидирует, в изучении эмоциональных компьютеров в том, что понимающая наши чувства техника ходит в ясли.

И между прочим, последняя новость от группы об очередном шаге к строительству понимающей наши чувства машины датирована февралём 2002-го. Застой какой-то.

Тем временем, доктор Кейт Хон пытается понять, стоит ли принимать младенческую технологию в детский сад или усыпить за ненадобностью. Вы-то как считаете?



«Цифровое неравенство» среди американских детей сокращается

20 марта 2003

В аэропорту «Хитроу» введён в действие «электронный нос»

20 марта 2003

Всепонимающая виртуальная шариковая ручка: проблемы и перспективы

19 марта 2003

Sony и Philips выпускают новые технологии аудиозаписи

17 марта 2003

Фетиш будущего: шесть вещей, о которых надо мечтать 10 лет

17 марта 2003