Студенты из MIT (Массачусетс) придумали софтинку, которая делает оценку (пытается по крайней мере) эмоционального состояния лица человека. Видеокамера, компьютер и софт.
Ага, а модель лицевой экспрессии эмоций? Модель-то какая? Вот, с несколько другой стороны, такие же вещи пытаются делать разработчики:
--роботов.
--анимашек всяческих
Эти вещи довольно много показывают по ящику. Так вот алгоритмы, определяющие экспрессию эмоций, калибруют на уровне здравого рассудка и не более того. Ну, мы бы могли прописать четкие модели. Был бы заказ.
Тренировались на актерах в фильмах.
Вот, типа лево правой экспрессии - актеры из фильмов делают ее как в жизни, потому как она в значительной мере сознанием не контролируется. Но эмоции актеры ТРЕНИРУЮТСЯ изображать и посему актеры категорически негодный материал для калибровки эмоций.
Утверждают, что на 90% можно распознать эмоциональную составляющую общения.
Актерскую эмоциональную составляющую. Только актерскую и это существенно.
Которая не менее важна, чем вербальная.
http://www.popgadget.net/2007/06/warn_me_if_im_b.php
Ну, использование наших наработок о невербальных сигналах есть моя давняя мечта использовать в прогах по эмоциональной экспрессии.