Слушал Олег Бахтияров: * История современных психотехнологийhttp://www.psyhonetika.org/mp3/bahtiyarov/01.mp3БОС он относит к 3 этапу психотехнологийОн объясняет почему БОС не пошла в широкую практику- через некоторое время навык БОС из не специфического становится специфическим - человек управляет изменением параметра на экране , но перестает меняться состояние организма
Слушал Олег Бахтияров: * История современных психотехнологийhttp://www.psyhonetika.org/mp3/bahtiyarov/01.mp3БОС он относит к 3 этапу психотехнологийСлава богу! :)Он объясняет почему БОС не пошла в широкую практику - через некоторое время навык БОС из не специфического становится специфическим - человек управляет изменением параметра на экране , но перестает меняться состояние организмаНе на экране, нет. Человек обучается изменять узкий параметр, например, ритм сердца так, что никаких других (системных сдвигов) не наблюдается/не происходит. И, на самом деле, с точки зрения развития способности регулировать именно системные сдвиги, это очень знаковый этап. Теперь, если бы были разработаны такие СОЧЕТАНИЯ одновременного/многоканального/многопараметрического БОС, то человек был бы способен это освоить. Это был бы супер-БОС и супер навыки саморегуляции. Беда только в том, что разработчики БОС:--не предлагают проработанные супер-БОС--частично, это связано с невозможностью предложить адекватные интерфейсы для супер-БОС, которые бы позволяли одновременный обзор множества параметров (это не сложно) + эти интерфейсы передавали/реализовывали бы идею "интеграции" отдельных параметров. (мы именно об этом с тобою говорили).Итог: у метапрактика есть такая идея/модель для супер-БОС.
Студенты из MIT (Массачусетс) придумали софтинку, которая делает оценку (пытается по крайней мере) эмоционального состояния лица человека. Видеокамера, компьютер и софт. Тренировались на актерах в фильмах. Утверждают, что на 90% можно распознать эмоциональную составляющую общения. Которая не менее важна, чем вербальная.http://www.popgadget.net/2007/06/warn_me_if_im_b.php
Студенты из MIT (Массачусетс) придумали софтинку, которая делает оценку (пытается по крайней мере) эмоционального состояния лица человека. Видеокамера, компьютер и софт.Ага, а модель лицевой экспрессии эмоций? Модель-то какая? Вот, с несколько другой стороны, такие же вещи пытаются делать разработчики:--роботов.--анимашек всяческихЭти вещи довольно много показывают по ящику. Так вот алгоритмы, определяющие экспрессию эмоций, калибруют на уровне здравого рассудка и не более того. Ну, мы бы могли прописать четкие модели. Был бы заказ.Тренировались на актерах в фильмах.Вот, типа лево правой экспрессии - актеры из фильмов делают ее как в жизни, потому как она в значительной мере сознанием не контролируется. Но эмоции актеры ТРЕНИРУЮТСЯ изображать и посему актеры категорически негодный материал для калибровки эмоций.Утверждают, что на 90% можно распознать эмоциональную составляющую общения.Актерскую эмоциональную составляющую. Только актерскую и это существенно.Которая не менее важна, чем вербальная.http://www.popgadget.net/2007/06/warn_me_if_im_b.phpНу, использование наших наработок о невербальных сигналах есть моя давняя мечта использовать в прогах по эмоциональной экспрессии.