осталось понять, есть ли основания для того выбора кроме использования абдукции управление <-> вестибулярный аппарат. т.е. какие за и против могут быть для принятия и работы с такой моделью.
Вестибулярное чувство -- является основой для управления движением. во многом подержание равновесия -- есть простое определение для управления в контексте открытых систем (имеется в виду управление системами, на которые активно влияют другие системы).тогда вестибулярный аппарат -- этакое зримое (или точнее ощущаемое человеком) выражения управления телом. и в некотором роде интерфейс для взаимодействия с управлением. далее, вестибулярный аппарат -- это бессознательный механизм, на который оказывает влияние и физиологические особенности и особенности жизни людей, как особенности сложения так и особенности связанные с тем, что люди передвигаются по поверхности земли по плоскости, например.Тактильное чувство -- рассматривается как интерфейс получения данных из внешнего мира.Проприоцептивное чувство -- рассматривается как интерфейс получения данных о положении тела в пространстве.Чувство средней линии или чувство блуждающего нерва - это включает импульсы выживания, эмоции и общее чувство окружающей обстановки. Мы утверждаем, что Мета K, термин обычно использующийся для этой категории, является неправильным, поскольку есть конкретные физиологические объяснения общих ощущений-- т.е. эот некий уровень выше над непосредственной К (как тактильное и проприоцептивное чувства) но все же автор рассматривает это как лишь иную форму интерфейса получения информации о внешнем/внутреннем мире. в некотором смысле можно проводить аналогию со зрительным нервом.Вестибулярное чувство как понимаю, автор автор придает этому типу К именно возможность управления, т.е. метапозицию по отношению к другим типам К.
Вспомнил. Ежели к этой штуке (http://www.image-metrics.com/) есть SDK, то должна в том числе и распознавать движения глаз. Насколько знаю плагин к skype-у они (или сторонние разработчики) написали.
и вот еще, но она не столь точная как первая система.ФАПС -- http://usabilitylab.ru/science/technology.php?ID=2293эх, ежели бы у нас серьезно занимались юзабилити, то видеть подобные системы мог бы просто у себя на столе.
так я и не потяну полноценную разработку алгоритма, но в инете, что-то да есть из алгоритмов. если удастся адаптировать на данные нужды, то получиться, нет.. ну просто нет. а сбор и отладка, допустим, того, что уже есть, или перенесение на другую платформу это достаточно простая задача. я лет пять назад пробовал реализовывать, что-то что в дальнейшем могло вылиться в распознавание, но тогда замучился с адекватной работой алгоритмов, которые смог на тот момент найти. хотя простые задачи, которые были эээ по плечу этим алгоритмам они вполне хорошо выполняли.
Типа камер на компах и софта, который может различать движения глаз. И еще прога, которая будет совмещать те отмеченные движения и озвученный текст. Есть человек -- перед компьютером или монитором. Он читает текст. Этот текст записывается как аудиофайл и также размечается движения глаз в соответствии с произнесенным? так?Или моделируется, допустим, естественный диалог. И тогда две камеры снимают и фиксируют вместе с аудиофайлом и движения глаз?:) Чувствую мне пора отдавать долги. Больше я уже могу и не "взять" на себя :)Но действительно, глаз природой приспособлен для того чтобы детектировать движения зрачков. Это устройство тоже детектирует движения зрачков, просто ему не нужно детектировать лицо и находить глаза -- они поступили "хитро" и повесили устройство на человека:) и то, что человек может двигаться стало безразлично для устройства.
если нужно, то могу попробовать написать, по крайней мере оценить насколько эффективно можно написать. в такой софтине наибольшая проблема это детектирование самих глаз (как элемента лица). распознавание лица -- это алгоритмы, которые приносят не плохие деньги и их, по крайней мере, еще пару лет назад было сложно встретить в свободном доступе. а свои ну, как это сказать.. ну почти качественные.