[userpic]

Видеораспознавание движений 

eugzol в посте Metapractice (оригинал в ЖЖ)

http://www.youtube.com/watch?v=p2qlHoxPioM
Эх, смотрите, чего нам обещают в недалёком будущем :)
Так что даже без всяких инвестиций лет через 15 будет нам открытое API и делать НЛП-софт будет не сложнее чем презентации рисовать :)

7 комментариев

сначала старые сначала новые

Не дает кинетическую обратную связь.
А я видел по телеку, как ДЦПшников приучали к ~паттернам_правильного_движения. Что-то вроде резиновых костюмов, которые при надувании (или заполнении водой) фиксируют правильное положение той или иной части тела. В итоге, тело приучивается к новым паттернам фиксации и движений.
Это интересно.
Да, был репортаж в новостях. И вроде на конвейер поставили разработку таких.
Стоит порядка 40 тысяч рублей, если память ен изменяет, поэтому повсеместно - не везде получится внедрить, увы и ах:(
http://www.youtube.com/watch?v=p2qlHoxPioM
Эх, смотрите, чего нам обещают в недалёком будущем :)

Ну, вообще-то примерно плюс минус это же обещали и даже десять лет назад.
Так что даже без всяких инвестиций лет через 15 будет нам открытое API и делать НЛП-софт будет не сложнее чем презентации рисовать :)
Охотно верю. Но, к тому времени за 15 лет четкость описания моделей достигнет такой выразительности, что много софта и не понадобится.
Но, к тому времени за 15 лет четкость описания моделей достигнет такой выразительности, что много софта и не понадобится.
Четкость описания метапрактиковых моделей?