http://www.youtube.com/watch?v=p2qlHoxPioMЭх, смотрите, чего нам обещают в недалёком будущем :)Так что даже без всяких инвестиций лет через 15 будет нам открытое API и делать НЛП-софт будет не сложнее чем презентации рисовать :)
Не дает кинетическую обратную связь.А я видел по телеку, как ДЦПшников приучали к ~паттернам_правильного_движения. Что-то вроде резиновых костюмов, которые при надувании (или заполнении водой) фиксируют правильное положение той или иной части тела. В итоге, тело приучивается к новым паттернам фиксации и движений.
http://www.youtube.com/watch?v=p2qlHoxPioMЭх, смотрите, чего нам обещают в недалёком будущем :)Ну, вообще-то примерно плюс минус это же обещали и даже десять лет назад.Так что даже без всяких инвестиций лет через 15 будет нам открытое API и делать НЛП-софт будет не сложнее чем презентации рисовать :)Охотно верю. Но, к тому времени за 15 лет четкость описания моделей достигнет такой выразительности, что много софта и не понадобится.
Да, был репортаж в новостях. И вроде на конвейер поставили разработку таких.Стоит порядка 40 тысяч рублей, если память ен изменяет, поэтому повсеместно - не везде получится внедрить, увы и ах:(
Но, к тому времени за 15 лет четкость описания моделей достигнет такой выразительности, что много софта и не понадобится. Четкость описания метапрактиковых моделей?