Посмотрим снова на такой компонент модели вербально-сенсорного декодера как Траектории Внимания.Полезно различать:-- внимание делающего описания декодера: оператора (агента) изменений, Алисы/Боба и--внимание Чарли, того кто воспринимает описаниеСтрого говоря, то что для Чарли является именно "траекторией внимания", для Алисы/Боба является "последовательностью описания".По отношению к определенным смысловым/содержательным контекстам последовательность описания может быть:--системной--бессистемнойПро саму модель Декодера подробнее здесь(http://community.livejournal.com/metapractice/34050.html)Ну, эту модель еще описывать и описывать. Впрочем, незавершенность ее описания нисколько не мешает использовать то, что уже известно.Так вот, траектории внимания могут быть не только метрические - вверх-вниз-влево-вправо. Траектории внимания являются элементом алгоритмического класса Последовательностей (сначала смотрим туда, потом сюда...).Последовательность "туда - сюда", строго говоря является эээ "метрической". Причем, из того же класса, что и "вверх - вниз".Тут можно вспомнить, что любая модель может быть разложена на Нейрологический, Лингвистический и Программный компоненты.Каждая модель НЛП обязательно должна содержать нейрологическую, лингвистическую и программную компоненты.А в модели Декодера траектории внимания, и, более широко - Последовательности, как раз и являются программной частью модели.Траектории внимания наиболее насыщены программной/алгоритмической компонентой, но есть и другие.И вот становится интересно, какие же другие общие последовательности, кроме метрических (обычных) траекторий еще можно описывать декодером? Накидаем базовый список вариантов последовательностей декодера:Немного смешно получается в такой твоей формулировке :) Ведь любое, даже бессистемное описание уже есть последовательность. Это свойство языка. Как только мы используем язык - мы используем последовательности, некоторые из которых представляют более системный и полезный декодер, некоторые являются шумом, некоторые - неполезными.- временные последовательности событий (прогрессия, регрессия и их комбинации) (пример - пришёл, увидел, победил)Здесь я бы выделил две последовательности:--"появление" - "пребывание" (пришел - увидел, победил)--пришёл - увидел - победил- параметрические последовательности, где один параметр возрастает или убывает или просто заменяется другим значением (например последовательность ресурсов для якорения - набор картинок в которых человек меняется, а смысл ситуации остаётся тот же)Ну, переход параметров за некий оптимум может изменить "смысл ситуации".- расширяющиеся/сужающиеся смысловые последовательности (пример расширяющейся - Вася/знакомый/человек)Уровни обобщения(?): Вася - знакомый - человек - обитатель Земли - ...Это совсем грубая классификация, наверняка неполная и несбалансированная.Наметка. Но ты не упомянул другой важный момент: введение новых качественных оснований для декодерных описаний позволяет:--резко увеличить их информационную емкость без пропорционального разрастания объема--то же и с эффективностьюА за счет чего? А за счет ОДНОВРЕМЕННОГО использования нескольких траекторий с разными их эээ "основаниями".Надо наверное будет подобрать из книг разнообразные примеры классических техник НЛП, где идея последовательностей описывается декодером.С примерами не проблема, ибо КАЖДАЯ техника содержит, по меньшей мере, несколько траекторий Д. Будет интересно найти КРАСИВЫЕ/поучительные примеры.