[userpic]

... 

metanymous в посте Metapractice (оригинал в ЖЖ)

Место для тренировки Декодера
  3. Место для тренировки Декодера metanymous
Посмотрим снова на такой компонент модели вербально-сенсорного декодера как Траектории Внимания.
Полезно различать:
-- внимание делающего описания декодера: оператора (агента) изменений, Алисы/Боба и
--внимание Чарли, того кто воспринимает описание
Строго говоря, то что для Чарли является именно "траекторией внимания", для Алисы/Боба является "последовательностью описания".
По отношению к определенным смысловым/содержательным контекстам последовательность описания может быть:
--системной
--бессистемной
Про саму модель Декодера подробнее здесь(http://community.livejournal.com/metapractice/34050.html)
Ну, эту модель еще описывать и описывать. Впрочем, незавершенность ее описания нисколько не мешает использовать то, что уже известно.
Так вот, траектории внимания могут быть не только метрические - вверх-вниз-влево-вправо. Траектории внимания являются элементом алгоритмического класса Последовательностей (сначала смотрим туда, потом сюда...).
Последовательность "туда - сюда", строго говоря является эээ "метрической". Причем, из того же класса, что и "вверх - вниз".
Тут можно вспомнить, что любая модель может быть разложена на Нейрологический, Лингвистический и Программный компоненты.
Каждая модель НЛП обязательно должна содержать нейрологическую, лингвистическую и программную компоненты.
А в модели Декодера траектории внимания, и, более широко - Последовательности, как раз и являются программной частью модели.
Траектории внимания наиболее насыщены программной/алгоритмической компонентой, но есть и другие.
И вот становится интересно, какие же другие общие последовательности, кроме метрических (обычных) траекторий еще можно описывать декодером? Накидаем базовый список вариантов последовательностей декодера:
Немного смешно получается в такой твоей формулировке :) Ведь любое, даже бессистемное описание уже есть последовательность. Это свойство языка. Как только мы используем язык - мы используем последовательности, некоторые из которых представляют более системный и полезный декодер, некоторые являются шумом, некоторые - неполезными.
- временные последовательности событий (прогрессия, регрессия и их комбинации) (пример - пришёл, увидел, победил)
Здесь я бы выделил две последовательности:
--"появление" - "пребывание" (пришел - увидел, победил)
--пришёл - увидел - победил
- параметрические последовательности, где один параметр возрастает или убывает или просто заменяется другим значением (например последовательность ресурсов для якорения - набор картинок в которых человек меняется, а смысл ситуации остаётся тот же)
Ну, переход параметров за некий оптимум может изменить "смысл ситуации".
- расширяющиеся/сужающиеся смысловые последовательности (пример расширяющейся - Вася/знакомый/человек)
Уровни обобщения(?): Вася - знакомый - человек - обитатель Земли - ...
Это совсем грубая классификация, наверняка неполная и несбалансированная.
Наметка. Но ты не упомянул другой важный момент: введение новых качественных оснований для декодерных описаний позволяет:
--резко увеличить их информационную емкость без пропорционального разрастания объема
--то же и с эффективностью
А за счет чего? А за счет ОДНОВРЕМЕННОГО использования нескольких траекторий с разными их эээ "основаниями".
Надо наверное будет подобрать из книг разнообразные примеры классических техник НЛП, где идея последовательностей описывается декодером.
С примерами не проблема, ибо КАЖДАЯ техника содержит, по меньшей мере, несколько траекторий Д. Будет интересно найти КРАСИВЫЕ/поучительные примеры.