Посмотрим снова на такой компонент модели вербально-сенсорного декодера как Траектории Внимания.Про саму модель Декодера подробнее здесь (http://community.livejournal.com/metapractice/34050.html)Так вот, траектории внимания могут быть не только метрические - вверх-вниз-влево-вправо.Траектории внимания являются элементом алгоритмического класса Последовательностей (сначала смотрим туда, потом сюда...).Тут можно вспомнить, что любая модель может быть разложена на Нейрологический, Лингвистический и Программный компоненты.А в модели Декодера траектории внимания, и, более широко - Последовательности, как раз и являются программной частью модели.И вот становится интересно, какие же другие общие последовательности, кроме метрических (обычных) траекторий еще можно описыватьдекодером? Накидаем базовый список вариантов последовательностей декодера:- временные последовательности событий (прогрессия, регрессия и их комбинации) (пример - пришёл, увидел, победил)- параметрические последовательности, где один параметр возрастает или убывает или просто заменяется другим значением (например последовательность ресурсов для якорения - набор картинок в которых человек меняется, а смысл ситуации остаётся тот же)- расширяющиеся/сужающиеся смысловые последовательности (пример расширяющейся - Вася/знакомый/человек)Это совсем грубая классификация, наверняка неполная и несбалансированная. Надо наверное будет подобрать из книг разнообразные примеры классических техник НЛП, где идея последовательностей описывается декодером.Место для тренировки Декодера4http://community.livejournal.com/metapractice/34050.html
хмхм. а можно ли сказать, что эти последовательности могут быть на разных логических уровнях?мне вспомнился один давний текст: http://bowin.livejournal.com/317927.html, где перемещение было в условном физическом пространстве, но по ассоциативной сцепке - улица в этом городе похожа на переулок в другом городе формой окон, а соседняя площадь в другом городе похожа на угол площади в третьем городе расстановкой кадок с цветами, и т.п.примерно по такому же принципу происходят сны, пока не учишься держать контекст - они последовательны, но непоследовательныесли можно, то тогда переходы могут быть, видимо, на уровне разницы, разницы разницы и разницы разницы разницы (то, о чем говорил Бейтсон: http://bowin.livejournal.com/599068.html)
Посмотрим снова на такой компонент модели вербально-сенсорного декодера как Траектории Внимания.Полезно различать:-- внимание делающего описания декодера: оператора (агента) изменений, Алисы/Боба и--внимание Чарли, того кто воспринимает описаниеСтрого говоря, то что для Чарли является именно "траекторией внимания", для Алисы/Боба является "последовательностью описания".По отношению к определенным смысловым/содержательным контекстам последовательность описания может быть:--системной--бессистемнойПро саму модель Декодера подробнее здесь(http://community.livejournal.com/metapractice/34050.html)Ну, эту модель еще описывать и описывать. Впрочем, незавершенность ее описания нисколько не мешает использовать то, что уже известно.Так вот, траектории внимания могут быть не только метрические - вверх-вниз-влево-вправо. Траектории внимания являются элементом алгоритмического класса Последовательностей (сначала смотрим туда, потом сюда...).Последовательность "туда - сюда", строго говоря является эээ "метрической". Причем, из того же класса, что и "вверх - вниз".Тут можно вспомнить, что любая модель может быть разложена на Нейрологический, Лингвистический и Программный компоненты.Каждая модель НЛП обязательно должна содержать нейрологическую, лингвистическую и программную компоненты.А в модели Декодера траектории внимания, и, более широко - Последовательности, как раз и являются программной частью модели.Траектории внимания наиболее насыщены программной/алгоритмической компонентой, но есть и другие.И вот становится интересно, какие же другие общие последовательности, кроме метрических (обычных) траекторий еще можно описывать декодером? Накидаем базовый список вариантов последовательностей декодера:Немного смешно получается в такой твоей формулировке :) Ведь любое, даже бессистемное описание уже есть последовательность. Это свойство языка. Как только мы используем язык - мы используем последовательности, некоторые из которых представляют более системный и полезный декодер, некоторые являются шумом, некоторые - неполезными.- временные последовательности событий (прогрессия, регрессия и их комбинации) (пример - пришёл, увидел, победил)Здесь я бы выделил две последовательности:--"появление" - "пребывание" (пришел - увидел, победил)--пришёл - увидел - победил- параметрические последовательности, где один параметр возрастает или убывает или просто заменяется другим значением (например последовательность ресурсов для якорения - набор картинок в которых человек меняется, а смысл ситуации остаётся тот же)Ну, переход параметров за некий оптимум может изменить "смысл ситуации".- расширяющиеся/сужающиеся смысловые последовательности (пример расширяющейся - Вася/знакомый/человек)Уровни обобщения(?): Вася - знакомый - человек - обитатель Земли - ...Это совсем грубая классификация, наверняка неполная и несбалансированная.Наметка. Но ты не упомянул другой важный момент: введение новых качественных оснований для декодерных описаний позволяет:--резко увеличить их информационную емкость без пропорционального разрастания объема--то же и с эффективностьюА за счет чего? А за счет ОДНОВРЕМЕННОГО использования нескольких траекторий с разными их эээ "основаниями".Надо наверное будет подобрать из книг разнообразные примеры классических техник НЛП, где идея последовательностей описывается декодером.С примерами не проблема, ибо КАЖДАЯ техника содержит, по меньшей мере, несколько траекторий Д. Будет интересно найти КРАСИВЫЕ/поучительные примеры.
хмхм. а можно ли сказать, что эти последовательности могут быть на разных логических уровнях?Они ДОЛЖНЫ быть на разных логических уровнях для создания силы их воздействия!!!мне вспомнился один давний текст: http://bowin.livejournal.com/317927.html, где перемещение было в условном физическом пространстве, но по ассоциативной сцепке - улица в этом городе похожа на переулок в другом городе формой окон, а соседняя площадь в другом городе похожа на угол площади в третьем городе расстановкой кадок с цветами,Если в твоем примере будет примерно так:(1) Улицы, переулки, закоулки1.1 Сходящееся на виде окон описание улицы в городе11.2 Сходящееся на виде окон описание переулка в городе2[1.3 Сходящееся на виде окон описание закоулка в городе3](2)Площади, площадки, пятачки2.1 Сходящееся на виде кадок с цветами описание площади в городеN2.2 Сходящееся на виде кадок с цветами описание угла площади в городеN+1[(3) ...]При этом:--города 1,2,3 представляют какую-то систему1--города N, N+1... представляют какую-то систему2--пункты описания (1), (2), (3) представляют какую-то систему3То, скажи пожалуйста, сколько мы имеем в этом случае траекторий внимания?и т.п. примерно по такому же принципу происходят сны, пока не учишься держать контекст - они последовательны, но непоследовательныОтлично подмечено. Можно сказать, что сны развиваются в пространстве многомерных траекторий внимания, с которыми сознание просто не способно совладать.если можно, то тогда переходы могут быть, видимо, на уровне разницы, разницы разницы и разницы разницы разницы (то, о чем говорил Бейтсон: http://bowin.livejournal.com/599068.html)Думаю, что мэтр в том примере был несколько эээ "нечестен". [я напишу]