Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 51001 - 51010 из 56260
Ты их вживую наблюдал? Расскажи.
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

хмхм. а можно ли сказать, что эти последовательности могут быть на разных логических уровнях?
Они ДОЛЖНЫ быть на разных логических уровнях для создания силы их воздействия!!!
мне вспомнился один давний текст: http://bowin.livejournal.com/317927.html, где перемещение было в условном физическом пространстве, но по ассоциативной сцепке - улица в этом городе похожа на переулок в другом городе формой окон, а соседняя площадь в другом городе похожа на угол площади в третьем городе расстановкой кадок с цветами,
Если в твоем примере будет примерно так:
(1) Улицы, переулки, закоулки
1.1 Сходящееся на виде окон описание улицы в городе1
1.2 Сходящееся на виде окон описание переулка в городе2
[1.3 Сходящееся на виде окон описание закоулка в городе3]
(2)Площади, площадки, пятачки
2.1 Сходящееся на виде кадок с цветами описание площади в городеN
2.2 Сходящееся на виде кадок с цветами описание угла площади в городеN+1
[(3) ...]
При этом:
--города 1,2,3 представляют какую-то систему1
--города N, N+1... представляют какую-то систему2
--пункты описания (1), (2), (3) представляют какую-то систему3
То, скажи пожалуйста, сколько мы имеем в этом случае траекторий внимания?
и т.п. примерно по такому же принципу происходят сны, пока не учишься держать контекст - они последовательны, но непоследовательны
Отлично подмечено. Можно сказать, что сны развиваются в пространстве многомерных траекторий внимания, с которыми сознание просто не способно совладать.
если можно, то тогда переходы могут быть, видимо, на уровне разницы, разницы разницы и разницы разницы разницы (то, о чем говорил Бейтсон: http://bowin.livejournal.com/599068.html)
Думаю, что мэтр в том примере был несколько эээ "нечестен". [я напишу]
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Посмотрим снова на такой компонент модели вербально-сенсорного декодера как Траектории Внимания.
Полезно различать:
-- внимание делающего описания декодера: оператора (агента) изменений, Алисы/Боба и
--внимание Чарли, того кто воспринимает описание
Строго говоря, то что для Чарли является именно "траекторией внимания", для Алисы/Боба является "последовательностью описания".
По отношению к определенным смысловым/содержательным контекстам последовательность описания может быть:
--системной
--бессистемной
Про саму модель Декодера подробнее здесь(http://community.livejournal.com/metapractice/34050.html)
Ну, эту модель еще описывать и описывать. Впрочем, незавершенность ее описания нисколько не мешает использовать то, что уже известно.
Так вот, траектории внимания могут быть не только метрические - вверх-вниз-влево-вправо. Траектории внимания являются элементом алгоритмического класса Последовательностей (сначала смотрим туда, потом сюда...).
Последовательность "туда - сюда", строго говоря является эээ "метрической". Причем, из того же класса, что и "вверх - вниз".
Тут можно вспомнить, что любая модель может быть разложена на Нейрологический, Лингвистический и Программный компоненты.
Каждая модель НЛП обязательно должна содержать нейрологическую, лингвистическую и программную компоненты.
А в модели Декодера траектории внимания, и, более широко - Последовательности, как раз и являются программной частью модели.
Траектории внимания наиболее насыщены программной/алгоритмической компонентой, но есть и другие.
И вот становится интересно, какие же другие общие последовательности, кроме метрических (обычных) траекторий еще можно описывать декодером? Накидаем базовый список вариантов последовательностей декодера:
Немного смешно получается в такой твоей формулировке :) Ведь любое, даже бессистемное описание уже есть последовательность. Это свойство языка. Как только мы используем язык - мы используем последовательности, некоторые из которых представляют более системный и полезный декодер, некоторые являются шумом, некоторые - неполезными.
- временные последовательности событий (прогрессия, регрессия и их комбинации) (пример - пришёл, увидел, победил)
Здесь я бы выделил две последовательности:
--"появление" - "пребывание" (пришел - увидел, победил)
--пришёл - увидел - победил
- параметрические последовательности, где один параметр возрастает или убывает или просто заменяется другим значением (например последовательность ресурсов для якорения - набор картинок в которых человек меняется, а смысл ситуации остаётся тот же)
Ну, переход параметров за некий оптимум может изменить "смысл ситуации".
- расширяющиеся/сужающиеся смысловые последовательности (пример расширяющейся - Вася/знакомый/человек)
Уровни обобщения(?): Вася - знакомый - человек - обитатель Земли - ...
Это совсем грубая классификация, наверняка неполная и несбалансированная.
Наметка. Но ты не упомянул другой важный момент: введение новых качественных оснований для декодерных описаний позволяет:
--резко увеличить их информационную емкость без пропорционального разрастания объема
--то же и с эффективностью
А за счет чего? А за счет ОДНОВРЕМЕННОГО использования нескольких траекторий с разными их эээ "основаниями".
Надо наверное будет подобрать из книг разнообразные примеры классических техник НЛП, где идея последовательностей описывается декодером.
С примерами не проблема, ибо КАЖДАЯ техника содержит, по меньшей мере, несколько траекторий Д. Будет интересно найти КРАСИВЫЕ/поучительные примеры.
Я видел демонстрацию способностей бронникоыцев: http://bronnikov.hoha.ru/
Весьма убедительно.
</>
[pic]
Офтоп

metanymous в посте Metapractice (оригинал в ЖЖ)

Что-то мы запутались в маркировке тем, у нас потерялся по этой теме:
Место для тренировки Декодера4
http://community.livejournal.com/metapractice/94480.html
</>
[pic]
...

bowin в посте Metapractice (оригинал в ЖЖ)

хмхм. а можно ли сказать, что эти последовательности могут быть на разных логических уровнях?
мне вспомнился один давний текст: http://bowin.livejournal.com/317927.html, где перемещение было в условном физическом пространстве, но по ассоциативной сцепке - улица в этом городе похожа на переулок в другом городе формой окон, а соседняя площадь в другом городе похожа на угол площади в третьем городе расстановкой кадок с цветами, и т.п.
примерно по такому же принципу происходят сны, пока не учишься держать контекст - они последовательны, но непоследовательны
если можно, то тогда переходы могут быть, видимо, на уровне разницы, разницы разницы и разницы разницы разницы (то, о чем говорил Бейтсон: http://bowin.livejournal.com/599068.html)
</>
[pic]
Место для тренировки Декодера5

wake_ в Metapractice (оригинал в ЖЖ)

Посмотрим снова на такой компонент модели вербально-сенсорного декодера как Траектории Внимания.
Про саму модель Декодера подробнее здесь (http://community.livejournal.com/metapractice/34050.html)
Так вот, траектории внимания могут быть не только метрические - вверх-вниз-влево-вправо.
Траектории внимания являются элементом алгоритмического класса Последовательностей (сначала смотрим туда, потом сюда...).

Тут можно вспомнить, что любая модель может быть разложена на Нейрологический, Лингвистический и Программный компоненты.
А в модели Декодера траектории внимания, и, более широко - Последовательности, как раз и являются программной частью модели.
И вот становится интересно, какие же другие общие последовательности, кроме метрических (обычных) траекторий еще можно описывать
декодером? Накидаем базовый список вариантов последовательностей декодера:
- временные последовательности событий (прогрессия, регрессия и их комбинации) (пример - пришёл, увидел, победил)
- параметрические последовательности, где один параметр возрастает или убывает или просто заменяется другим значением (например последовательность ресурсов для якорения - набор картинок в которых человек меняется, а смысл ситуации остаётся тот же)
- расширяющиеся/сужающиеся смысловые последовательности (пример расширяющейся - Вася/знакомый/человек)
Это совсем грубая классификация, наверняка неполная и несбалансированная. Надо наверное будет подобрать из книг разнообразные примеры классических техник НЛП, где идея последовательностей описывается декодером.
Место для тренировки Декодера4
http://community.livejournal.com/metapractice/34050.html
Электронная йога
Кому не хотелось узнать, как работает организм? Причем не какой-то абстрактный, а свой собственный. Извечное человеческое любопытство заставляет нас прислушиваться к себе: а что там внутри? как оно работает?
Алексей Долецкий http://offline.computerra.ru/2007/699/330833/
Обратная связь
Попробуйте провести карандашом идеально прямую линию, а потом сделайте то же самое с закрытыми глазами. Наверняка получилось хуже.
Родион Кудрин http://offline.computerra.ru/2007/699/330843/
Синхронизируйся с компьютером!
Всех ли устраивает работа собственного организма "по умолчанию"? Конечно, сразу после запуска система, как правило, работает вполне удовлетворительно.
Алексей Долецкий http://offline.computerra.ru/2007/699/330837/

Дочитали до конца.