Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 45991 - 46000 из 56266
</>
[pic]
...

piter239 в посте Metapractice (оригинал в ЖЖ)

буду благодарен за торрент-файл на zharkt@gmail.com
</>
[pic]
...

wake_ в посте Metapractice (оригинал в ЖЖ)

В курсе лекций Далай Ламы слушал похожие на СТ пресуппозиции:
Вы не столько создаете с нуля в себе опыт пустотности, сколько путем некоторой работы понимаете, что она вам была присуща изначально. (цитата своими словами)
</>
[pic]
...

agens в посте Metapractice (оригинал в ЖЖ)

можешь залить в сеть?
Задача #1- сделать транскрипт видеодемонстрации "Сущностной Трансформации" от К. Андреас
http://community.livejournal.com/metapractice/156667.html?thread=2579963#t2579963

В четверг 26 марта 2009, в 19-30 в Газетном пер. 5/3 будет проводиться лаборатория моделирования
http://community.livejournal.com/metapractice/158105.html
Тема: Сущностная Трансформация
http://community.livejournal.com/metapractice/85792.html
http://community.livejournal.com/metapractice/11372.html
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Ага, спасибо, (а этот раз задержка с ответами по причине рухнувшего компа, который пока так и не восстановлен)
</>
[pic]
...

train_addict в посте Metapractice (оригинал в ЖЖ)

В четверг в 19:30, в Газетном переулке 5/3?
Почитать/поделать что-нибудь надо заранее?
</>
[pic]
Re: Обучение нейросети

eugzol в посте Metapractice (оригинал в ЖЖ)

Ясно. То есть процесс выравнивания намерений/поведения для автоматического учёта экологичности реализуется в обоих случаях.
В итоге процесс не расходящийся и бесконечный, но он сходящийся и вполне конечный/обозримый. Это типа обучения нейросети.
А не стоит ли это пресуппозициями усиливать при реализации схемы?
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Во втором случае схема рефрейминга становится проще и алгоритм обработки возражений совпадает с шагами 1-5 основного алгоритма. В первом возникают какие-то оригинальные шаги обработки возражений, не изоморфные шагам 1-5 всего рефрейминга.
Схема проще, но коммуникация – сложнее.
Во втором случае все заинтересованные части учатся новому (эффективному и т.д.) поведению. В первом только одна часть, остальным лишь выделяется позитивное намерение.
Во втором случае, однако, новое поведение рефреймируемой части может провоцировать внутренний конфликт и цепочку "лишних" изменений для его устранения. Когда в первом случае цель рефрейминга может быть достигнута минимальными изменениями.

И в первом случае одни части учатся на опыте делающей р. Части. Эффект некоего присутствия.
Ни в первом ни во втором случае никаких лишних цепочек не возникает, по причине выравнивающего эффекта от генерализации свежего опыта изменений прямо по ходу рефрейминга.
</>
[pic]
Обучение нейросети

metanymous в посте Metapractice (оригинал в ЖЖ)

То есть у них поведения рефреймируемой части варьируются до тех пор, пока не начнут удовлетворять позитивным намерениям всех частей. Здесь мы делаем — варьируем поведение возражающих частей, чтобы они могли выполнять своё позитивное намерение (даже) при изменённом поведении рефреймируемой части. Интересно сравнить эти два подхода.
(1) А, вот в чем дело. Вы не различаете между собой два вида варьирования:
--варьирование1 в заданных рамках отлаживания качества образцов поведения для использования их по мере удовлетворения запросов и намерений Части
--варьирование2 которое реализуется в отсутствии большинства/всех рамок и приводит к буквально взрыву порождения новых форм и активностей
(2) Андреасы ничем не нарушают схему рефрейминга. Они прекрасно учитывают еще и постоянную в нл-программировании функцию ГЕНЕРАЛИЗАЦИИ/обобщения текущих шагов реализации техники:
(а) Схема1. Много много возражающих частей. Начинаем с каждой работать по очереди. И каждой надо делать полноразмерный рефрейминг. И каждая следующая в ответ не все предыдущие изменения теоретически может затребовать ЕЩЕ И НОВУЮ порцию изменений. Абсурд и безнадега. Но такой взгляд не учитывают позитивную генерализацию, которая возникает по причине ~ПРИСУТСТВИЯ всех частей во время каждого момента/шага процедуры. Части корретируют намерения. ТЧ корректирует/учитывает системный эффект по мере переработки текущих запросов от Частей и начинает выдавать все более емкие/системные/всеудовлетворяющие варианты поведений для частей. В итоге процесс не расходящийся и бесконечный, но он сходящийся и вполне конечный/обозримый. Это типа обучения нейросети.
(б) Схема2. Все возражающие части вкруг систематизируют свои запросы и с этим обращаются к ТЧ. Нетрудно заметить, что схема2 внутренне одно и тоже со схемой1. Принципиальная разница между ними у способности оператора уверенно коммуницировать со множеством частей. Если так уверен – схема2. Если нет – схема1.

Дочитали до конца.