Показаны записи 411 - 420 из 2063
[pic]

Вариатор (n+3) Генератор экспрессивной вариабельности и «биения»

http://metapractice.livejournal.com/419677.html
http://metapractice.livejournal.com/478491.html?thread=12503579#t12503579
http://metapractice.livejournal.com/478491.html?thread=12693787#t12693787
Ого! Как-то пропустил тему. Если немного офф, то прошу прощения. В прямом отзеркаливании оператор идет на "шаг"(pace) позади клиента ОЖИДАЯ/наблюдая, когда клиент начнет прямо отзеркаливать другую его часть (т.е идти на "шаг" позади оператора). И тут оператору полезно замечать какой частью клиент делает прямое отзеркаливание оператора, т.е за чем идет с отставанием клиент.
Далее оператор, если хватает гибкости включает этот элемент поведения (отзеракаливаемый клиентом) в процесс, когда он догоняет клиента - своего прямого отзеркаливания клиента.
Оператор (прямо)догоняет клиента(одну часть), который начинает (прямо)догонять (другую часть) оператора, который (перекрестно) догоняет клиента(третья часть).
Это и есть та самая петля БОС, о которой твердили БиГи в трансформейшн, плюс раппорт с частью клиента, с которой можно говорить/договариваться или даже попросить отключиться/не функционировать на время(Бендлер и рука ноги/рука клиентки) и т.д.
http://metapractice.livejournal.com/478491.html?thread=12694043#t12694043
В прямом отзеркаливании оператор идет на "шаг"(pace) позади клиента ОЖИДАЯ/наблюдая, когда клиент начнет прямо отзеркаливать другую его часть (т.е идти на "шаг" позади оператора).
Опечатка, имел в виду "в перекрёстном"? Вообще, на мой взгляд, это перпендикулярные вещи: прямо/перекрёстно, с отставанием/с опережением.
Где-то раньше Метанимус писал, что для "ведения" периодических движений (ритмов) при любом раскладе так или иначе надо задействовать "биения". Движения оператора должны быть по частоте близки, но не равны, частоте движений субъекта. При определённом соотношении частот субъекта буквально затягивает/захватывает в ритм оператора.
[pic]

Модальность

Мета-модель, выпуск 1
Deletion — это процесс, в результате которого удаляются части первоначального опыта (мира) или полной языковой репрезентации (Глубинной Структуры).
SPECIAL CASES OF DELETION
Class Ill: Modal Operators (Класс 3: Модальные операторы)
- Модальные глаголы отличаются от остальных глаголов тем, что они не используются самостоятельно и не обозначают конкретного действия или состояния они отражают его модальность, то есть отношение к нему говорящего: возможность, необходимость, способность, вероятность и т. д. совершения действия
- Модальные глаголы всегда связаны с глаголом, который следует за ним, изменяя то как мы что-то делаем и, создавая способ действия, предшествующий содержанию. Этот способ может быть легко отделен от любого содержания и контекста и может стать обобщенным отношением к жизни, как «я могу» или «я не могу», "должен" или "не должен" (Андреас)
[pic]

Рефрейминг в роли проц. интеграции частей

Сводная тема, выпуск 26
http://metapractice.livejournal.com/489916.html
Модель "ЧАСТИ" (11) Рефрейминг в роли проц. интеграции частей
http://metapractice.livejournal.com/435587.html
Рефрейминг (46) Рефрейминг в роли проц. интеграции частей
http://metapractice.livejournal.com/491557.html

http://metapractice.livejournal.com/492280.html?thread=12686584#t12687096
--Классическое исполнение 6-ти шагового рефрейминга предполагает, что есть одна часть контролирующая поведение.

В рефрейминге часть, которая контролирует только некое отдельное поведение.
--Но может быть/есть вариант, когда на контроль одного и того же поведения претендуют больше чем одна часть.
Такой вариант весьма распространён. Но, он обрабатывается рефреймингов переговоров между частями, а не шестишаговым р.
[pic]

Структура внутренних ощущений

Структура ощущений, выпуск 1
Оригинал взят у bavi в Бендлер: демонстрации
(1)
Я встревожен
Откуда вы знаете, что это не восхищение
[pic]

NeuralTalk and Walk - компьютеры прозрели и начинают разговаривать

Декодер, выпуск 18
http://metapractice.livejournal.com/490228.html
Оригинал взят у ailev в NeuralTalk and Walk -- компьютеры прозрели и начинают разговаривать
Эта в реальном времени откомментированная компьютером прогулка по Амстердаму была записана с вебкамеры на ноутбуке (https://vimeo.com/146492001):

Код вот тут (хотя для видео он был слегка модифицирован): https://github.com/karpathy/neuraltalk2
Идёт соревнование подобных программ, показанные результаты занимают примерно 8-9 место: https://competitions.codalab.org/competitions/3221#results
Программирование уже никогда не будет прежним. Ах да, там слово "программирование" уже не очень подходит -- информатикой оно остаётся, но уже не является программированием. Компьютеры прозрели и начинают разговаривать. Жизнь опять поменялась, жизнь поменялась стремительно.

Приглашение метапрактиков
Я предлагаю метапрактикам на время забыть про уже прозревшие и разговаривающие компьютеры. И глазами живых людей посмотреть на серии отдельных кадров флешки, размещённые в комментариях. Каждый такой кадр я выделил из записи по моменту появления в нём машинного комментария изображения. Как только на записи появлялся каждый раз новый комментарий, - именно этот кадр я вырезал и размещал сюда.
Я приглашаю вас посмотреть на эти кадры глазами людей. И написать в пору слов или короткую фразу: что такое самое важное с вашей человеческой точки зрения вы видите в данном кадре. Вот так и сравним. Что там на самом деле "видит машина", а что видим мы люди. И насколько эти видения пересекаются.
[pic]

Интерфейс для постижения чего угодно

Источники ресурсов, выпуск 12
http://metapractice.livejournal.com/496154.html
Экологичность и безопасность нейроинтерфейса: http://openmeta.livejournal.com/229226.html
http://ailev.livejournal.com/1225639.html
Электросон
http://www.fizter.ru/l3.htm
(1) Заякорить проблему.
(2) Включить аппарат для усыпления только правого полушария (для правшей). Обдумать проблему в усиленном режиме активности левого полушария. Или просто задействовать проблемный якорь.
(3) Усыпить левое полушарие и обдумать проблему в усиленном режиме правого полушария. Или активизировать якорь.
(4) Выключить аппарат и через некоторое время задержки получить постижение проблемы.

[pic]

Карго-модели

Иное моделирование, выпуск 41
http://metapractice.livejournal.com/470205.html

Ну, это красиво. На демо программа различает типовые гримасы. Но, гримасы это есть утрированная экспрессия эмоций. Весь куст этих подходов и не думает калибровать действительные эмоции. Для этого надо, например, калибровать по картинке активность сердца и дыхания. Дыхание ещё можно сымитировать. А вот, ритм сердца уже сложнее. Еще лучше брать в качестве нейрологического индикатора именно физиологии эмоций - брать состояние сосудов. Там, вроде уже есть проги, которые это могут делать. Ну, или тупо брать тепловизором.
http://metapractice.livejournal.com/497371.html?thread=12640219#t12640219
[pic]

Microsoft представила программу распознавания некоторых типовых выражений лица

Модел. эмоции, выпуск 20
http://metapractice.livejournal.com/484454.html
Оригинал взят у ailev в Распознавание эмоций автоматизировано и вышло на рынок
Моделирование в смысле классического НЛП (с точностью, что мы говорим пока не о метамоделировании -- создании новых видов моделей, а о моделировании: создании модели по известной метамодели) не человеком, а компьютером пошло в массы (ибо Microsoft -- это уже "массы"): http://blogs.microsoft.com/next/2015/11/11/happy-sad-angry-this-microsoft-tool-recognizes-emotions-in-pictures/
  Эмоции из аудио, кстати, давно продаются: http://www.beyondverbal.com/, научных работ типа http://arxiv.org/abs/1503.01800 (EmoNets: Multimodal deep learning approaches for emotion recognition in video), хотя точность распознавания там и не блещет, но я думаю, что по сравнению с не очень обученными людьми (то есть нас с вами) не всё окажется плохо. Обычно за пару лет нейронные сетки, если этим занялись какие-то команды, достигают сверхчеловеческих результатов.
  Моделированием занялись не-психологи. Дальше всё будет быстро-быстро. Базовые эмоции на фотографиях -- это только верхушка формирующегося айсберга. Там будут и не эмоции, и видео. Какие-нибудь "ключи доступа" очень легко проверить (чем прекратить дурацкие пустопорожние дискуссии) и либо забыть о них, либо начать использовать в работе -- рутинно и без длительного тренинга на их распознавание. Ибо в каких-нибудь очках дополненной реальности все эти "стратегии" будут в буквальном смысле слова "написаны на лбу" у тех, кто их применяет. Технология уже доступна сегодня даже для любителей (самое дорогое в этой технологии -- это данные для обучения алгоритма, этих данных нужно реально много), поток новостей по технологии (это deep learning) идёт тут: http://vk.com/deeplearning

Дочитали до конца.