Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 5261 - 5270 из 30962
Ну, т.е. ты в это не веришь?
Ссылка хорошая. Спасибо.
А что тебя конкретно развеселило, если это не секрет?
http://metapractice.livejournal.com/484736.html
Оригинал взят у ailev в Нейронет -- нейро-лингвистическая сеть
Вчера я выступил на заседании рабочей группы нейронета, попытавшись восстановить контекст, с которым вся эта затея начиналась. А начиналась она пару лет назад с обсуждения какой-то сети, поддерживающей деятельность людей.
Что было утеряно с тех пор? "Нейро" тогда обозначало только то, что кроме явных (по большей части символьных знаний) сеть могла бы помогать обмениваться неявными, несимвольными знаниями -- эмоциями, ощущениями, невербальной информацией, то есть "нейро" как альтернатива "компьютерно-логическому". Следующий шаг был -- допустить, что это "нейро" можно брать уровнем глубже, прямо из мозга ("живого нейро"). В нейролингвистическом программировании (НЛП) была развита идея Хомского -- в языке есть две структуры: глубокая и поверхностная. Глубокая -- это как язык кодирован в "нейро" его части, в мозгу, и поверхностная -- это выходящая наружу, в сознание (а потом и в голосовой тракт) речь. Поверхностная структура выдаёт сжатую и разным образом искажённую информацию. У нейролингвистических программистов было довольно много приёмов, как уменьшать эти искажения: вопросы метамоделирования для уточнения говоримого, добавка к речи информации о позе, жестикуляции, движении глаз, учёта модальности (видео, аудио, ощущения, вкус, запах) в произносимых словах и т.д.. Идея начального нейронета была в том, что в будущем можно было бы попробовать получать эту информацию глубинной структуры с меньшими искажениями ровно оттуда, где она находится -- из мозга, т.е. аппаратно поддержать интерфейс между бессознательным ("нейро") и сознанием (с которым уже можно работать более привычными методами). Так появилось понимание необходимости нейроинтерфейса и пришло много нейрофизиологов. Ну, а поскольку я заметил, что все подобные "интерфейсы" содержат внутри компьютер, а любой компьютер это "домик для агента" -- разговор пошёл про сеть из мозгов и агентов.
Через пару тактов разговор уже шёл о нейрофизиологии и простейших нейроинтерфейсах, а идея поддержки совместной деятельности куда-то исчезла -- иногда появляясь со стороны разработчиков классических не-нейро (то есть ведущих символьную обработку, "семантических агентов", классика зимы искусственного интеллекта).
Так и прошёл 2014 год -- http://ailev.livejournal.com/1142994.html (где обсуждались идеи вплоть до Brainet, только с людьми), а потом сплавал форсайт-пароход и появился НейроНэт (ух!) в НТИ, где идея поддержки совместной деятельности вообще исчезла, появились специалисты по deep learning (потом их практически устранили), а всё захватили нейрофизиологи (причём даже не те, которые занимаются нейроинтерфейсами, а просто "учёные, работающие над загадками мозга).
Итого:
-- потеряна идея "нейро" как работы с глубокой структурой, в оригинальном смысле нейролингвистического программирования. В 1975 году нейролингвистическим программистам была известна теория Хомского, но мы сейчас можем снять противоречие: мы можем считать, что нейролингвистика -- это переход к распределённой лингвистике, которая поддержана нейронными сетками (в том числе нейронными сетками мозга, но изучается сегодня это наиболее бодро на материале искусственных нейронных сеток). Все эти word embeddings, посимвольные модели языка, и -- главное! -- "всё есть текст", т.е. видеоряд тоже есть текст, и "рассказ по картинке" это просто перевод с одного "распределённого представления языка" на другое. Для человека можно добавить, что и ощущения тем самым можно воспринимать как текст, и переводить с одного языка на другой (эту задачу, в частности, ставит группа психонетиков, но они работают с классическими лингвистами, а не с современными "нейролингвистами" искусственных нейросетей). [но тут нужно добавить, что в 2013 году, когда всё это зарождалось, про успехи распределённой семантики https://en.wikipedia.org/wiki/Distributional_semantics было известно не так много -- word2vec и посимвольные модели языка были известны очень мало кому, это в 2015 году они хит сезона! До использования этих техник говорили только о частотных распределениях слов в рамках контент-анализа, успехи которого были сильно поменьше, несмотря на общность постановки тамошней задачи -- https://en.wikipedia.org/wiki/Content_analysis]
-- не была известна attention schema theory (http://ailev.livejournal.com/1193568.html), которая поможет лучше разобраться в соотношении между сознательным-бессознательным, если мы уж заговорили про "глубокую" и "поверхностную" структуру. Поверхностная (вышедшая на уровень сознания) структура тут именно упрощение, схема -- но в отличие от теории Хомского, мы не считаем, что она определяется правилами грамматики! Нет, никаких правил и символьного вывода, это тоже распределённое представление и вывод (inference) там другой -- статистический, нейронный, по аналогии и т.д.
-- потеряна идея поддержки деятельности на проектном уровне, уровне команды людей. Или мы говорим об "экзокортексе одного человека", или сразу про "социум" (и там конкретные дела превращаются в разный пиар и полуполитические партийные рассуждения -- "как нам обустроить общество через нейротехнологии"). Если есть проект, то это означает, что делается какая-то система. Если делается система, то речь идёт о её жизненном цикле. Если есть жизненный цикл какой-то системы, то должна быть обеспечивающая система как деятельность (состоящая из практик -- обученных дисциплине людей и технологий, т.е. инструментов и приёмов работы с ними), которая и обеспечивает ход работ по проекту. Нейронет должен стать одним из инструментов, а именно экзокортексом, поддерживающим мышление и деятельность (см. про кортекс и экзокортекс тут: http://ailev.livejournal.com/1224251.html)
-- забыто указание, зачем нам в деятельности вдруг потребовалась поддержка со стороны "нейро" в изначальном его понимании (как возможность работы с неформальным, несимвольным знанием, "разлитым в воздухе" -- настроениями, намерениями, интересами, эмоциями и прочими плохоформализуемыми понятиями. Павел Лукша напомнил, что нет пока никаких технических средств, никакого развитого языка разговора о жизненном цикле системы и проекте по созданию системы на той стадии, когда этого проекта ещё нет, но он вот-вот появится. Я называю это "экстремальный жизненный цикл" (если думать обо всём жизненном цикле хорошо, то давайте ещё дальше расширим границы нашего думания -- будем думать и о том, что было непосредственно до старта проекта, откуда-то ведь этот проект взялся!). Всё стартапное движение, "институты развития", попытки разобраться с "предпринимательскими университетами", организация инноваций как закономерный выход из R&D деятельности -- это всё ровно про это. В системной инженерии это conceptual design, которое делается даже не совсем инженерами, а стратегами (executives), менеджерами и инженерами вместе. Ага, дизайн-мышление тоже пытается бить в этом место. Вот с этой "неформализуемостью" и должна работать нейролингвистика! Помогать проявлять и согласовывать интересы, уточнять идеи, связывать людей в команду. А уж нейроинтерфейс "прямо к нейронам мозга", или в понимании нейролингвистики, как её понимали классические нейролингвистические программисты -- это уже дело второе. Я про эту идею говорил в презентации тут: http://ailev.livejournal.com/1223021.html
-- наследие проекта 2045 не позволило отследить прохождение идеи "аватара наоборот" -- не человек пойдёт в киберпространство как аватар и будет его аплоад, а ровно наоборот: виртуальные помощники (ИскИны) будут аватаризованы. Впрочем, уже: Кортана (вместе с картинкой!), Сири, Гугль (ОК, Гугль -- это именно он откликается!), Алекса (от Амазона) и т.д., их уже много. Нейролингвистические агенты будут аватаризованы.
Тем самым можно ставить задачу на создание виртуального помощника для коллектива, который будет особенно полезен на той стадии, когда коллектива ещё почти нет. Этот виртуальный (т.е. представленный аватаром, но сразу многим людям -- как в фильме "Her") помощник работает как заправский нейролингвистический программист, помогая людям осознать (вывести на уровень сознания, перевести из глубокой в поверхностную структуру) их интересы, намерения, опасения, идеи и тем самым помогая начать проект.

При этом конкуренты вовсю предлагают создание виртуальных персональных помощников. Следующим шагом конкурентов будет работа этих виртуальных персональных помощников с традиционными средствами поддержки проектной работы. Я в презентации "Будущее проектирования" (http://incose-ru.livejournal.com/53397.html) как раз говорил, что это только вопрос времени, когда Autodesk предъявит своего аватара (ОК, Autodesk!) для разговора с линейкой своих САПР и PLM-продуктов. Пройдёт очень много времени, пока эти "персональные коллективные ассистенты" станут а) нацелены на коммуникацию между людьми, а не на коммуникацию отдельных людей с чьим-то тупым софтом, и б) будут "тёплыми ламповыми", т.е. существенно учитывать психологию человека (хотя в колл-центрах и желающих побольше продать интернет-магазинах "персональные помощники" могут неожиданно быстро приобрести эти компетенции). Ну, и отнюдь не все конкуренты обращают внимание на нейрофизиологическую часть. Отцы-основатели НЛП многое бы дали, чтобы строить НЛП не на основе личных наблюдений, а на основе современной нейрофизиологической информации, которую могут собрать современные приборы, снабжённые средствами глубокого обучения (раньше то выражения лица, например, мог распознавать только человек! А теперь это можно делать приборно, равно как отслеживать эмоции по тону голоса. Не забываем, что не все люди могут это делать свободно, как не все люди имеют цветовое зрение -- помним, что синдром Аспергера многие просто имеют в не очень ярко выраженной форме).
Софт и аппаратура для такого виртуального персонального помощника и будет в основе нейронета -- нейролингвистической сети из людей и интеллектуальных неживых агентов, с тёплым ласковым ламповым неформализуемым (не на основе логики! хотя логические вычислители там абсолютно не исключены -- наравне с вычислителями на нейронных сетях, эволюционных алгоритмах и т.д.) интерфейсом.

</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Почему их не видно я не знаю.
Но, все картинки взяты из слайд-презентации.
http://metapractice.livejournal.com/484454.html
Оригинал взят у ailev в Распознавание эмоций автоматизировано и вышло на рынок
Моделирование в смысле классического НЛП (с точностью, что мы говорим пока не о метамоделировании -- создании новых видов моделей, а о моделировании: создании модели по известной метамодели) не человеком, а компьютером пошло в массы (ибо Microsoft -- это уже "массы"): http://blogs.microsoft.com/next/2015/11/11/happy-sad-angry-this-microsoft-tool-recognizes-emotions-in-pictures/
  Эмоции из аудио, кстати, давно продаются: http://www.beyondverbal.com/, научных работ типа http://arxiv.org/abs/1503.01800 (EmoNets: Multimodal deep learning approaches for emotion recognition in video), хотя точность распознавания там и не блещет, но я думаю, что по сравнению с не очень обученными людьми (то есть нас с вами) не всё окажется плохо. Обычно за пару лет нейронные сетки, если этим занялись какие-то команды, достигают сверхчеловеческих результатов.
  Моделированием занялись не-психологи. Дальше всё будет быстро-быстро. Базовые эмоции на фотографиях -- это только верхушка формирующегося айсберга. Там будут и не эмоции, и видео. Какие-нибудь "ключи доступа" очень легко проверить (чем прекратить дурацкие пустопорожние дискуссии) и либо забыть о них, либо начать использовать в работе -- рутинно и без длительного тренинга на их распознавание. Ибо в каких-нибудь очках дополненной реальности все эти "стратегии" будут в буквальном смысле слова "написаны на лбу" у тех, кто их применяет. Технология уже доступна сегодня даже для любителей (самое дорогое в этой технологии -- это данные для обучения алгоритма, этих данных нужно реально много), поток новостей по технологии (это deep learning) идёт тут: http://vk.com/deeplearning

</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

He can always tell the truth (19) Калибровать сигнальные проявления лжи
http://metapractice.livejournal.com/496063.html
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Распознавание некоторых типовых выражений, которые группа экспертов соединила и назвала «базовые эмоции».
Для полной модели конкретной человеческой активности нужно соединение:
--нейрологии
--лингвистики
--алгоритмики
…майкрософт сделали неполное моделирование. Ибо два обязательных компонента из трёх они и не думали моделировать. При этом, чем они моделировали никакой роли не играет. Собственными мозгами или же компьютерными.
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

1) В метамодели реагирование на модальный оператор ((не)должен) это вопрос "иначе что?"
Но, и в метамодели мы работаем только с тем, что получили от субъекта.
В итоге получается некая сборная фраза - (не) должен делать Х, иначе произойдет Y
И эта форма есть обобщение полученных от субъектов заявлений с модальным оператором.
Делать/не делать Х заставляет делать некое событие.
Но, это уже конструирование.
В метамодели не говорится, что делать дальше с этим, хотя мы можем продолжить используя понимание ЦИ
Попробуй продолжить.
2) В ЦИ есть небольшой нюанс - и это правда, что Крис не говорит - должен мыть посуду.
Ага!
Но это должен оператор пресуппозицией вопроса подразумевает - Крис, что заставит вас вымыть посуду (Если убрать заставить, то фраза скорее будет звучать - что должно произойти, но должен будет присутствовать в любом случае)
Ну, а если К. ничего не заставляет мыть/делать? А если у него работает типа восточная модель неделания? В которой совершение/не совершения действий лежит вне модальностей и прочего?
3) Т.е "привычный уровень" для Криса (с которого начали) это не мыть посуду. А уровень "помыть посуду" это уже не привычный для него уровень - уровень принуждения = должен помыть, потому что придут люди и ценность - начать с нейтрального впечатления.
Но, К. не говорил ничего про принуждения.
Дело в том, что сам Андреас довольно произвольно интерпретирует реплики к. в диалоге-примере.
Но, когда я стал разрабатывать эту модель, я решил придерживаться мета модельной строгости. А без неё ЦИ разваливается.
(В обычной беседе без наводящих вопросов оператора человек сам скажет - Ну, я должен помыть сегодня посуду)
Он может сказать, что посуда моется-не моется. Ей суждено-не суждено мыться. И другие варианты пассивных залогов.
4) Теперь опять отходим от ЦИ и возвращаемся к метамоделированию человека не в контексте ЦИ. Нам встречается фраза …
Прошу понять меня правильно. А пойман своей моделью ЦИ и не вижу оснований её нарушать.
Но, ты волен рассматривать любые возможности.
Ну, а я буду иногда с интересом, иногда с ворчанием смотреть что же ты нашел.
Ну, и сегодня/в этом разборе я ворчу :)
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Вопрос о "должен" и "доминирующего предпочтения" эээ одного уровня. Цитата из примера:
--Крис: Не мою посуду - сберегаю время (2)
--Крис: Мою посуду - начинаю с нейтрального впечатления (1)

Т.е. это у тебя/в примере два уровня иерархии?
Говоря "я не должен мыть посуду" человек буквально говорит, что иначе нарушит доминирующее предпочтение этого уровня - иначе "не сберегу время"
А в каком месте Крис говорит буквально: «я не должен мыть»?
Дело в том, что это ценностно-подобная формулировка. И ежели она была реально сказана/записана, это одно. Но, ежели, это ты подумал. Или Андреас подумал, то это совсем другое.
Я должен мыть посуду - иначе не начну с нейтрального впечатления
Если мне память правильно подсказывает, то таких поворотов смысла в разбираемом примере не было. Или нет?
Должен/не должен говорит нам,
Мою- не мою есть один вид альтернативы активности.
А вот, должен мыть –не должен мыть – это совсем другая альтернатива.
Могут быть альтернативы смешанные типа: мою –не должен мыть. Или же: должен мыть –не мою.
что человек "залип" на уровне и для него невозможно переключение вниз/вверх.
Работая с ЦИ, мы не имеем права думать залип- не залип субъект на каком-то уровне.
И тогда, работа с должен/не должен после вопроса "иначе, что" это запуск этого перехода по уровням вверх/вниз - это будет микро-целью работы с должен/не должен как формы мета-модели.
Ну, в любом месте ЦИ идёт явное мета моделирование.
Спинномозговое обучение; семантический дифференциал Коржибского; актанты Мельчука-Апресяна
Такое "физиологическое" обоснование концепции о том, что понятие (предмет) задают те "валентности", которым оно может соединяться с глаголами (действиями).
Даже ещё в большей мере физиологическое. Без кавычек. Критерии исполнения обучения есть сигнальные/смысловые рефлексы типа рефлекса моргания.
Фактически, используются условно-безусловные рефлексы в качестве сигналинга для протекания высших ментальных процессов.
Хотя у взрослых людей ээ "концепции" могут быть такие, которые определяются не столько на основе возможных действий, которые можно провести с названным предметом, сколько на основе дифференциальных и интегральных признаков предмета, взятого самого по себе.
Эту дифференцировку существенных признаков предмета/объекта от несущественных Альфред Коржибский ставил во главу игла, называя её «семантическим дифференциалом».
То есть для взрослого человека "кукла" – это изделие с определённой морфологией (голова, тело, руки-ноги). А для ребёнка – это, как видно из эксперимента, нечто, что можно "укрыть", "одеть" и т.д.
Я бы переиначил твою реплику так: для взрослого человека, особенно для его левого полушария, некий объект-номинализация может иметь в качестве ему присвоенных любые значения. И такой умственный взрослый учиться обходиться с данным ему объектом-номинализацией в большей мере «от ума».
Ну, а ребёнок нуждается в создании банка/базы данных о возможных действиях, которые разрешает совершать с заданным объектом-номинализацией рабочий контекст и детский спинной мозг – двигательный процессор.
Поэтому, ни ребенок, ни взрослый в ситуации обучения сложным объектам-номинализациям ничего быстро не выучат, пока им не предоставят возможность пройти через манипулятивный процесс и сформировать семантический дифференциал: вот «система», возьми «систему», дай «систему», положи схему «системы», открой «систему», переделай «систему», воспроизведи «систему», найди «систему», опиши «систему», разверни «систему» и т.д..
И минимальный набор таких семантических манипуляций есть список актантов из теории смысл-текст.
Тогда с точки зрения ребёнка куклой может быть, например, просто кусок деревяшки, которому детское воображение приписывает человеко-подобные свойства. А вот с позиции взрослого человека уже нет.
Как это нет? Ежели список допустимых манипуляций с «деревяшкой» в точности совпадает со списком допустимы манипуляций с «куклой», то данная «деревяшка» тождественна «кукле».

Дочитали до конца.