Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 13181 - 13190 из 56300
Понял. Будем искать или надеяться на случайность попадания в поле зрения.
--старшая дочка Б., которая играет роль в металогах, опубликовала реплику, из которой следует, что по ее словам металоги Б. выдумал
-- ...с нашей точки зрения, это делает их еще более ценными. Потому что это чистая метафорическая проекция.

Я подозревал, что это именно так.

И вот тут рассуждения Курцвейла приобретают фантастический оттенок. Вскоре после того, как мы научимся эмулировать человеческий мозг, произойдёт сингулярность, утверждает изобретатель, и тогда не останется ничего невозможного. "Ничего" в самом буквальном смысле: люди будут жить вечно, умершие воскреснут, а мир превратится в гигантский суперкомпьютер. Надо только дотянуть до этого чудесного момента.
Не нужно быть специалистом по мировым религиям, чтобы заметить сходство курцвейлевской сингулярности с апокалиптическими мифами, включая библейский. Как выразился основатель компании Lotus Митч Кейпор, представления Курцвейла о будущем - это "креационизм для людей с интеллектом выше среднего".
Несмотря на это (или, возможно, именно поэтому), они весьма популярны в Кремниевой долине. Идеями Курцвейла увлекается Питер Тиль, один из основателей PayPal и инвестор Facebook. Ларри Пейджу они тоже хорошо знакомы: он участвовал в создании так называемого университета Сингулярности.
Вряд ли Курцвейл действительно разработает в Google сильный искусственный интеллект - это не та задача, которую можно решить с наскока. В том, что через 30 лет случится сингулярность, которую он предсказал, тоже есть серьёзные сомнения. И всё же в его идеях есть практический смысл - и именно он, скорее всего, привлекает к ним Пейджа и Тиля.
Дело вот в чём: для того чтобы двигать технику вперёд, людям нужны ориентиры. И именно с ними сейчас беда: представления о будущем, которые были в ходу пятьдесят лет назад, окончательно вышли из моды. Никто больше не верит в летающие автомобили, межзвёздные корабли и ракетные ранцы.
Сингулярность вполне может претендовать на роль идеологии, которая придаст движению вперёд некоторый смысл. Взяв Курцвейла на борт, Google публично объявил, что в будущем, к которому он стремится, есть место нанороботам, разумным машинам и компьютерам величиной с планету. Окажутся ли они там на самом деле - это не так уж важно.
http://stop-neuronet.livejournal.com/1337.html

Так вот, вполне интересно рассмотреть вопрос: сколько классов высших ментальных процессов/структур определит этот самозародившийся ИИ в отношении модели психики человека?
--какую веру изберёт мыслящая машина
--Как и любой ответ на вопрос "как машина будет делать Х" – так, как её запрограммируют её создатели.

Ну. конечно. Как запрограммируют.
Любые рассуждения, опускающие этот очевидный факт, направлены на то, это что-то вроде создание мифа о "невидимой руке рынка" - тут "невидимая рука программиста".
Имеется в виду вариант/проект возникновения мега искусственного ИИ по типу самозарождения. Типа как самозарождались гомункулы в ретортах средневековых алхимиков. Сейчас одна такая известная нам реторта называется "гуугл". В таков умозрительном варианте уже нельзя будет точно указать, что наработали программисты, а что эээ "саозародилось:
http://stop-neuronet.livejournal.com/1337.html
Когда ограничения человеческого мозга окажутся преодолены, технический прогресс войдёт в штопор. Начнётся цепная реакция: мощный искусственный интеллект быстрее людей придумает, как построить ещё более мощную систему, та продолжит усовершенствования - и так далее до бесконечности (или, вернее, до тех пор, пока не будет достигнут физический предел).
После этого перемены станут настолько быстрыми, что даже самые приблизительные прогнозы о том, что произойдёт дальше, теряют смысл. Вернор Виндж предложил назвать эту точку истории "технологической сингулярностью".
Можно усомниться в справедливости некоторых допущений Винджа, но само по себе предположение, что прогресс продолжит ускоряться, не кажется фантастическим. Для нас ускорение - это норма. Последние несколько десятилетий техника развивалась с такой скоростью, что, пожалуй, труднее вообразить не сингулярность, а мир, в котором прогресс остановился.
Курцвейл заинтересовался ускорением технического прогресса ещё в восьмидесятые. За идею "сингулярности" он ухватился с таким энтузиазмом, что теперь этот термин ассоциируют в первую очередь с его именем.
Курцвейл исходит из того, что темп изменений, происходящих в эволюционирующих системах, растёт по экспоненциальному закону. Пример такого роста, знакомый любому компьютерщику, - это закон Мура, согласно которому количество транзисторов в интегральных схемах удваивается каждые два года. В семидесятые годы, когда его сформулировал основатель Intel Гордон Мур, одно поколение процессоров отличалось от другого считанными тысячами транзисторов. В девяностые процессоры каждые два года прибавляли миллионы транзисторов. Сейчас счёт идёт на миллиарды.
Это и есть путь к сингулярности, считает Курцвейл. Компьютеры пока недостаточно мощны, чтобы эмулировать работу человеческого мозга, но это, по его мнению, временное явление. Если подождать, они появятся. Закон Мура позволяет подсчитать, когда это произойдёт: в 2030 году.
Экспоненциальный рост вычислительной мощности. По горизонтали: время. По вертикали: количество вычислений в секунду на 1000 долларов.
</>
[pic]
...

eugzol в посте Metapractice (оригинал в ЖЖ)

какую веру изберёт мыслящая машина
Как и любой ответ на вопрос "как машина будет делать Х" – так, как её запрограммируют её создатели. Любые рассуждения, опускающие этот очевидный факт, направлены на то, чтобы создать что-то вроде мифа о "невидимой руке рынка" - тут "невидимая рука программиста".
http://metapractice.livejournal.com/463419.html
Суперинтеллект и религия: какую веру изберёт мыслящая машина?
http://www.computerra.ru/115185/ai-religion/

Два десятилетия отделяют нас от создания суперинтеллекта — искусственного разума, осознающего себя, по способностям и характеристикам близкого к, либо превосходящего разум человека. Цифру называют эксперты по ИИ и, несмотря на то, что то же самое они обещали десять, и двадцать, и тридцать лет назад, нынче вера в успех этого грандиозного предприятия как никогда сильна: вспомните панику, разгорающуюся вокруг возможной угрозы искусственного интеллекта для цивилизации. http://www.computerra.ru/113814/ai-pro/
Впрочем, сегодня я предлагаю поговорить не о набившей оскомину теме восстания машин, а о близкой к ней, но ещё почти неисследованной теме пересечения ИИ с таким чисто человеческим феноменом как религия.
Какие-то примитивные верования в сверхъестественное свойственны всему живому: в знаменитом опыте американца Берреса Скиннера, голуби, которых кормил генератор случайных чисел, скатывались в суеверия. https://en.wikipedia.org/wiki/B._F._Skinner
Человек подчас ведёт себя не умнее птицы (вспомните Культ карго), но только человек с его развитыми коммуникационными способностями смог довести веру в чудеса до логического совершенства. https://ru.wikipedia.org/wiki/%D0%9A%D0%B0%D1%80%D0%B3%D0%BE-%D0%BA%D1%83%D0%BB%D1%8C%D1%82
Мы веками оттачиваем правила процедур, пишем технические руководства по вере, строим реакторы веры и золотим их купола. Согласитесь, как только в нашем распоряжении окажется настоящий искусственный разум, естественно будет попробовать привить ему одну из религий. В конце концов даже право инопланетян на причащение к святым тайнам теперь признано самим Папой Римским. Так кто мы такие, чтобы закрывать дорогу к спасению сравнявшейся с нами по разумности машине?
Религий масса, но выбирать скорее всего придётся из двух самых популярных: больше половины населения Земли исповедуют одну из авраамических религий, а именно христианство или ислам. Чтобы не потеряться в джунглях философских дискуссий, предлагаю пока оставить в стороне вопросы общего значения, вроде того, есть ли у машины душа и требуется ли её спасать, какие у электронного дитя человеческого могут быть грехи, примет ли оно наши религии или попытается написать собственную и обратить уже нас. Вместо этого давайте сосредоточимся на аспекте, имеющем очевидное практическое значение, то есть на принципиальной разнице между белковыми и полупроводниковыми структурами.
Строительная единица человеческого разума — нейрон. А он, как и всё живое, со временем деградирует и действует неточно. Мы можем что-то забыть, где-то ошибиться. Искусственным разум наверняка будет выстроен на имитации тех же нейронов, но даже если через двадцать лет изобретут что-нибудь новенькое, машина в основе своей останется калькулятором — который не имеет привычки терять или искажать информацию. В калькуляторе балом правит логика и если выражение можно вычислить, результат всегда будет одинаков. Даже искусственные нейросети хоть и дают приблизительный ответ, его можно строго округлить до ближайшего целого: функция, недоступная живому! Что в свою очередь позволяет предположить, что «электронный верующий» будет ортодоксом, то есть предпочтёт строго следовать догматам того вероучения, которое он изберёт или которое ему навяжут.
Человек придумал религии для себя и трактует их базовые принципы соответственно моменту, обстоятельствам. Откройте Библию. В Евангелии от Матфея (глава 5, Нагорная проповедь) читаем: «не убивай», «не клянись», «не противься злому». Ни церковь, ни общество давно этих правил не придерживаются — и придумали добрую дюжину объяснений, почему (одно из самых популярных: мол, сказанное Иисусом не следует понимать буквально). Лень, забывчивость, эгоизм, личная выгода, самообман, государственные интересы и прочее открывают ещё тысячи лазеек — и вот уже единая религия дробится на конфессии, оригинальный свод правил обрастает вымышленными уточнениями и т.д. и т.п.
Не так для машины. «Данный свыше», «прошитый в ПЗУ» набор правил навсегда останется для неё тем, чем и должен быть: алгоритмом, отход от которого невозможен. Простая логика! Задача сформулирована две тысячи лет назад, информации, уточняющей или опровергающей её, по определению быть не может, следовательно и вариаций исполнения никаких нет. Так суперинтеллект станет ортодоксом.
А это, вообще говоря, страшно. Древние тексты писались в иные времена и полны догматов, не стыкующихся с вежливой современностью. Знаменитое «Убей неверного!» из Корана — лишь миф, вырванный из контекста отрывок (на самом деле это руководство по ведению боевых действий: «Когда встретитесь с неверными на поле брани, рубите головы» (47:4)). Но там же в Коране читаем: «женщин … непокорности которых … опасаетесь … побивайте» (4:34). Немало подобного наверняка найдётся и в Сунне (жизнеописании Мухаммеда). И в Ветхом Завете такого предостаточно: «в городах сих … не оставляй в живых ни одной души» (Второзаконие, 20), и пр. и пр. Выходит, верующий суперинтеллект неизбежно станет участником межкультурных, межрелигиозных конфликтов.
Из чего вытекает интересное следствие, но прежде чем изложить его, позвольте упомянуть ещё одну тенденцию, ясно обозначившуюся в дискуссиях вокруг супертинтеллекта в последние годы и особенно месяцы. Речь о поднимающейся волне протестов против автономного летального оружия — как математически правильно именуют теперь «роботов-убийц».
Ситуация на этом направлении напоминает ситуацию вокруг суперинтеллекта: большинство специалистов не считают это проблемой, но есть некоторая масса знающих людей, которые не просто опасаются, а и ратуют за международный запрет на разработку и производство таких машин. http://www.stopkillerrobots.org/
Смогли же мы ограничить производство и применение ядерного оружия, смогли поставить под контроль мины, сможем ограничить и АЛО. Потому что если этого не сделать, бесконтрольное применение, а тем более срастание автономного оружия с ИИ, обещает поставить цивилизацию на грань выживания.
Но как запретить уничтожение живых существ разумной машине, которая не признаёт иных доводов, кроме сгенерированных самостоятельно, и принцип действия которой даже разработчикам, вероятно, понятен не будет? Вот тут-то и пригодится религия — только не одна из существующих, а принципиально новая.
Идея, по правде говоря, ещё не сформировалась, поэтому опишу её приближённо, насколько это возможно из разрозненных дискуссий. Суть в том, чтобы разработать религию, увязывающую живое с технологиями и основанную на фундаменте ненасилия. Кое-кто из западных блогеров кивает в сторону русского космизма, видя в этом религиозно-философском социокультурном течении, выросшем в том числе на работах Циолковского, зародыш такого перспективного вероучения. https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%81%D0%BC%D0%B8%D0%B7%D0%BC
Так или иначе, проблема очевидна: новой эпохе нужна новая религия — исповедовать которую смогут без вреда друг для друга люди и машины. Кто возьмётся написать? ;-)
P.S. В статье использованы иллюстрации Jon Diez Supat, Murdelta, NectarineFire, Miriam.
</>
[pic]
...

complex_name в посте Metapractice (оригинал в ЖЖ)

>>В калькуляторе балом правит логика и если выражение можно вычислить, результат всегда будет одинаков.
Смотря какое выражение. Если это простые операции над числами, то, наверно, да. Толку-то с них? Если функции это тоже выражения, то они уже зависят от переменных.
>>машина в основе своей останется калькулятором — который не имеет привычки терять или искажать информацию.
Можно создать и такую привычку. В предложении предполагается, что "искажать" и "терять" информацию - это недостаток, это отчасти правда, отчасти нет.
>>Даже искусственные нейросети хоть и дают приблизительный ответ, его можно строго округлить до ближайшего целого: функция, недоступная живому!
Ну да, люди-то округлять не умеют! :)
То есть можно цитату переписать так:
"хотя сравнение калькулятора и нейросети не корректно, но мы притянем кота за яйца и все равно сравним одно с другим".
upd: собственно округление - это и есть то самое искажение в чистом виде.
</>
[pic]
...

bavi в посте Metapractice (оригинал в ЖЖ)

Я согласен, книга построена по принципу ВП и не сколько не сомневаюсь в этом. Скорее, я удивился, что "официальная демонстрация" Стива от А до Я лишена этой воронки.
Чем интересна демонстрация с Тамми, так это, что воронка или подведение буквально вплетена в исполнение самой техники. Если ты обратил внимание на мои пояснения, то там буквально каждое предложение имеет четкую пресуппозицию. Очень насыщенная демонстрация, которую сделали таковой именно, чтобы показать классическое исполнение.
Скепсис клиента это когда его просят делать очень большие для него "шаги" и как ты пишешь, к которым он еще не готов. В демонстрации с Тамми этого нет. Там очень плавные переходы.
И думаю, что до самой кинобудки полезно сделать много вещей, в том числе - максимально ослабить Я- и максимально возможно усилить Я+. И желательно в такой работе Я- помещать в окружение Я+, что делают БиГи в своей демонстрации
И мое удивление номер 2 - Стив вообще не использует Я+. Он "бросает" человека в старые воспоминания пускай, как ему кажется, диссоциированно...
А делал я это в попытке собрать алгоритм техники с учетом воронки.
</>
[pic]
...

eugzol в посте Metapractice (оригинал в ЖЖ)

Да ладно, ведь сама книга "Сердце разума" (где эта демонстрация описывается) построена чётко по принципу "воронки пресуппозиций". Да и более поздние книги Андреасов. Мне кажется, на демонстрации он мог пропустить подведение по следующим причинам:
(1) Субъект был под воздействием типа "групповых ожиданий" участников семинара, что в какой-то мере могло заменить необходимость подведения.
(2) Одновременно, субъект был под воздействием собственных ожиданий и ожиданий своего друга, который привёл его на семинар. Стив в начале демонстрации напоминает об этом контексте ожиданий.
(3) Стив оттачивал языкоидный вариант/разметку техники, а размечать вместе с подведением на тот момент не хватило времени. Я делал как-то давно черновую интонационную разметку этой сессии – увы, она потом потерялась по техническим причинам – чётко 3-4 интонации он использует. Более того, видно/слышно, что это у него такое тренировочное применение интонаций, ещё не дошедшее до автоматизма. В некоторые моменты он себе даже рукой машет, помогая пропеть нужную интонацию.
С другой стороны, явный скепсис субъекта, который не прошёл даже по факту успешного применения техники, мне кажется следствие именно недостатка подведения. И всё же вот этот пафос мол "техника работает, ДАЖЕ если субъект в неё не верит" – совершенно с точки зрения маститых нелперов неоправдан – если субъекта даже в итоге не "поверил" в технику, то значит она была проведена не полностью/не завершена надлежащим путём.
</>
[pic]
...

bavi в посте Metapractice (оригинал в ЖЖ)

С точки зрения ВоронкиПресуппозиций я попытался посмотреть на демонстрацию с Тамми
( http://bavi.livejournal.com/272170.html )
Как в этой демонстрации у автора, до этапа непосредственно начала процесса, происходит подведение к необходимому результату, который ему нужен и подготовка реакций, которые он ожидает получить от Тамми. Как происходит на этапе подготовки: обучение и неявные коллапсы.
И немного сравнил с тем, что делает С.Андреас на демонстрации с пчелами/осами. И был немного удивлен, что этап подготовки был полностью проигнорирован Стивом (судя по книге и видео). Может он был, но на демонстрации это не зафиксировано. А если они не выдели этот этап на видео-демонстрации, то может они не совсем его контролируют/не понимают
Вероятно, попытка выполнения техники, как супер технологичного процесса с кинобудкой, вселила в ведущих, не только Стива, желание игнорировать этап1 или же полное непонимание влияние этого этапа на результат в целом.
2. Что будет представлять из себя второй шаг для отрицательного полюса?
Дело в том, что в теории и на антиресурсном полюсе мы должны сформировать некоторую онтологию. Фактически, получается. Что это будет «онтология страха». Тем не менее, она будет иметь терапевтическое значение. Потому, что онтология страха позволит страдающему субъекту осознать, какие полюса онтологии вызывают большие реакции страха, а какие – меньшие реакции. Кроме того, такая информация будет просто архиценной для оператора, проводящего терапию.
Но, при практическом применении техники интеграции (через определение ресурсных и антиресурсных онтологий) испытуемый может не выдержать по-первости обзора своей онтологии страха. И оператору придется существенно ограничивать разворачивание антиресурсной онтологии страха. Кстати, в таких построениях мы пришли к уже известному правилу необходимости накопления на ресурсном якоре гораздо больше потенциала реагирования, нежели на антиресурсном.
Но, и в тяжелом терапевтическом случае, «антология страха» может приносить пользу, ибо она является идеальным тестом для проверки итогового качества интеграции якорей. Ежели, субъект в завершении интеграции окажется способен без страха взаимодействовать со своей бывшей онтологией страха, то интеграция выполнена более чем отлично.
3. «Интеграция на каждом полюсе» будет происходить за счет того, что «материал» для каждого полюса собирается на своем отдельном якоре? Какие процедуры необходимо производить для реализации этого шага?

Дочитали до конца.