Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 13141 - 13150 из 56266
</>
[pic]
...

gadyuka в посте Metapractice (оригинал в ЖЖ)

Тезис о том, что ИИ для чего-либо понадобится религия - выглядит сам по себе крайне сомнительным, так как религиозное мышление является, по сути, следствием ошибок нескольких классов вычислений. Зачем воспроизводить работающие с ошибками системы на уровне ИИ совершенно непонятно.
А вот усваивание и осмысливание текстов Библии вполне может быть тестом на "профпригодность" ИИ - если зависнет и сгорит, пытаясь свести воедино все противоречия - то это не тот ИИ, который нам нужен :)))
Имеется в виду вариант/проект возникновения мега искусственного ИИ по типу самозарождения. Типа как самозарождались гомункулы в ретортах средневековых алхимиков. Сейчас одна такая известная нам реторта называется "гуугл". В таков умозрительном варианте уже нельзя будет точно указать, что наработали программисты, а что эээ "саозародилось
Мне по-прежнему кажется такая идея "самозарождения" какой-то разводкой: либо попыткой, условно, "технократов" ээ распилить деньги, условно, "бюрократов".
Либо собственно перерождением "бюрократии" в "технократию".
Ну т.е. идея ИИ (плацебо-ИИ) нужен для того, чтобы когда твой новый умный автомобиль остановится на обочине где-нибудь в пятистах километрах от ближайшего города, откроет двери и скажет: пожалуйте на выход – потому что через свой облачный сервис он узнает, что ты просрочил на пару дней выплату по автокредиту – вот тогда ИИ понадобится, чтобы при обоснованной жалобе в (станущие тогда рудиментарными) некие бюрократические инстанции им можно было обоснованно развести руками и сказать – извините, у нас тут ИИ, он не может врать/ошибаться!
Но даже допустим, что пытаются создать реальный ИИ, а не замудрённое прикрытие для ээ естественного интеллекта неких ээ закулисных структур. Тогда всё равно этот условный "гугл" сможет построить только те модели, которые отвечают мета-моделям, заложенным создателями гугла. То есть сможет построить только такие модели человека, которые соответствуют, условно говоря, той помойке информации, которая ему доступна + тем базовым алгоритмам обработки информации, которые он сам себе не сможет перепрограммировать.
Поэтому указать может точно и нельзя будет, что там само зародилось, а что нет, но первое будет логически вытекать из второго.
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

--В калькуляторе балом правит логика и если выражение можно вычислить, результат всегда будет одинаков.
--Смотря какое выражение. Если это простые операции над числами, то, наверно, да. Толку-то с них? Если функции это тоже выражения, то они уже зависят от переменных.

А на самом деле, дело не калькуляторе и не мега ИИ. Дело в наличии объективных феноменов внешнего мира, которые описываются хоть цифрами, хоть функциями, хоть глокой куздрой.
И в этом контексте есть только два вопроса:
(1) Мы/"они"/ИИ будем описывать объективные модели ментального мира человека или же некие нафантазированные?
(2) Ежели описывать объективные ментальные феномены, то на сколько самых общих/крупных частей делить структуру ментального мира:
(а) вообще не делить - общая структура будет в лице единственного класса
(б) делить на две структуры - будет два самых общих класса А и Б
(б) на три структуры - А + Б + С
(в) на большее число частей
--машина в основе своей останется калькулятором — который не имеет привычки терять или искажать информацию.
--Можно создать и такую привычку. В предложении предполагается, что "искажать" и "терять" информацию - это недостаток, это отчасти правда, отчасти нет.

Ну. в сложном железе и обслуживающих его прогах существуют естественные процессы потери и искажения информации.
Даже искусственные нейросети хоть и дают приблизительный ответ, его можно строго округлить до ближайшего целого: функция, недоступная живому!
Если ИИ будет создавать модели функционирования живой ментальности, то там сверхточность просто не предусмотрена.
Ну да, люди-то округлять не умеют! :)
Люди не калькуляторы:

http://nlp-ftf-ftf.livejournal.com/
Люди хороши в переработке смешанных паттернов вида VAKOG-CODE.
То есть можно цитату переписать так: "хотя сравнение калькулятора и нейросети не корректно, но мы притянем кота за яйца и все равно сравним одно с другим".
Ну, общий контекст этот темы является одновременно и некорректным, и необходимым к рассмотрению. Поэтому в данной теме будет множество противоречивых поворотов.
upd: собственно округление - это и есть то самое искажение в чистом виде.
Мне кажется, что надо говорить о некотором "осреднении", которое отличается от математического численного округления.
Это уже может быть раритетом и надо искать в забугорных книжных магазинах в разделах не новой литературы наверное. Там иногда такие потрепанные вещи продают.
Понял. Поищу.
Ну, тогда нам надо взять оригинал самого первого издания этих металогов, который сам Б. правил своею рукой при его издании. И все дела.
Понял. Будем искать или надеяться на случайность попадания в поле зрения.
--старшая дочка Б., которая играет роль в металогах, опубликовала реплику, из которой следует, что по ее словам металоги Б. выдумал
-- ...с нашей точки зрения, это делает их еще более ценными. Потому что это чистая метафорическая проекция.

Я подозревал, что это именно так.

И вот тут рассуждения Курцвейла приобретают фантастический оттенок. Вскоре после того, как мы научимся эмулировать человеческий мозг, произойдёт сингулярность, утверждает изобретатель, и тогда не останется ничего невозможного. "Ничего" в самом буквальном смысле: люди будут жить вечно, умершие воскреснут, а мир превратится в гигантский суперкомпьютер. Надо только дотянуть до этого чудесного момента.
Не нужно быть специалистом по мировым религиям, чтобы заметить сходство курцвейлевской сингулярности с апокалиптическими мифами, включая библейский. Как выразился основатель компании Lotus Митч Кейпор, представления Курцвейла о будущем - это "креационизм для людей с интеллектом выше среднего".
Несмотря на это (или, возможно, именно поэтому), они весьма популярны в Кремниевой долине. Идеями Курцвейла увлекается Питер Тиль, один из основателей PayPal и инвестор Facebook. Ларри Пейджу они тоже хорошо знакомы: он участвовал в создании так называемого университета Сингулярности.
Вряд ли Курцвейл действительно разработает в Google сильный искусственный интеллект - это не та задача, которую можно решить с наскока. В том, что через 30 лет случится сингулярность, которую он предсказал, тоже есть серьёзные сомнения. И всё же в его идеях есть практический смысл - и именно он, скорее всего, привлекает к ним Пейджа и Тиля.
Дело вот в чём: для того чтобы двигать технику вперёд, людям нужны ориентиры. И именно с ними сейчас беда: представления о будущем, которые были в ходу пятьдесят лет назад, окончательно вышли из моды. Никто больше не верит в летающие автомобили, межзвёздные корабли и ракетные ранцы.
Сингулярность вполне может претендовать на роль идеологии, которая придаст движению вперёд некоторый смысл. Взяв Курцвейла на борт, Google публично объявил, что в будущем, к которому он стремится, есть место нанороботам, разумным машинам и компьютерам величиной с планету. Окажутся ли они там на самом деле - это не так уж важно.
http://stop-neuronet.livejournal.com/1337.html

Так вот, вполне интересно рассмотреть вопрос: сколько классов высших ментальных процессов/структур определит этот самозародившийся ИИ в отношении модели психики человека?
--какую веру изберёт мыслящая машина
--Как и любой ответ на вопрос "как машина будет делать Х" – так, как её запрограммируют её создатели.

Ну. конечно. Как запрограммируют.
Любые рассуждения, опускающие этот очевидный факт, направлены на то, это что-то вроде создание мифа о "невидимой руке рынка" - тут "невидимая рука программиста".
Имеется в виду вариант/проект возникновения мега искусственного ИИ по типу самозарождения. Типа как самозарождались гомункулы в ретортах средневековых алхимиков. Сейчас одна такая известная нам реторта называется "гуугл". В таков умозрительном варианте уже нельзя будет точно указать, что наработали программисты, а что эээ "саозародилось:
http://stop-neuronet.livejournal.com/1337.html
Когда ограничения человеческого мозга окажутся преодолены, технический прогресс войдёт в штопор. Начнётся цепная реакция: мощный искусственный интеллект быстрее людей придумает, как построить ещё более мощную систему, та продолжит усовершенствования - и так далее до бесконечности (или, вернее, до тех пор, пока не будет достигнут физический предел).
После этого перемены станут настолько быстрыми, что даже самые приблизительные прогнозы о том, что произойдёт дальше, теряют смысл. Вернор Виндж предложил назвать эту точку истории "технологической сингулярностью".
Можно усомниться в справедливости некоторых допущений Винджа, но само по себе предположение, что прогресс продолжит ускоряться, не кажется фантастическим. Для нас ускорение - это норма. Последние несколько десятилетий техника развивалась с такой скоростью, что, пожалуй, труднее вообразить не сингулярность, а мир, в котором прогресс остановился.
Курцвейл заинтересовался ускорением технического прогресса ещё в восьмидесятые. За идею "сингулярности" он ухватился с таким энтузиазмом, что теперь этот термин ассоциируют в первую очередь с его именем.
Курцвейл исходит из того, что темп изменений, происходящих в эволюционирующих системах, растёт по экспоненциальному закону. Пример такого роста, знакомый любому компьютерщику, - это закон Мура, согласно которому количество транзисторов в интегральных схемах удваивается каждые два года. В семидесятые годы, когда его сформулировал основатель Intel Гордон Мур, одно поколение процессоров отличалось от другого считанными тысячами транзисторов. В девяностые процессоры каждые два года прибавляли миллионы транзисторов. Сейчас счёт идёт на миллиарды.
Это и есть путь к сингулярности, считает Курцвейл. Компьютеры пока недостаточно мощны, чтобы эмулировать работу человеческого мозга, но это, по его мнению, временное явление. Если подождать, они появятся. Закон Мура позволяет подсчитать, когда это произойдёт: в 2030 году.
Экспоненциальный рост вычислительной мощности. По горизонтали: время. По вертикали: количество вычислений в секунду на 1000 долларов.
</>
[pic]
...

eugzol в посте Metapractice (оригинал в ЖЖ)

какую веру изберёт мыслящая машина
Как и любой ответ на вопрос "как машина будет делать Х" – так, как её запрограммируют её создатели. Любые рассуждения, опускающие этот очевидный факт, направлены на то, чтобы создать что-то вроде мифа о "невидимой руке рынка" - тут "невидимая рука программиста".

Дочитали до конца.