Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 7391 - 7400 из 30962
Да всё нормально.
В этой полемике мы обрисовали мотивирующий наше рассуждение контекст.
Поэтому указать может точно и нельзя будет, что там само зародилось, а что нет, но первое будет логически вытекать из второго.
Да неважно что и как будет зарождаться, при условии, что самые главные материальные ресурсы:
--Рокфеллеров
--Ротшильдов
--Баррухов
--Пентагона
--и т.п.
...будут потрачены на несколько вариантов проекта ИИ и утилизации на его основе цифровой среды для переселения в неё лучшей части человечества.
То есть сможет построить только такие модели человека, которые соответствуют, условно говоря, той помойке информации, которая ему доступна + тем базовым алгоритмам обработки информации, которые он сам себе не сможет перепрограммировать.
Да почему же не сможет? Даже простенькие роботы на колесиках к этому способны, самопрограммировать для себя карты окружающей реальности.
Но даже допустим, что пытаются создать реальный ИИ, а не замудрённое прикрытие для ээ естественного интеллекта неких ээ закулисных структур. Тогда всё равно этот условный "гугл" сможет построить только те модели, которые отвечают мета-моделям, заложенным создателями гугла.
А ты почитай внимательнее. Гуугловцы закладывают в основу интеллекта пока не модели, а огромные неразобранные/неупорядоченные онтологии, связанные/порожденные деятельностью человека:
--онтологию поисковых запросов
--онтологию запросов на переводы
--запросов в диалоговом режиме "о.к. гуугл"
--карты гуугла с маршрутами на них
--библиотеки с запросами в них
--и т.п.
...такая информация замещает гуугловскому самозарождающемуся сингулярному интеллекту более частные модели.
Ну т.е. идея ИИ (плацебо-ИИ) нужен для того, чтобы когда твой новый умный автомобиль ...
В этом топике я не собираюсь обсуждать вероятность создания/самозарождении ИИ.
В этом топике я хочу продолжать обсуждать модель ментального мира в первой постановке вопроса о ней: сколько самых общих классов ее структуры оптимально устанавливать. Один - два - три - более трёх?
А кто эти классы будет определять/устанавливать - человек ли, ИИ ли - нам это должно быть всё равно.
Почем интересы человека и ИИ могут быть пересечены, - это тоже не важно. Или же наоборот архиважно. Вот, придут лихие времена и будут на Земле созданы невыносимые условия:
--жать одно ГМО, от которого хитиновый панцирь по телу растет и все такое
--очень жарко/холодно, а воды ничерта нет/все ею залито
--порядка и закона, и государства нигде нет
--а есть по окрестным лесам стаи волков/медведей/какой еще нечести полно
--и всяческие банды шарятся пополам со свирепыми полуроботами-полуживотиной
--... и тд. и т.п.
...а тут к обывателю намасливаются менегеры сладкоречивые и предлагают ему переселение его души, его эго, его личности полностью в цифровую среду с гарантией комфорта и полного воспроизведения наличествующей обывательской субъективности. И спецификации приводят. Так мол и так. Ментальный мир будет моноструктурированный. Или же дуальный. Или же тройственный. Но, опционально только за огромную плату для избранных. А так что предлагается без выбора. И т.п. За деньги с наличием либо отсутствием потусторонних сил. И т.д., и т.п.
И вот, чтобы принять более взвешенное решение оставаться на жестокой проклятой Земле или же её покинуть, хорошо бы отчётливо представлять какое предложение что значит. В какой ментальной реальности будет комфортнее грезит себя тем же человеком, а в какой это вообще невозможно?
--Имеется в виду вариант/проект возникновения мега искусственного ИИ по типу самозарождения. Типа как самозарождались гомункулы в ретортах средневековых алхимиков. Сейчас одна такая известная нам реторта называется "гуугл". В таком умозрительном варианте уже нельзя будет точно указать, что наработали программисты, а что эээ "самозародилось
--Мне по-прежнему кажется такая идея "самозарождения" какой-то разводкой: либо попыткой, условно, "технократов" ээ распилить деньги, условно, "бюрократов".

Мне кажется, что отвергать чужие деньги/намерение их неуклонно потратить ест зряшное дело. Если был замысел тратится на гуугловский проект и уже основательно потратились, то и далее так будет. Ежели уже впалили НАСА с гууглом деньги в университет сингулярности, значит быть тому университету или еще чему.
Либо собственно перерождением "бюрократии" в "технократию".
Нетокра́тия
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D1%82%D0%BE%D0%BA%D1%80%D0%B0%D1%82%D0%B8%D1%8F
Когнитариат
https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B3%D0%BD%D0%B8%D1%82%D0%B0%D1%80%D0%B8%D0%B0%D1%82
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

--В калькуляторе балом правит логика и если выражение можно вычислить, результат всегда будет одинаков.
--Смотря какое выражение. Если это простые операции над числами, то, наверно, да. Толку-то с них? Если функции это тоже выражения, то они уже зависят от переменных.

А на самом деле, дело не калькуляторе и не мега ИИ. Дело в наличии объективных феноменов внешнего мира, которые описываются хоть цифрами, хоть функциями, хоть глокой куздрой.
И в этом контексте есть только два вопроса:
(1) Мы/"они"/ИИ будем описывать объективные модели ментального мира человека или же некие нафантазированные?
(2) Ежели описывать объективные ментальные феномены, то на сколько самых общих/крупных частей делить структуру ментального мира:
(а) вообще не делить - общая структура будет в лице единственного класса
(б) делить на две структуры - будет два самых общих класса А и Б
(б) на три структуры - А + Б + С
(в) на большее число частей
--машина в основе своей останется калькулятором — который не имеет привычки терять или искажать информацию.
--Можно создать и такую привычку. В предложении предполагается, что "искажать" и "терять" информацию - это недостаток, это отчасти правда, отчасти нет.

Ну. в сложном железе и обслуживающих его прогах существуют естественные процессы потери и искажения информации.
Даже искусственные нейросети хоть и дают приблизительный ответ, его можно строго округлить до ближайшего целого: функция, недоступная живому!
Если ИИ будет создавать модели функционирования живой ментальности, то там сверхточность просто не предусмотрена.
Ну да, люди-то округлять не умеют! :)
Люди не калькуляторы:

http://nlp-ftf-ftf.livejournal.com/
Люди хороши в переработке смешанных паттернов вида VAKOG-CODE.
То есть можно цитату переписать так: "хотя сравнение калькулятора и нейросети не корректно, но мы притянем кота за яйца и все равно сравним одно с другим".
Ну, общий контекст этот темы является одновременно и некорректным, и необходимым к рассмотрению. Поэтому в данной теме будет множество противоречивых поворотов.
upd: собственно округление - это и есть то самое искажение в чистом виде.
Мне кажется, что надо говорить о некотором "осреднении", которое отличается от математического численного округления.
Ну, тогда нам надо взять оригинал самого первого издания этих металогов, который сам Б. правил своею рукой при его издании. И все дела.

И вот тут рассуждения Курцвейла приобретают фантастический оттенок. Вскоре после того, как мы научимся эмулировать человеческий мозг, произойдёт сингулярность, утверждает изобретатель, и тогда не останется ничего невозможного. "Ничего" в самом буквальном смысле: люди будут жить вечно, умершие воскреснут, а мир превратится в гигантский суперкомпьютер. Надо только дотянуть до этого чудесного момента.
Не нужно быть специалистом по мировым религиям, чтобы заметить сходство курцвейлевской сингулярности с апокалиптическими мифами, включая библейский. Как выразился основатель компании Lotus Митч Кейпор, представления Курцвейла о будущем - это "креационизм для людей с интеллектом выше среднего".
Несмотря на это (или, возможно, именно поэтому), они весьма популярны в Кремниевой долине. Идеями Курцвейла увлекается Питер Тиль, один из основателей PayPal и инвестор Facebook. Ларри Пейджу они тоже хорошо знакомы: он участвовал в создании так называемого университета Сингулярности.
Вряд ли Курцвейл действительно разработает в Google сильный искусственный интеллект - это не та задача, которую можно решить с наскока. В том, что через 30 лет случится сингулярность, которую он предсказал, тоже есть серьёзные сомнения. И всё же в его идеях есть практический смысл - и именно он, скорее всего, привлекает к ним Пейджа и Тиля.
Дело вот в чём: для того чтобы двигать технику вперёд, людям нужны ориентиры. И именно с ними сейчас беда: представления о будущем, которые были в ходу пятьдесят лет назад, окончательно вышли из моды. Никто больше не верит в летающие автомобили, межзвёздные корабли и ракетные ранцы.
Сингулярность вполне может претендовать на роль идеологии, которая придаст движению вперёд некоторый смысл. Взяв Курцвейла на борт, Google публично объявил, что в будущем, к которому он стремится, есть место нанороботам, разумным машинам и компьютерам величиной с планету. Окажутся ли они там на самом деле - это не так уж важно.
http://stop-neuronet.livejournal.com/1337.html

Так вот, вполне интересно рассмотреть вопрос: сколько классов высших ментальных процессов/структур определит этот самозародившийся ИИ в отношении модели психики человека?

Дочитали до конца.