Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 7411 - 7420 из 30984
Загрузи в робота две ОС и правило перезагрузки с одной на другую.
--Мне кажется, что отвергать чужие деньги/намерение их неуклонно потратить ест зряшное дело. Если был замысел тратится на гуугловский проект и уже основательно потратились, то и далее так будет. Ежели уже впалили НАСА с гууглом деньги в университет сингулярности, значит быть тому университету или еще чему.
--Так вопросов нет, раз партия сказала "надо", значит "надо" :)

Мы не знаем кто идеолог этого процесса. Но, такой процесс/проект есть.
Вы пишите: мол огромный админ. и фин. ресурс вкачивается в проект ИИ по типу гуугла, СЛЕДОВАТЕЛЬНО он будет создан. С другой стороны, я, будучи проф. программистом, т.е. находясь (пусть и на низшей ступени пирамиды) как бы внутри/входя в этот страт ээ "технократов": не оспариваю наличие этого админ., фин. и медиа-ресурса, затрачиваемого на это дело, НО я склонен считать, что это грандиозный распил, который на выходе не даст собственно работающего ИИ.
Тратящих деньги теоретические возражения не интересуют. Вспомни на минуту, эти типы реализовали с нуля проект сети. Ты можешь себе представить такое, ежели бы тебя о вероятности реализации такого проекта спросили году в 70?
Зная как "технари" могут не моргнув проглотить/утилизировать каких угодно размеров финансовые вливания "бюрократов" (которые скорее "гуманитарии", нежели "технари") с какой угодно по размахам/красивостям имитацией промежуточных результатов, но при этом вовсе не обязательно достигнув конечного результата. В данном случае вот эту идею "самозарождения" ИИ я оцениваю как априори фиктивную.
Сеть, цветные революции и прочее - все это казалось бредом. Но, это есть.
Да всё нормально.
В этой полемике мы обрисовали мотивирующий наше рассуждение контекст.
Поэтому указать может точно и нельзя будет, что там само зародилось, а что нет, но первое будет логически вытекать из второго.
Да неважно что и как будет зарождаться, при условии, что самые главные материальные ресурсы:
--Рокфеллеров
--Ротшильдов
--Баррухов
--Пентагона
--и т.п.
...будут потрачены на несколько вариантов проекта ИИ и утилизации на его основе цифровой среды для переселения в неё лучшей части человечества.
То есть сможет построить только такие модели человека, которые соответствуют, условно говоря, той помойке информации, которая ему доступна + тем базовым алгоритмам обработки информации, которые он сам себе не сможет перепрограммировать.
Да почему же не сможет? Даже простенькие роботы на колесиках к этому способны, самопрограммировать для себя карты окружающей реальности.
Но даже допустим, что пытаются создать реальный ИИ, а не замудрённое прикрытие для ээ естественного интеллекта неких ээ закулисных структур. Тогда всё равно этот условный "гугл" сможет построить только те модели, которые отвечают мета-моделям, заложенным создателями гугла.
А ты почитай внимательнее. Гуугловцы закладывают в основу интеллекта пока не модели, а огромные неразобранные/неупорядоченные онтологии, связанные/порожденные деятельностью человека:
--онтологию поисковых запросов
--онтологию запросов на переводы
--запросов в диалоговом режиме "о.к. гуугл"
--карты гуугла с маршрутами на них
--библиотеки с запросами в них
--и т.п.
...такая информация замещает гуугловскому самозарождающемуся сингулярному интеллекту более частные модели.
Ну т.е. идея ИИ (плацебо-ИИ) нужен для того, чтобы когда твой новый умный автомобиль ...
В этом топике я не собираюсь обсуждать вероятность создания/самозарождении ИИ.
В этом топике я хочу продолжать обсуждать модель ментального мира в первой постановке вопроса о ней: сколько самых общих классов ее структуры оптимально устанавливать. Один - два - три - более трёх?
А кто эти классы будет определять/устанавливать - человек ли, ИИ ли - нам это должно быть всё равно.
Почем интересы человека и ИИ могут быть пересечены, - это тоже не важно. Или же наоборот архиважно. Вот, придут лихие времена и будут на Земле созданы невыносимые условия:
--жать одно ГМО, от которого хитиновый панцирь по телу растет и все такое
--очень жарко/холодно, а воды ничерта нет/все ею залито
--порядка и закона, и государства нигде нет
--а есть по окрестным лесам стаи волков/медведей/какой еще нечести полно
--и всяческие банды шарятся пополам со свирепыми полуроботами-полуживотиной
--... и тд. и т.п.
...а тут к обывателю намасливаются менегеры сладкоречивые и предлагают ему переселение его души, его эго, его личности полностью в цифровую среду с гарантией комфорта и полного воспроизведения наличествующей обывательской субъективности. И спецификации приводят. Так мол и так. Ментальный мир будет моноструктурированный. Или же дуальный. Или же тройственный. Но, опционально только за огромную плату для избранных. А так что предлагается без выбора. И т.п. За деньги с наличием либо отсутствием потусторонних сил. И т.д., и т.п.
И вот, чтобы принять более взвешенное решение оставаться на жестокой проклятой Земле или же её покинуть, хорошо бы отчётливо представлять какое предложение что значит. В какой ментальной реальности будет комфортнее грезит себя тем же человеком, а в какой это вообще невозможно?
--Имеется в виду вариант/проект возникновения мега искусственного ИИ по типу самозарождения. Типа как самозарождались гомункулы в ретортах средневековых алхимиков. Сейчас одна такая известная нам реторта называется "гуугл". В таком умозрительном варианте уже нельзя будет точно указать, что наработали программисты, а что эээ "самозародилось
--Мне по-прежнему кажется такая идея "самозарождения" какой-то разводкой: либо попыткой, условно, "технократов" ээ распилить деньги, условно, "бюрократов".

Мне кажется, что отвергать чужие деньги/намерение их неуклонно потратить ест зряшное дело. Если был замысел тратится на гуугловский проект и уже основательно потратились, то и далее так будет. Ежели уже впалили НАСА с гууглом деньги в университет сингулярности, значит быть тому университету или еще чему.
Либо собственно перерождением "бюрократии" в "технократию".
Нетокра́тия
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D1%82%D0%BE%D0%BA%D1%80%D0%B0%D1%82%D0%B8%D1%8F
Когнитариат
https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B3%D0%BD%D0%B8%D1%82%D0%B0%D1%80%D0%B8%D0%B0%D1%82
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

--В калькуляторе балом правит логика и если выражение можно вычислить, результат всегда будет одинаков.
--Смотря какое выражение. Если это простые операции над числами, то, наверно, да. Толку-то с них? Если функции это тоже выражения, то они уже зависят от переменных.

А на самом деле, дело не калькуляторе и не мега ИИ. Дело в наличии объективных феноменов внешнего мира, которые описываются хоть цифрами, хоть функциями, хоть глокой куздрой.
И в этом контексте есть только два вопроса:
(1) Мы/"они"/ИИ будем описывать объективные модели ментального мира человека или же некие нафантазированные?
(2) Ежели описывать объективные ментальные феномены, то на сколько самых общих/крупных частей делить структуру ментального мира:
(а) вообще не делить - общая структура будет в лице единственного класса
(б) делить на две структуры - будет два самых общих класса А и Б
(б) на три структуры - А + Б + С
(в) на большее число частей
--машина в основе своей останется калькулятором — который не имеет привычки терять или искажать информацию.
--Можно создать и такую привычку. В предложении предполагается, что "искажать" и "терять" информацию - это недостаток, это отчасти правда, отчасти нет.

Ну. в сложном железе и обслуживающих его прогах существуют естественные процессы потери и искажения информации.
Даже искусственные нейросети хоть и дают приблизительный ответ, его можно строго округлить до ближайшего целого: функция, недоступная живому!
Если ИИ будет создавать модели функционирования живой ментальности, то там сверхточность просто не предусмотрена.
Ну да, люди-то округлять не умеют! :)
Люди не калькуляторы:

http://nlp-ftf-ftf.livejournal.com/
Люди хороши в переработке смешанных паттернов вида VAKOG-CODE.
То есть можно цитату переписать так: "хотя сравнение калькулятора и нейросети не корректно, но мы притянем кота за яйца и все равно сравним одно с другим".
Ну, общий контекст этот темы является одновременно и некорректным, и необходимым к рассмотрению. Поэтому в данной теме будет множество противоречивых поворотов.
upd: собственно округление - это и есть то самое искажение в чистом виде.
Мне кажется, что надо говорить о некотором "осреднении", которое отличается от математического численного округления.

Дочитали до конца.