Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 5881 - 5890 из 30962
Журналисты - зло.
Журналисты - безотносительное зло. Некоторые разработчики нейросетей есть другого типа явное зло, ибо не ведают что творят. Логика - пока ничего страшного не произошло, то его и нет, в отношении интенсивного развития нейросетей, является ложной.
Им покажешь молоток, а они ему приписывают злобу и ненависть, а также выражение лица рукоятки, с которым она направляет боёк не на гвоздь, а на палец.
Молоток - фигура. Фон:
--злобное выражение демонстратора
--резкие движения молотком
--а так же предпочтение к отвлеченным от сути разговора примерам, ибо молоток есть дикий/не годный для выражения моделей интеллекта интерфейс
...совокупность приведённых трёх свойств закономерно вызывает у наблюдателей оправданное ощущение прорывающейся злобы, ненависти и скрытых намерений.
С умными железками, напичканными софтом, всё то же самое. Покажешь журналисту, или психологу, или литератору и уж тем более философу (а иногда даже и программисту! тоже ведь философски настроенные натуры бывают!)
Что характерно, 90% програмистов являются субъектами с четко проявляющейся "философинкой". Любой это знает.
интересную программу -- ей тут же навесят человеческий разум, женскую сущность.
Назови стиральную машину ИМЕНЕМ СОБСТВЕННЫМ, постоянно к ней с именем обращайся, - в итоге получишь СИЛЬНЕЙШЕЕ ПРОЕКТИВНОЕ ЧУВСТВО ОЛИЦЕТВОРЕННОСТИ/одушевленности стиральной машины.
Это такой общий феномен. Игнорировать/отплёвываться от него в отношении процессов, официально называемых "нейросетями" является/выглядит ну очень очень странным. (Собеседник Т. Хэнкса по фильму "Изгой"):
Для придания фактической основы ИИ разработчики Google решили снабдить его данными из конкретной области знаний наряду с данными из более широкой и общей сферы. В первую категорию данных вошли переговоры службы техподдержки, во вторую – субтитры к фильмам.
Поди на это у них работают две отдельные сетки. Которые потом соединяются третьей.
«Модель (читай: ИИ) может найти решение технической проблемы через разговор. А из набора разрозненных данных субтитров к фильмам модель может почерпнуть простые формы связного построения речи и рассуждения. Как мы и ожидали, слабой стороной модели стало отсутствие последовательности».
Ну, на этом уровне им нужны последовательности типа алгоритмов вариантов мета-моделей и более развернутые алгоритмы типа модели точности и еще более свободные алгоритмы бикомпьютинга.
Это исследование было опубликовано 23 июня 2015 г., так что это — новая разработка в области ИИ, которая до сих пор пребывает в зачаточном состоянии. Тем не менее, эта модель является одной из самых развитых форм ИИ, представленных миру. И чтобы узнать, насколько им удалось продвинуться, разработчики Google загрузили компьютер и попробовали побеседовать с ИИ.
Ну, результат предсказуем. Тебе и себе вариант работы их ИИ существенно различается. А это критерий.
Он признает, что в настоящее время человек контролирует развитие технологии, но нужно готовиться к будущему. Хокинга волнует, насколько контролируемым будет будущий процесс воспроизводства ИИ. «Компьютеры превзойдут человека в течение следующих 100 лет», — заявил он на Zeitgeist. И Хокинг – не единственный, кто выражает обеспокоенность. Среди тех, кто с тревогой смотрит на будущее ИИ – Элон Маск, основатель SpaceX и PayPal.
Это тоже вам какие никакие, но авторитеты.
Однако в любом споре есть вторая сторона. Существует альтернативное мнение, что бояться развития ИИ — заблуждение. Один из главных сторонников этой позиции – главный исполнительный директор и сооснователь Google Ларри Пейдж, который недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах.
Ну, "за" Пейджа само по себе кого угодно напугает. Ибо им нужен ИИ для цифрового бессмертия. С совершенно мутной конспирологией трансформации основ человечьего мироздания под эти тёмные проекты.
"Наша модель поддерживает разговор, предсказывая следующее предложение по содержанию одного или всех предыдущих предложений разговора. Преимущество нашей модели в том, что она может быть обучена от начала до конца и тем самым требует меньше правил, написанных вручную".
Ну, эти выражения про обучения "до самого конца" тоже хорошая плохая муть.
Пора нам обывателям ввести свои разграничительные критерии кто там кого и как учит. И в чем в этом обучении опасность. Используем механически/аллегорически терминологию Бейтсона по обучению:
--сетка обучена человеком - обучение-0
--сетка самообучается - обучение-1
--одна обученная сетка учит другую - обучение-2
--сетка1 учит сетку2, которая учит сетку3 - обучение3
..проблемы могут появиться с обучения-3.
«Разработка полноценного искусственного интеллекта может означать конец человеческой расы», — сказал Хокинг.
В статью, к которой приложен официальный отчет гуугла, всё же попсовой не назовёшь.
Сильный ИИ - конец человеческой расы.
Слабый ИИ - слабый конец расы? Лёгкий п-ц?
Эта фраза прозвучала, когда разговор в интервью зашел о технологии, которая позволяет Хокингу говорить. Она основана на базовых формах ИИ и машинного обучения. Британская компания SwiftKey сыграла важную роль в разработке этой технологии: компьютер изучает ход мысли Хокинга и предлагает возможные варианты того, что он хочет сказать.
Кстати. Хокинг один из немногих, который есть более чем эксперт в ИИ на основе нейросетей:
--ученый точных наук высшего профиля
--многолетний пользователь нейросетей, решающих специальные сложные задачи
--задачи терминального уровня, ибо ии-н. сеть вытаскивает из него речь при наличии отсутствия физической возможности говорить
...и вот этот супер эксперт говорит - поберегитесь.
В интервью Би-би-си Хокинг признает, что те формы ИИ, которые удалось разработать на сегодняшний день, оказались полезными. Тем не менее, он утверждает, что создание технологии, которая может сравниться с человеком или превзойти его, не приведет ни к чему хорошему.
И мнение Хокинга однозначное. "Не приведёт ни к чему хорошему".
«Он (ИИ) станет самостоятельным и начнет развиваться и перестраиваться до бесконечности», — говорит Хокинг в интервью.
О чём и речь. ИИ сам по себе станет самостоятельным и начнёт рост по некоей прогрессии. И человек ему будет конкурент за ресурсы. Вот и вся страшилка.
Примерно через год после выхода в эфир того интервью Хокинг выступал на лондонской конференции Zeitgeist – 2015. Он повторил основные идеи, высказанные им в 2014 году, но по мере развития технологий он стал решительнее в своих высказываниях.
За год Х. увеличил нажим/категоричность своих высказываний.
По словам Хокинга, важной частью проблемы является то, какую ответственность несут люди, которые сейчас работают над созданием ИИ.
А никакой не несут. Вот у нас наглядный пример мистера Л. Он хоть и не разработчик, но вхож в сферы. И вот он из этих сфер гонит волну типа нет никакого ИИ, а есть особенные сложные задачи для/по развитию сеток.
Но, дело в том, что с стеками дело такое, что всякая сетка это элемент ИИ. Вот это вот - рабочий тезис.
А по какому курсу?
Ага, именно этот анализ. Но, кажется, он не весь, что мы наработали на воскресных школах в живую. Надо будет посмотреть.
А непонятно.
Старые чатботы действовали по шаблонам.
А теперь это каждый раз уникальное срабатыванеи сети. да, поди ещё с эффектом текущего самообучения.
А по скольку на нос?

Дочитали до конца.