Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 10801 - 10810 из 56261
Он признает, что в настоящее время человек контролирует развитие технологии, но нужно готовиться к будущему. Хокинга волнует, насколько контролируемым будет будущий процесс воспроизводства ИИ. «Компьютеры превзойдут человека в течение следующих 100 лет», — заявил он на Zeitgeist. И Хокинг – не единственный, кто выражает обеспокоенность. Среди тех, кто с тревогой смотрит на будущее ИИ – Элон Маск, основатель SpaceX и PayPal.
Это тоже вам какие никакие, но авторитеты.
Однако в любом споре есть вторая сторона. Существует альтернативное мнение, что бояться развития ИИ — заблуждение. Один из главных сторонников этой позиции – главный исполнительный директор и сооснователь Google Ларри Пейдж, который недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах.
Ну, "за" Пейджа само по себе кого угодно напугает. Ибо им нужен ИИ для цифрового бессмертия. С совершенно мутной конспирологией трансформации основ человечьего мироздания под эти тёмные проекты.
"Наша модель поддерживает разговор, предсказывая следующее предложение по содержанию одного или всех предыдущих предложений разговора. Преимущество нашей модели в том, что она может быть обучена от начала до конца и тем самым требует меньше правил, написанных вручную".
Ну, эти выражения про обучения "до самого конца" тоже хорошая плохая муть.
Пора нам обывателям ввести свои разграничительные критерии кто там кого и как учит. И в чем в этом обучении опасность. Используем механически/аллегорически терминологию Бейтсона по обучению:
--сетка обучена человеком - обучение-0
--сетка самообучается - обучение-1
--одна обученная сетка учит другую - обучение-2
--сетка1 учит сетку2, которая учит сетку3 - обучение3
..проблемы могут появиться с обучения-3.
«Разработка полноценного искусственного интеллекта может означать конец человеческой расы», — сказал Хокинг.
В статью, к которой приложен официальный отчет гуугла, всё же попсовой не назовёшь.
Сильный ИИ - конец человеческой расы.
Слабый ИИ - слабый конец расы? Лёгкий п-ц?
Эта фраза прозвучала, когда разговор в интервью зашел о технологии, которая позволяет Хокингу говорить. Она основана на базовых формах ИИ и машинного обучения. Британская компания SwiftKey сыграла важную роль в разработке этой технологии: компьютер изучает ход мысли Хокинга и предлагает возможные варианты того, что он хочет сказать.
Кстати. Хокинг один из немногих, который есть более чем эксперт в ИИ на основе нейросетей:
--ученый точных наук высшего профиля
--многолетний пользователь нейросетей, решающих специальные сложные задачи
--задачи терминального уровня, ибо ии-н. сеть вытаскивает из него речь при наличии отсутствия физической возможности говорить
...и вот этот супер эксперт говорит - поберегитесь.
В интервью Би-би-си Хокинг признает, что те формы ИИ, которые удалось разработать на сегодняшний день, оказались полезными. Тем не менее, он утверждает, что создание технологии, которая может сравниться с человеком или превзойти его, не приведет ни к чему хорошему.
И мнение Хокинга однозначное. "Не приведёт ни к чему хорошему".
«Он (ИИ) станет самостоятельным и начнет развиваться и перестраиваться до бесконечности», — говорит Хокинг в интервью.
О чём и речь. ИИ сам по себе станет самостоятельным и начнёт рост по некоей прогрессии. И человек ему будет конкурент за ресурсы. Вот и вся страшилка.
Примерно через год после выхода в эфир того интервью Хокинг выступал на лондонской конференции Zeitgeist – 2015. Он повторил основные идеи, высказанные им в 2014 году, но по мере развития технологий он стал решительнее в своих высказываниях.
За год Х. увеличил нажим/категоричность своих высказываний.
По словам Хокинга, важной частью проблемы является то, какую ответственность несут люди, которые сейчас работают над созданием ИИ.
А никакой не несут. Вот у нас наглядный пример мистера Л. Он хоть и не разработчик, но вхож в сферы. И вот он из этих сфер гонит волну типа нет никакого ИИ, а есть особенные сложные задачи для/по развитию сеток.
Но, дело в том, что с стеками дело такое, что всякая сетка это элемент ИИ. Вот это вот - рабочий тезис.
Ну, по актуальному рыночному на момент фактической покупки.
Кажется, я спутал обсуждаемый эксперимент гугла с каким-то другим.
Вот этот отчёт: http://arxiv.org/pdf/1506.05869v2.pdf
Прогресс таки есть! Вполне нормальный вроде такой подход: типа ИИ = возможность адекватно поддерживать диалог. При этом база данных берётся из реальных диалогов людей в данном контексте (например, чат с сотрудниками тех. поддержки).
А по какому курсу?
156 баксов поделить на количество носов :)
Ага, именно этот анализ. Но, кажется, он не весь, что мы наработали на воскресных школах в живую. Надо будет посмотреть.
А непонятно.
Старые чатботы действовали по шаблонам.
А теперь это каждый раз уникальное срабатыванеи сети. да, поди ещё с эффектом текущего самообучения.
А по скольку на нос?
http://www.psychotherapy.net/video/virginia-satir-series-videos
Вот здесь за 156 баксов продают 5 видео Вирджинии Сатир. Демонстрирует семейную терапию. По предыдущему опыту работы с сайтом – контент качественный, к видео был уже готовый транскрипт.
Возьму на себя всё техническую работу по скачиванию видоса (изначально есть доступ только для онлайн-просмотра – но, опять же, один мой друг :) уже имел опыт успешного спирачивания с этого сайта – всё не очевидно, но работающий метод нашёлся) и расшаривании на участников.
Если кто-то хочет скинуться – пишите.

Дочитали до конца.