Но никак не антропоморфизировать молотки и будильники и дальше нагонять страху, как это делают в попсовых статьях типа http://rusbase.vc/story/eto-zhenshina/ (там даже заголовок "Искусственный разум от Google заговорил. И это женщина").По ссылке страху нагоняет совсем не авторитетный для наших здешних авторитетов директор и сооснователь Google Ларри Пейдж, который "недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков Google, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах".Далее, страх продолжает нагонять другой, ну совсем не авторитет, мега известный физик. Стивен Хокинг – физик-теоретик, космолог, писатель.
"недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков Google, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах"Каковые результаты не демонстрируют никакого значимого прогресса по сравнению с чат-ботами из 80-х.
А непонятно.Старые чатботы действовали по шаблонам.А теперь это каждый раз уникальное срабатыванеи сети. да, поди ещё с эффектом текущего самообучения.
Кажется, я спутал обсуждаемый эксперимент гугла с каким-то другим.Вот этот отчёт: http://arxiv.org/pdf/1506.05869v2.pdfПрогресс таки есть! Вполне нормальный вроде такой подход: типа ИИ = возможность адекватно поддерживать диалог. При этом база данных берётся из реальных диалогов людей в данном контексте (например, чат с сотрудниками тех. поддержки).
«Разработка полноценного искусственного интеллекта может означать конец человеческой расы», — сказал Хокинг.В статью, к которой приложен официальный отчет гуугла, всё же попсовой не назовёшь.Сильный ИИ - конец человеческой расы.Слабый ИИ - слабый конец расы? Лёгкий п-ц?Эта фраза прозвучала, когда разговор в интервью зашел о технологии, которая позволяет Хокингу говорить. Она основана на базовых формах ИИ и машинного обучения. Британская компания SwiftKey сыграла важную роль в разработке этой технологии: компьютер изучает ход мысли Хокинга и предлагает возможные варианты того, что он хочет сказать.Кстати. Хокинг один из немногих, который есть более чем эксперт в ИИ на основе нейросетей:--ученый точных наук высшего профиля--многолетний пользователь нейросетей, решающих специальные сложные задачи--задачи терминального уровня, ибо ии-н. сеть вытаскивает из него речь при наличии отсутствия физической возможности говорить...и вот этот супер эксперт говорит - поберегитесь.В интервью Би-би-си Хокинг признает, что те формы ИИ, которые удалось разработать на сегодняшний день, оказались полезными. Тем не менее, он утверждает, что создание технологии, которая может сравниться с человеком или превзойти его, не приведет ни к чему хорошему.И мнение Хокинга однозначное. "Не приведёт ни к чему хорошему".«Он (ИИ) станет самостоятельным и начнет развиваться и перестраиваться до бесконечности», — говорит Хокинг в интервью.О чём и речь. ИИ сам по себе станет самостоятельным и начнёт рост по некоей прогрессии. И человек ему будет конкурент за ресурсы. Вот и вся страшилка.Примерно через год после выхода в эфир того интервью Хокинг выступал на лондонской конференции Zeitgeist – 2015. Он повторил основные идеи, высказанные им в 2014 году, но по мере развития технологий он стал решительнее в своих высказываниях.За год Х. увеличил нажим/категоричность своих высказываний.По словам Хокинга, важной частью проблемы является то, какую ответственность несут люди, которые сейчас работают над созданием ИИ.А никакой не несут. Вот у нас наглядный пример мистера Л. Он хоть и не разработчик, но вхож в сферы. И вот он из этих сфер гонит волну типа нет никакого ИИ, а есть особенные сложные задачи для/по развитию сеток.Но, дело в том, что с стеками дело такое, что всякая сетка это элемент ИИ. Вот это вот - рабочий тезис.
Он признает, что в настоящее время человек контролирует развитие технологии, но нужно готовиться к будущему. Хокинга волнует, насколько контролируемым будет будущий процесс воспроизводства ИИ. «Компьютеры превзойдут человека в течение следующих 100 лет», — заявил он на Zeitgeist. И Хокинг – не единственный, кто выражает обеспокоенность. Среди тех, кто с тревогой смотрит на будущее ИИ – Элон Маск, основатель SpaceX и PayPal.Это тоже вам какие никакие, но авторитеты.Однако в любом споре есть вторая сторона. Существует альтернативное мнение, что бояться развития ИИ — заблуждение. Один из главных сторонников этой позиции – главный исполнительный директор и сооснователь Google Ларри Пейдж, который недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах.Ну, "за" Пейджа само по себе кого угодно напугает. Ибо им нужен ИИ для цифрового бессмертия. С совершенно мутной конспирологией трансформации основ человечьего мироздания под эти тёмные проекты."Наша модель поддерживает разговор, предсказывая следующее предложение по содержанию одного или всех предыдущих предложений разговора. Преимущество нашей модели в том, что она может быть обучена от начала до конца и тем самым требует меньше правил, написанных вручную".Ну, эти выражения про обучения "до самого конца" тоже хорошая плохая муть.Пора нам обывателям ввести свои разграничительные критерии кто там кого и как учит. И в чем в этом обучении опасность. Используем механически/аллегорически терминологию Бейтсона по обучению:--сетка обучена человеком - обучение-0--сетка самообучается - обучение-1--одна обученная сетка учит другую - обучение-2--сетка1 учит сетку2, которая учит сетку3 - обучение3..проблемы могут появиться с обучения-3.
Для придания фактической основы ИИ разработчики Google решили снабдить его данными из конкретной области знаний наряду с данными из более широкой и общей сферы. В первую категорию данных вошли переговоры службы техподдержки, во вторую – субтитры к фильмам.Поди на это у них работают две отдельные сетки. Которые потом соединяются третьей.«Модель (читай: ИИ) может найти решение технической проблемы через разговор. А из набора разрозненных данных субтитров к фильмам модель может почерпнуть простые формы связного построения речи и рассуждения. Как мы и ожидали, слабой стороной модели стало отсутствие последовательности».Ну, на этом уровне им нужны последовательности типа алгоритмов вариантов мета-моделей и более развернутые алгоритмы типа модели точности и еще более свободные алгоритмы бикомпьютинга.Это исследование было опубликовано 23 июня 2015 г., так что это — новая разработка в области ИИ, которая до сих пор пребывает в зачаточном состоянии. Тем не менее, эта модель является одной из самых развитых форм ИИ, представленных миру. И чтобы узнать, насколько им удалось продвинуться, разработчики Google загрузили компьютер и попробовали побеседовать с ИИ.Ну, результат предсказуем. Тебе и себе вариант работы их ИИ существенно различается. А это критерий.