Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 5881 - 5890 из 30957
«Разработка полноценного искусственного интеллекта может означать конец человеческой расы», — сказал Хокинг.
В статью, к которой приложен официальный отчет гуугла, всё же попсовой не назовёшь.
Сильный ИИ - конец человеческой расы.
Слабый ИИ - слабый конец расы? Лёгкий п-ц?
Эта фраза прозвучала, когда разговор в интервью зашел о технологии, которая позволяет Хокингу говорить. Она основана на базовых формах ИИ и машинного обучения. Британская компания SwiftKey сыграла важную роль в разработке этой технологии: компьютер изучает ход мысли Хокинга и предлагает возможные варианты того, что он хочет сказать.
Кстати. Хокинг один из немногих, который есть более чем эксперт в ИИ на основе нейросетей:
--ученый точных наук высшего профиля
--многолетний пользователь нейросетей, решающих специальные сложные задачи
--задачи терминального уровня, ибо ии-н. сеть вытаскивает из него речь при наличии отсутствия физической возможности говорить
...и вот этот супер эксперт говорит - поберегитесь.
В интервью Би-би-си Хокинг признает, что те формы ИИ, которые удалось разработать на сегодняшний день, оказались полезными. Тем не менее, он утверждает, что создание технологии, которая может сравниться с человеком или превзойти его, не приведет ни к чему хорошему.
И мнение Хокинга однозначное. "Не приведёт ни к чему хорошему".
«Он (ИИ) станет самостоятельным и начнет развиваться и перестраиваться до бесконечности», — говорит Хокинг в интервью.
О чём и речь. ИИ сам по себе станет самостоятельным и начнёт рост по некоей прогрессии. И человек ему будет конкурент за ресурсы. Вот и вся страшилка.
Примерно через год после выхода в эфир того интервью Хокинг выступал на лондонской конференции Zeitgeist – 2015. Он повторил основные идеи, высказанные им в 2014 году, но по мере развития технологий он стал решительнее в своих высказываниях.
За год Х. увеличил нажим/категоричность своих высказываний.
По словам Хокинга, важной частью проблемы является то, какую ответственность несут люди, которые сейчас работают над созданием ИИ.
А никакой не несут. Вот у нас наглядный пример мистера Л. Он хоть и не разработчик, но вхож в сферы. И вот он из этих сфер гонит волну типа нет никакого ИИ, а есть особенные сложные задачи для/по развитию сеток.
Но, дело в том, что с стеками дело такое, что всякая сетка это элемент ИИ. Вот это вот - рабочий тезис.
А по какому курсу?
Ага, именно этот анализ. Но, кажется, он не весь, что мы наработали на воскресных школах в живую. Надо будет посмотреть.
А непонятно.
Старые чатботы действовали по шаблонам.
А теперь это каждый раз уникальное срабатыванеи сети. да, поди ещё с эффектом текущего самообучения.
А по скольку на нос?
Но никак не антропоморфизировать молотки и будильники и дальше нагонять страху, как это делают в попсовых статьях типа http://rusbase.vc/story/eto-zhenshina/ (там даже заголовок "Искусственный разум от Google заговорил. И это женщина").
По ссылке страху нагоняет совсем не авторитетный для наших здешних авторитетов директор и сооснователь Google Ларри Пейдж, который "недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков Google, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах".
Далее, страх продолжает нагонять другой, ну совсем не авторитет, мега известный физик. Стивен Хокинг – физик-теоретик, космолог, писатель.
Даже поговорить о смысле жизни -- это просто сложная задача, никакого разума, никакого интеллекта не подразумевает.
Поговорить о смысле жизни в рамках сложной задачи возможно при наличии транперсонального/изотерического интеллекта.
Обсуждать можно лишь содержание высказываний, ничего более. Если машина слишком врёт, дообучить её (скормить какой-нибудь дополнительный текст, а хоть и от психологов).
Корпоративная идеология, наука и практика.
Обсуждать развитие нейросетей можно, а хоть бы и языком системной инженерии (си). Из построения конкретной си-инженерии будет чётко явствовать можно ли и для чего кормить нейросеть МОДЕЛЯМИ ОБУЧЕНИЯ ЧЕЛОВЕКОВ.
Но, знает ли кто-либо о нечеловеческих моделях обучения?
С психологическим, социологическим, экономическим и прочим гуманитарным аппаратом к задачам современного слабого искусственного интеллекта (это термин, но я уже зарёкся его использовать, он как масла в огонь подливает каждым словом -- и "искуственным" и "интеллектом" и даже "слабым", мало ведь кто знает его изначальное значение. Но увы, нового слова для данной предметной области пока не придумали) подходить нельзя, вредно.
Задачи любой силы искусственного интеллекта не являются задачами замкнутой корпоративной среды. Это задачи, касающиеся повседневной жизни любого современного обывателя.
Следовательно, обыватель обязан разбираться в архисложных вопросах доступными средствами.
В прошедшем веке на роль такого средства выдвигалась эпистемология Бейтсона. Но, оказалась сложной для обывателя. Хотя Б. надеялся на противоположное.
Ну, а мы предлагаем на роль такого средства в помощь обывателю теорию и практику метапрактикового моделирования. Оно позволяет в каждой очередной задаче, ничего не зная, начинать с нуля с правильных вопросов.
Правильные вопросы приводят рано или поздно к правильным ответам.
Не случайно разрабатываемый гууглом вариант ИИ является диалоговым/вопросно-ответным.
Нет задачи смоделировать именно человеческий или животный или инопланетный разум, есть задача научить компьютер решать отдельные классы сложных задач.
Ну, да. Охотно не верим ни одному такому слову. Это как у производителей ГМО, они вовсе не собираются моделировать небелковые формы жизни для последующего в них переселения. Они только собираются накормить народы густой смесью пестицидов, инсектицидов и генетической химерной дряни, которую природа/бог не создавала на этом шарике.
Поэтому, мы мало-по-малу разберёмся на что похожи эти "отдельные классы сложных задач".
Как только компьютерная программа демонстрирует поведение сложнее калькулятора, то ей сразу навешивают сравнение с именно человеческим разумом
Как только компьютерная программа демонстрирует поведение сложнее калькулятора, то ей сразу НЕПРОИЗВОЛЬНО навешивают сравнение с именно человеческим разумом.
-- и там тупик пустопорожних разговоров (про разум молотка, или экскаватора -- и по какому пути его неведомые инженеры должны были бы делать по мнению очередного не-инженера).
Ну, молотковые и экскаваторные инженеры + молотковые и экскаваторные работники это весьма узкая каста, к которой ни написавший разбираемый пост, ни читающие его в своём большинстве отношения не имеют.
Аналогично с нейросетями. И в том и в другом случае мы не более чем информированные/нет зеваки/обыватели. Однако, молотки инструменты двойного назначения, а экскаватором можно порвать коммуникации целого города. Посему, нам следует вживаться в допустимые нам вспомогательные роли моделистов, слабых с. инженеров. Ибо возникла очередная необходимость разобраться в очередном сюрпризе глобализации.
Это злой дух болезни его отпускать не хотел, ха-ха! :)
Ну, скорее это был обобщенный демон "повреждения".
Кстати, Бандлер утверждает, что проводил обряды экзорцизма над своими клиентами.
А вот, точно. У него же была разработка к шаманизму. Я по переводу введения к этому его шаманизму делал её буквалисткий анализ на воскресных школах моделирования.
Мистику в сторону, но тут должен быть какой-то нейрологический феномен.
Да! И нам надо его зафиксировать. Гарантии нет, но сигналы биокомпьютинга дают знать, что это возможно. Типа время пришло.

Дочитали до конца.