Он признает, что в настоящее время человек контролирует развитие технологии, но нужно готовиться к будущему. Хокинга волнует, насколько контролируемым будет будущий процесс воспроизводства ИИ. «Компьютеры превзойдут человека в течение следующих 100 лет», — заявил он на Zeitgeist. И Хокинг – не единственный, кто выражает обеспокоенность. Среди тех, кто с тревогой смотрит на будущее ИИ – Элон Маск, основатель SpaceX и PayPal.Это тоже вам какие никакие, но авторитеты.Однако в любом споре есть вторая сторона. Существует альтернативное мнение, что бояться развития ИИ — заблуждение. Один из главных сторонников этой позиции – главный исполнительный директор и сооснователь Google Ларри Пейдж, который недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах.Ну, "за" Пейджа само по себе кого угодно напугает. Ибо им нужен ИИ для цифрового бессмертия. С совершенно мутной конспирологией трансформации основ человечьего мироздания под эти тёмные проекты."Наша модель поддерживает разговор, предсказывая следующее предложение по содержанию одного или всех предыдущих предложений разговора. Преимущество нашей модели в том, что она может быть обучена от начала до конца и тем самым требует меньше правил, написанных вручную".Ну, эти выражения про обучения "до самого конца" тоже хорошая плохая муть.Пора нам обывателям ввести свои разграничительные критерии кто там кого и как учит. И в чем в этом обучении опасность. Используем механически/аллегорически терминологию Бейтсона по обучению:--сетка обучена человеком - обучение-0--сетка самообучается - обучение-1--одна обученная сетка учит другую - обучение-2--сетка1 учит сетку2, которая учит сетку3 - обучение3..проблемы могут появиться с обучения-3.