[userpic]

Обучение-3 для нейросетей 

metanymous в посте Metapractice (оригинал в ЖЖ)

Он признает, что в настоящее время человек контролирует развитие технологии, но нужно готовиться к будущему. Хокинга волнует, насколько контролируемым будет будущий процесс воспроизводства ИИ. «Компьютеры превзойдут человека в течение следующих 100 лет», — заявил он на Zeitgeist. И Хокинг – не единственный, кто выражает обеспокоенность. Среди тех, кто с тревогой смотрит на будущее ИИ – Элон Маск, основатель SpaceX и PayPal.
Это тоже вам какие никакие, но авторитеты.
Однако в любом споре есть вторая сторона. Существует альтернативное мнение, что бояться развития ИИ — заблуждение. Один из главных сторонников этой позиции – главный исполнительный директор и сооснователь Google Ларри Пейдж, который недавно объявил о создании нового ИИ, построенного на моделировании разговора. Команда разработчиков, работающая над проектом, недавно опубликовала отчет о достигнутых на сегодня результатах.
Ну, "за" Пейджа само по себе кого угодно напугает. Ибо им нужен ИИ для цифрового бессмертия. С совершенно мутной конспирологией трансформации основ человечьего мироздания под эти тёмные проекты.
"Наша модель поддерживает разговор, предсказывая следующее предложение по содержанию одного или всех предыдущих предложений разговора. Преимущество нашей модели в том, что она может быть обучена от начала до конца и тем самым требует меньше правил, написанных вручную".
Ну, эти выражения про обучения "до самого конца" тоже хорошая плохая муть.
Пора нам обывателям ввести свои разграничительные критерии кто там кого и как учит. И в чем в этом обучении опасность. Используем механически/аллегорически терминологию Бейтсона по обучению:
--сетка обучена человеком - обучение-0
--сетка самообучается - обучение-1
--одна обученная сетка учит другую - обучение-2
--сетка1 учит сетку2, которая учит сетку3 - обучение3
..проблемы могут появиться с обучения-3.