https://metapractice.livejournal.com/587759.html
St. Neuronet (18) Искусственная Интуиция
https://metapractice.livejournal.com/573743.html
Подсознательное мышление (4) Интуитивное мышление
https://metapractice.livejournal.com/584794.html
Эпистемология моделирования (4) Моделирование ЧА vs ИИ
https://metapractice.livejournal.com/544138.html
Онтология высших ментальных процессов (2) Ментальные процессы ЧА vs ИИ
https://metapractice.livejournal.com/565864.html
Ментальные инструменты (2) Ментальные инструменты ЧА vs ИИ
https://metapractice.livejournal.com/567523.html
Подсознание (16) Подсознание ЧА vs ИИ
https://metapractice.livejournal.com/584794.html
Сознание (33) «Сознание» ИИ vs ЧА
https://metapractice.livejournal.com/584794.html
Как искусственный интеллект уперся лбом в стенку/ в искусственную интуицию
Искусственному интеллекту уже более 60 лет – он старше многих из нас. И все эти 60 лет накануне первого апреля в своих редакциях собирались журналисты, ставили на стол бутылку водки и придумывали очередную фантазию о чудо-роботах или ужасном апокалипсисе с участием ИИ. Потом первоапрельские шутки на полном серьезе подхватывали маркетологи и пиарщики – в итоге за 60 лет у человечества накопилось много забавных иллюзий и мифов об умных роботах и коварных скайнетах.
Когда-нибудь этот пузырь фантазий должен был столкнуться с объективной реальностью – и это произошло! В декабре 2017 года ряд уважаемых в отрасли ИИ экспертов (среди них руководитель Microsoft Research Кейт Кроуфорд и основатель Open Research в Google Мередит Уиттакер) выступили с настоятельной рекомендацией государственным учреждениям США воздерживаться от использования искусственного интеллекта в системах, связанных с принятием ответственных решений. Предупреждение объяснялось «неопределенно высокими рисками, недопустимыми в вопросах принятия ответственных решений» и касалось правительства, обороны, уголовного правосудия, здравоохранения, социального обеспечения, образования и подбора/оценки кадров.
Первыми еще в 2016 году подняли тревогу военные ученые из DARPA, управления по перспективным исследовательским проектам Пентагона. Они в частности заявили: «Мы не понимаем:
1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?»
Последний пункт с точки зрения будущего развития ИИ-отрасли действительно главный: такая исключительно важная для совершенствования специалиста-человека опция как «работа над ошибками» искусственному интеллекту недоступна.
Проблема называется «черный ящик искусственного интеллекта» — ее суть в том, что мотивация и логика принятия машиной того или иного решения непонятна даже самим разработчикам. И как решили эксперты, пока эта проблема не решена, системы ИИ становятся все опасней.Существует масса областей – от диагностики рака до финансового анализа, от самоуправляемых авто до пуска боевых ракет — где вырабатываемые компьютерами решения могут оказаться незаконными и нанести серьезный вред.
Проблема «черного ящика» — не единственная проблема ИИ, обсуждаемая экспертным сообществом: есть еще, например, узкая специализация, однозадачность. Но официально, на государственном уровне претензии выдвинуты и обоснованы впервые – и они касаются именно непрозрачности в работе искусственного интеллекта. А это значит, что высказано недоверие в адрес его разработчиков!
Давно и подробно пишущий на эту тему уважаемый неутомимый Сергей Карелов
https://www.facebook.com/sergey.karelov.5?__tn__=%2CdC-R-R&eid=ARCsFgSRXIq7LowvYRhLhsqbLrrgXumIgrNVoTMW3i_2go1kWp3i0OWw2zV1Aoh0MiH6fAGudXQfSvK0&hc_ref=ARSn2DxkjPYe_q3S5TJ2rHvKtCw26CERy8xUJcPfwvrntA1fV_4Dg9EO_e5gcra8XSA&fref=nf
Он надеется, что лидеры отрасли, ведущие разработчики сумеют «сделать стенки черного ящика прозрачными» и снимут все вопросы у потребителей/заказчиков. Такой спасительный и прорывной проект действительно существует, он создан учеными DARPA более двух лет назад, называется «Объяснимый ИИ» (Explainable Artificial Intelligence (XAI). Но вот беда: за два года никто так ничего и не объяснил! Ну что поделать: не шмогла!
Пришлось маркетологам, пиарщикам и журналистам опять ставить на стол бутылку водки и креативить новый имидж и новые подвиги искусственного интеллекта. И они действительно придумали нечто новое – точнее, в соответствии со своей профессией они придумали новые слова. Придумали не новый ИИ, объясняющий (а для этого надо понимать!) то, что он делает, а слова, описывающие по-новому те же старые дела и возможности.
Фактически было заявлено следующее: то, что работает внутри «черного ящика», необъяснимо в принципе! Вы не знаете, и мы не знаем, как работает нейронная сеть глубокого обучения – но ведь никто не знает и того, как работает мозг человека!
Согласно новой концепции слова создателя сверточных сетей Яна Лекуна о «сканировании всего изображения и маркирования каждого пикселя» легко и красиво преобразились в «интуицию» и «прогностические модели мира»
https://hightech.fm/2018/07/02/lekun?fbclid=IwAR1Tl6LeARw8KzCeioovDMx3uPDVSqJMKuMtr32TI4DmcUaGdJAaJC1GPiM
А Ольга Ускова, один из основателей Cognitive Technologies, развивая тезисы Лекуна, придумала новый термин — «искусственная интуиция».
https://snob.ru/entry/166778
Цитата: «наша команда Cognitive Pilot стала одной из первых, которая продемонстрировала Искусственный Мозг для беспилотного автомобиля, работающий уже на уровне человека, при этом на существующей элементной базе. Мы ввели понятие ИСКУССТВЕННАЯ ИНТУИЦИЯ…»
То есть не СОЗДАЛИ искусственную интуицию, а ВВЕЛИ ПОНЯТИЕ, что конечно, сделать значительно легче. Если собака Павлова начинает истекать слюной, когда загорится лампочка, то легко можно сказать, что она предвидит кормление, что условный рефлекс – это и есть интуиция. А если смоделировать собачий условный рефлекс на компьютере, тогда получается «искусственная интуиция»! Но как понять пассаж про то, что «Искусственный Мозг работает уже на уровне человека»? Человеку предлагается слепо довериться «искусственной интуиции» беспилотного автомобиля, жить в «прогностической модели мира» собаки Павлова?
Получается не взрослый, а какой-то детский разговор по уровню ответственности. По большому счету эта маркетинговая находка про интуицию не дает ответа ни на один вопрос из тех пяти, что задали разработчикам ученые DARPA. Если в вопросы подставить слово «интуиция», ничего не изменится. Почему интуиция подсказала машине именно такое решение? Как понять, когда интуиция сработала правильно, а когда ошиблась? Как исправить ошибку и где гарантия, что машина опять не ошибется?
Можно понять беспокойство отечественных разработчиков: ограничения на использование ИИ в США усиливаются как раз в то время, когда в России объявлен старт всеобщей цифровизации, на что государство выделяет триллионы рублей!
При этом помимо того, что не появилось серьезных ответов на старые вопросы, возникают новые.
Интуиция работает при недостатке информации, на минимальной базе данных — в этом ее смысл и ценовое преимущество (в смысле используемых вычислительных мощностей — на этот бонус и намекается, когда говорится, что чудесный прорыв совершен «на существующей элементной базе»).
Допустим чисто гипотетически, что «искусственная интуиция» — это не просто загадочные слова и загадочное лицо старого фокусника, за которыми он скрывает примитивную простоту старого фокуса. Это же фокус, дети, а фокусы не объясняют!
Предположим, что чудо свершилось и действительно удалось создать алгоритм интуиции! Но в этом случае кому нужны будут все эти бигдаты, мега-колоссальные объемы информации, на хранение которых АйТи-гиганты тратят миллиарды? Человеку они не нужны, он с ними давно уже не справляется, не успевает обрабатывать — именно поэтому тратит столько сил и финансов на создание эффективного помощника в лице ИИ. А если все растущие объемы информации не нужны и машине, если она научилась как человек обходиться интуицией – то кому и для чего нужны все эти терракотовые полчища серверов, столпотворения терабайтов, облачные хранилища?!
Можно, конечно, придумать новые слова и для ответа на этот вопрос – надо только предварительно сбегать за бутылкой водки. Но гораздо интересней все же раскрыть тайну «черного ящика» — что там скрывается в его нутре, как эта машинка работает? Это неизбежно предстоит и очень скоро…
P.S. А может быть «искусственная интуиция» — это просто шутка из цикла «ученые шутят» или «программисты шутят»?
Искусственная интуиция потому искусственная, что «предвидит» то, что всем очевидно!
Искусственный интеллект «Очевидность» имитировал вчера интуицию слишком уж искусственно!
http://rosmanifest.info/?page_id=890&fbclid=IwAR1E4zjNu9NeifQHUpGjrBYnr5tjHdLS6U0HTKd82uSFww97tt2WZZTDYdk