[userpic]

Дуальность Искусственного Интеллекта

metanymous в Metapractice (оригинал в ЖЖ)

Сводная тема, выпуск 53

Сводная тема
  53. Дуальность Искусственного Интеллекта 1 metanymous
  52. Функциональная нейрология Enteric Nervous System 1 metanymous
  51. КГД стратегии обучения <> успеваемость 1 metanymous
  50. Баланс/ пропорции сознательной/ подсознательной составляющих в текущей активности 3 meta_eugzol
  49. Обучение во сне даёт ~сновиденческое знание 2 metanymous
  48. ENS управляет вниманием/ восприятием 1 metanymous
  47. ЦИ есть ЧА-феномен принятия решения 13 metanymous
  46. ЦИ-модификация мета-модели НЛП-1 23 meta_eugzol
  45. Идеомоторный образ преодоления архетипа старения-смерти 8 metanymous
  44. Транс-деривационный процесс – Декодер - Диалектика 1 metanymous
  43. Процессы идеомоторики и первичного моделирования 1 metanymous
  42. Дневник есть методика само программирования 26 metanymous
  41. Моделирование границ между «реальностями» 3 metanymous
  40. Сравнение КГД-мышления топа и примитива 4 metanymous
  39. Мышление и моделирование против инфо "сложности" 2 metanymous
  38. «Межполушарные различия» в «Черном» Ящике» бихевиоризма 2 metanymous
  37. «Постановка целей и мотивация» 21 metanymous
  36. Либеральные права сознания. Выбор носителя. 18 metanymous
  35. Первичное моделирование; «Чтение мыслей»; Биокомпьютинг; 3 metanymous
  34. Трансформационное мышление 4 metanymous
  33. Разнообразие феноменов трансдеривации 32 metanymous
  32. КГД портрет/ стратегии системноинженерного мышления 7 metanymous
  31. Феномен «Pokemon Go» 4 metanymous
  30. Навигация по звездам, течениям, цвету воды и воображаемым островам 25 metanymous
  29. КГД субмодальностей «верх-низ» 38 metanymous
  28. БОС на интеллект; Поток vs аптайм 47 metanymous
  27. Часть личности: психиатрия vs моделирование, рефрейминг 23 metanymous
  26. Рефрейминг в роли проц. интеграции частей 7 metanymous
  25. Лево-правая экспрессия = EMDR (?) 6 metanymous
  23. Ранжирование техник преодоления диссоциации между сознанием и подсознанием 55 metanymous
  22. Деятельное внимание_восприятие_сознание 102 metanymous
Сводная тема
  52. Функциональная нейрология Enteric Nervous System metanymous
  50. Баланс/ пропорции сознательной/ подсознательной составляющих в текущей активности meta_eugzol
St. Neuronet
  17. A Standard Model of the Mind metanymous
Ментальные инструменты
  1. Онтология МИ metanymous
Онтология высших ментальный процессов
  1. Онтология феноменов и единство явления metanymous
Эпистемология моделирования
  3. Первый уровень или Карта тоже территория lidenskap_frost
Мета-модель
  5. Patterns of Problem Solving: The New Structure of Magic metanymous
    Восемь моделей подсознания, "часть", ... meta_eugzol
Темы MetaPractice (02.11.21) - 245 тем
  Темы MetaPractice (02.11.21) - 245 тем metanymous
Темы MetaPractice (21.08.19) - 242 темы
  Темы MetaPractice (21.08.19) - 242 темы metanymous
Сознание
  34. Сознание = процесс квантования meta_eugzol
https://metapractice.livejournal.com/587759.html
St. Neuronet (18) Искусственная Интуиция
https://metapractice.livejournal.com/573743.html
Подсознательное мышление (4) Интуитивное мышление
https://metapractice.livejournal.com/584794.html
Эпистемология моделирования (4) Моделирование ЧА vs ИИ
https://metapractice.livejournal.com/544138.html
Онтология высших ментальных процессов (2) Ментальные процессы ЧА vs ИИ
https://metapractice.livejournal.com/565864.html
Ментальные инструменты (2) Ментальные инструменты ЧА vs ИИ
https://metapractice.livejournal.com/567523.html
Подсознание (16) Подсознание ЧА vs ИИ
https://metapractice.livejournal.com/584794.html
Сознание (33) «Сознание» ИИ vs ЧА
https://metapractice.livejournal.com/584794.html

Как искусственный интеллект уперся лбом в стенку/ в искусственную интуицию
Искусственному интеллекту уже более 60 лет – он старше многих из нас. И все эти 60 лет накануне первого апреля в своих редакциях собирались журналисты, ставили на стол бутылку водки и придумывали очередную фантазию о чудо-роботах или ужасном апокалипсисе с участием ИИ. Потом первоапрельские шутки на полном серьезе подхватывали маркетологи и пиарщики – в итоге за 60 лет у человечества накопилось много забавных иллюзий и мифов об умных роботах и коварных скайнетах.
Когда-нибудь этот пузырь фантазий должен был столкнуться с объективной реальностью – и это произошло! В декабре 2017 года ряд уважаемых в отрасли ИИ экспертов (среди них руководитель Microsoft Research Кейт Кроуфорд и основатель Open Research в Google Мередит Уиттакер) выступили с настоятельной рекомендацией государственным учреждениям США воздерживаться от использования искусственного интеллекта в системах, связанных с принятием ответственных решений. Предупреждение объяснялось «неопределенно высокими рисками, недопустимыми в вопросах принятия ответственных решений» и касалось правительства, обороны, уголовного правосудия, здравоохранения, социального обеспечения, образования и подбора/оценки кадров.
Первыми еще в 2016 году подняли тревогу военные ученые из DARPA, управления по перспективным исследовательским проектам Пентагона. Они в частности заявили: «Мы не понимаем:
1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?»
Последний пункт с точки зрения будущего развития ИИ-отрасли действительно главный: такая исключительно важная для совершенствования специалиста-человека опция как «работа над ошибками» искусственному интеллекту недоступна.
Проблема называется «черный ящик искусственного интеллекта» — ее суть в том, что мотивация и логика принятия машиной того или иного решения непонятна даже самим разработчикам. И как решили эксперты, пока эта проблема не решена, системы ИИ становятся все опасней.Существует масса областей – от диагностики рака до финансового анализа, от самоуправляемых авто до пуска боевых ракет — где вырабатываемые компьютерами решения могут оказаться незаконными и нанести серьезный вред.
Проблема «черного ящика» — не единственная проблема ИИ, обсуждаемая экспертным сообществом: есть еще, например, узкая специализация, однозадачность. Но официально, на государственном уровне претензии выдвинуты и обоснованы впервые – и они касаются именно непрозрачности в работе искусственного интеллекта. А это значит, что высказано недоверие в адрес его разработчиков!
Давно и подробно пишущий на эту тему уважаемый неутомимый Сергей Карелов https://www.facebook.com/sergey.karelov.5?__tn__=%2CdC-R-R&eid=ARCsFgSRXIq7LowvYRhLhsqbLrrgXumIgrNVoTMW3i_2go1kWp3i0OWw2zV1Aoh0MiH6fAGudXQfSvK0&hc_ref=ARSn2DxkjPYe_q3S5TJ2rHvKtCw26CERy8xUJcPfwvrntA1fV_4Dg9EO_e5gcra8XSA&fref=nf
Он надеется, что лидеры отрасли, ведущие разработчики сумеют «сделать стенки черного ящика прозрачными» и снимут все вопросы у потребителей/заказчиков. Такой спасительный и прорывной проект действительно существует, он создан учеными DARPA более двух лет назад, называется «Объяснимый ИИ» (Explainable Artificial Intelligence (XAI). Но вот беда: за два года никто так ничего и не объяснил! Ну что поделать: не шмогла!
Пришлось маркетологам, пиарщикам и журналистам опять ставить на стол бутылку водки и креативить новый имидж и новые подвиги искусственного интеллекта. И они действительно придумали нечто новое – точнее, в соответствии со своей профессией они придумали новые слова. Придумали не новый ИИ, объясняющий (а для этого надо понимать!) то, что он делает, а слова, описывающие по-новому те же старые дела и возможности.
Фактически было заявлено следующее: то, что работает внутри «черного ящика», необъяснимо в принципе! Вы не знаете, и мы не знаем, как работает нейронная сеть глубокого обучения – но ведь никто не знает и того, как работает мозг человека!
Согласно новой концепции слова создателя сверточных сетей Яна Лекуна о «сканировании всего изображения и маркирования каждого пикселя» легко и красиво преобразились в «интуицию» и «прогностические модели мира» https://hightech.fm/2018/07/02/lekun?fbclid=IwAR1Tl6LeARw8KzCeioovDMx3uPDVSqJMKuMtr32TI4DmcUaGdJAaJC1GPiM
А Ольга Ускова, один из основателей Cognitive Technologies, развивая тезисы Лекуна, придумала новый термин — «искусственная интуиция». https://snob.ru/entry/166778
Цитата: «наша команда Cognitive Pilot стала одной из первых, которая продемонстрировала Искусственный Мозг для беспилотного автомобиля, работающий уже на уровне человека, при этом на существующей элементной базе. Мы ввели понятие ИСКУССТВЕННАЯ ИНТУИЦИЯ…»
То есть не СОЗДАЛИ искусственную интуицию, а ВВЕЛИ ПОНЯТИЕ, что конечно, сделать значительно легче. Если собака Павлова начинает истекать слюной, когда загорится лампочка, то легко можно сказать, что она предвидит кормление, что условный рефлекс – это и есть интуиция. А если смоделировать собачий условный рефлекс на компьютере, тогда получается «искусственная интуиция»! Но как понять пассаж про то, что «Искусственный Мозг работает уже на уровне человека»? Человеку предлагается слепо довериться «искусственной интуиции» беспилотного автомобиля, жить в «прогностической модели мира» собаки Павлова?
Получается не взрослый, а какой-то детский разговор по уровню ответственности. По большому счету эта маркетинговая находка про интуицию не дает ответа ни на один вопрос из тех пяти, что задали разработчикам ученые DARPA. Если в вопросы подставить слово «интуиция», ничего не изменится. Почему интуиция подсказала машине именно такое решение? Как понять, когда интуиция сработала правильно, а когда ошиблась? Как исправить ошибку и где гарантия, что машина опять не ошибется?
Можно понять беспокойство отечественных разработчиков: ограничения на использование ИИ в США усиливаются как раз в то время, когда в России объявлен старт всеобщей цифровизации, на что государство выделяет триллионы рублей!
При этом помимо того, что не появилось серьезных ответов на старые вопросы, возникают новые.
Интуиция работает при недостатке информации, на минимальной базе данных — в этом ее смысл и ценовое преимущество (в смысле используемых вычислительных мощностей — на этот бонус и намекается, когда говорится, что чудесный прорыв совершен «на существующей элементной базе»).
Допустим чисто гипотетически, что «искусственная интуиция» — это не просто загадочные слова и загадочное лицо старого фокусника, за которыми он скрывает примитивную простоту старого фокуса. Это же фокус, дети, а фокусы не объясняют!
Предположим, что чудо свершилось и действительно удалось создать алгоритм интуиции! Но в этом случае кому нужны будут все эти бигдаты, мега-колоссальные объемы информации, на хранение которых АйТи-гиганты тратят миллиарды? Человеку они не нужны, он с ними давно уже не справляется, не успевает обрабатывать — именно поэтому тратит столько сил и финансов на создание эффективного помощника в лице ИИ. А если все растущие объемы информации не нужны и машине, если она научилась как человек обходиться интуицией – то кому и для чего нужны все эти терракотовые полчища серверов, столпотворения терабайтов, облачные хранилища?!
Можно, конечно, придумать новые слова и для ответа на этот вопрос – надо только предварительно сбегать за бутылкой водки. Но гораздо интересней все же раскрыть тайну «черного ящика» — что там скрывается в его нутре, как эта машинка работает? Это неизбежно предстоит и очень скоро…
P.S. А может быть «искусственная интуиция» — это просто шутка из цикла «ученые шутят» или «программисты шутят»?
Искусственная интуиция потому искусственная, что «предвидит» то, что всем очевидно!
Искусственный интеллект «Очевидность» имитировал вчера интуицию слишком уж искусственно!
http://rosmanifest.info/?page_id=890&fbclid=IwAR1E4zjNu9NeifQHUpGjrBYnr5tjHdLS6U0HTKd82uSFww97tt2WZZTDYdk
Искусственная Интуиция artificial intuition