Онтологическая разминка для метаэкстрима и представление Алисы и Бобаm - Если так - хорошо - это будет основным условием неограниченности развития кода. И тогда становиться крайне важно выбрать правильное начало, центр.a - Условием неограниченности развития кода служит следование хорошей модели нашего "длинного моделирования". Я предложил бы брать в качестве такой моделиThe Accretion Model of Theory Formation (Douglas Lenat):----------------------------------------------------------------------------------------БейтсонСравнить бы с Бейтсоном1. Given some new (not fully explored) definitions, objects, operations, rules, etc.,immediately gather empirical data about them: find examples of them, try to apply them,etc.2. As this progresses, try to notice regularities, patterns, and exceptions to patterns,in the data.3. From these observations, form new hypotheses and modify old ones. In a world overwhich you have some control, design and carry out experiments to test these hypotheses.4. As a body of conjectures develops, economize by making new definitions that shortenthe statement of the most useful conjectures. The entire cyclic process now typically begins anew at step 1,given these new definitions as grist.5. As the above loop (steps 1-4) proceeds, it will become necessary from time to timeto abstract some new specific heuristics, by compiling the learner's hindsight.6. On even more rare occasions, it will become necessary to augment or shift therepresentation in which the domain knowledge is encoded.7. For all steps in this model, even steps 5, 6, and 7, it suffices to collect and use abody of heuristics, informal judgmental rules which guide the explorer toward the mostplausible alternatives and away from the most implausible ones.---------------------------------------------------------------------------------------для комп программированияУтверждается что это универсальное. А для человеков как знать что подходит?Вот пример.Заряжаем в Ленатовский алгоритм проблему теста Тьюринга для чат-ботов.И он начинает перерабатывать - "понимание", "смысл" и т.п. В общем без искусственного интеллекта не обойтись.Между тем, если провести Бейтсоновский анализ - металог, то легко выйти на паттерн "диалоговогопонимания" - ДП.А ДП является ПРОЕКТИВНЫМ пониманием! Не демонстрацией чат-ботом способности к пониманию, а вызыванием у человека субъективного переживания, что его понимают, являющегося проекцией понимания СЕБЯ самого самим СОБОЙ!А для реализации ДП достаточно ментальной лексической базы, морфологического (лингвистического) анализа, скромного синтаксического, базы разговорных шаблонов.Чуть посложнее вариант - информационная фитбэк с вторичными языками.И Ленатовский алгоритм на второй стадии, конечно.
ailev> Условием неограниченности развития кода служит следование хорошей модели нашего "длинного моделирования". Я предложил бы брать в качестве такой модели The Accretion Model of Theory Formation (Douglas Lenat):metanymous> Сравнить бы с БейтсономСравнивать нужно "что" и "по каким критериям". Поэтому что и по каким критериям сравнить с Бейтсоном?Ежели, например, иметь Лената в проекте в качестве "идейного отца" типа Бейтсона для НЛП (который, замечу, не верил в гипноз ;) -- то это одно (и впоне меня бы устраивало ;) сравнение с Бейтсоном. Ежели сравнивать их модели -- то с какой из многочисленных бейтсоновских моделей сравнивать Ленатовскую TAMoTF и по каким критериям? У Лената TAMoTF тоже не единственная достойная модель. С Контекстами (разрешение неопределенностей контекста -- метамоделированием, замечу) и Микротеориями (у вас это что-то типа "фрактальных онтологий" ;) у него не хуже дело обстоит.metanymous> Утверждается что это [TAMoTF] универсальное. А для человеков как знать что подходит?А чем человек отличается от чего угодно другого?На данном уровне универсальности -- ничем. Ленат описывает онтологический механизм, "мыслительный". Ежели прикладывать этот механизм для "человеческого" моделирования, то можно просто рекомендовать те или иные этапы "проваливать" в подсознание. Например, задаваться вопросом, откуда на первом-втором шагах алгоритма1. Given some new (not fully explored) definitions, objects, operations, rules, etc.,immediately gather empirical data about them: find examples of them, try to apply them,etc.2. As this progresses, try to notice regularities, patterns, and exceptions to patterns,in the data.появляются новые определения, объекты, операции, правила и т.д. и как именно нужно замечать регулярности, паттерны и исключения из паттернов. Вся наша огромная дискуссия сейчас -- это отражение пунктов 1 и 2 в применении к ситуации составления Алисой модели Боба.
metanymous> Вот пример.Заряжаем в Ленатовский алгоритм проблему теста Тьюринга для чат-ботов.И он начинает перерабатывать - "понимание", "смысл" и т.п. В общем без искусственного интеллекта не обойтись."Он" ничего не "перерабатывает". Ежели Алиса (исполнитель TAMoTF) дает начальные термины "понимание", "смысл" и т.д. -- то она их сменит на "диалоговое понимание" на одном из поздних шагов. А ведь Алиса может начать с совсем других начальных определений: "коммуникация", "карта", "территория" и т.д. -- сразу задавая постановку задачи в других терминах. И тогда проход по алгоритму будет другим. Алгоритм -- это алгоритм, garbage in -- garbage out. Но вовсе необязательно загружать его мусором. Другое дело, что алгоритм предусматривает ситуацию, когда начальные определения и паттерны выбраны не слишком удачно: и говорит, что делать дальше. Он итеративный. Это как метод последовательных приближений при вычислении квадратного корня -- хорошо, конечно, выбирать начальное значение поближе к (еще неизвестному) конечному, но сойдет и любое другое, результат будет чуть попозже -- но будет обязательно.metanymous> Между тем, если провести Бейтсоновский анализ - металог, то легко выйти на паттерн "диалогового понимания" - ДП.А ДП является ПРОЕКТИВНЫМ пониманием! Не демонстрацией чат-ботом способности к пониманию, а вызыванием у человека субъективного переживания, что его понимают, являющегося проекцией понимания СЕБЯ самого самим СОБОЙ!А для реализации ДП достаточно ментальной лексической базы, морфологического (лингвистического) анализа, скромного синтаксического, базы разговорных шаблонов.Чуть посложнее вариант - информационная фитбэк с вторичными языками.И Ленатовский алгоритм на второй стадии, конечно.1) Это опять же -- ежели Алиса проводит бейтсоновский анализ и выходит на паттерн "диалогового понимания". Попробуйте поручить этот проход Бобу и затем удивляйтесь, к какому "паттерну понимания" приведет бейтсоновский анализ Боба -- Алисе такой паттерн и в голову может не прийти. Плохой проход всегда можно сделать и по хорошему алгоритму ;)2) Ленатовский алгоритм универсален -- он работает и с алгоритмами тоже. Вся бейтсоновская модель может в нем рассматриваться, например, как итог первого шага. Переходим ко второму шагу -- и начинаем предложенное вами действие по бейтсоновскому анализу, то есть пытаемся выполнить бейтсоновский алгоритм на пример тьюрингового чат-бота ;) Главное, что по Ленату мы этим примером не должны ограничиваться, и будет понятно, что делать дальше.Мне Ленатовский подход нравится тем, что он центрируется на выразимости (онтологичности) получаемых теорий. Он начинается, пронизан и заканчивается "определениями" и репрезентацией мира в терминах этих "определений". И он явным образом включает себя (рекурсивен). То есть подразумевает изменение эвристик по его собственному исполнению.