[userpic]

... 

ailev в посте Openmeta (оригинал в ЖЖ)

ailev> Условием неограниченности развития кода служит следование хорошей модели нашего "длинного моделирования". Я предложил бы брать в качестве такой модели The Accretion Model of Theory Formation (Douglas Lenat):
metanymous> Сравнить бы с Бейтсоном

Сравнивать нужно "что" и "по каким критериям". Поэтому что и по каким критериям сравнить с Бейтсоном?
Ежели, например, иметь Лената в проекте в качестве "идейного отца" типа Бейтсона для НЛП (который, замечу, не верил в гипноз ;) -- то это одно (и впоне меня бы устраивало ;) сравнение с Бейтсоном. Ежели сравнивать их модели -- то с какой из многочисленных бейтсоновских моделей сравнивать Ленатовскую TAMoTF и по каким критериям? У Лената TAMoTF тоже не единственная достойная модель. С Контекстами (разрешение неопределенностей контекста -- метамоделированием, замечу) и Микротеориями (у вас это что-то типа "фрактальных онтологий" ;) у него не хуже дело обстоит.
metanymous> Утверждается что это [TAMoTF] универсальное. А для человеков как знать что подходит?
А чем человек отличается от чего угодно другого?
На данном уровне универсальности -- ничем. Ленат описывает онтологический механизм, "мыслительный". Ежели прикладывать этот механизм для "человеческого" моделирования, то можно просто рекомендовать те или иные этапы "проваливать" в подсознание. Например, задаваться вопросом, откуда на первом-втором шагах алгоритма
1. Given some new (not fully explored) definitions, objects, operations, rules, etc.,
immediately gather empirical data about them: find examples of them, try to apply them,
etc.
2. As this progresses, try to notice regularities, patterns, and exceptions to patterns,
in the data.
появляются новые определения, объекты, операции, правила и т.д. и как именно нужно замечать регулярности, паттерны и исключения из паттернов. Вся наша огромная дискуссия сейчас -- это отражение пунктов 1 и 2 в применении к ситуации составления Алисой модели Боба.