[userpic]

Re: Модель1 МетаИмератив 

metanymous в посте Openmeta (оригинал в ЖЖ)

--Объем основного текста не должен превышать (примерно) 40к-знаков
---Почему? Если больше -- субстрат не связывает фразы в один субтекст?

Просто, нет гарантии прочитывания текста в один проход.
Правильно, я понимаю, что у нас получилась модель (Не)Аналогового маркирования,
(Не)Аналогового маркирования -- ? Не понял.
маркер - слово "Actually" вначале фразы + сам выбор слова усиливает гипнотичность, поскольку слово является пресуппозицией?
В общем, - да.
Но ты еще не учитываешь эффект структуры:
--за счет характерной последовательности убывания числа фраз в ряду/периоде.
--смысловой структуры субтекста
И то и другое формирует своеобразные установки "ожидания", которые в гораздо большей мере усиливают "гипнотический" эффект. Где-то, примерно, с год назад мы это называли Загрузчиком. Я тогда утверждал, что в текстах есть Загрузчик информации. Вот это его одна микрокомпонента. Далее, -- только в этом холоне моделей только от одного вводного слова по таблице извлеченных данных видно еще три-четыре четкие модели. А сколько всего еще в тексте вводных слов? А сколько еще всего другого? И большинство этого исчезает в равной мере:
--и при литературном переводе
--и при академическом переводе
--и при безграмотном.
Этот анализ доказывает:
--отцеположники знают то, что мы называем языкоидами
--по крайней мере, три базовые книги содержать архинасыщенную структуру текстовых языкоидов
--описать/формализовать ее является не простой, но вполне выполнимой задачей -- вот за языкоидом-Actually я охотился уже долгое время, но все не получалось сделать некоторые предварительные "настройки" текста и собственного внимания, и модель не давалась, а она является ключом/образцом к текстовым языкоидам с отдельными словами (и более объемными лексическими последовательностями) в качестве сигналов. Т.е. слово -- вполне себе вербальный сигнал, но в этом случае его надо рассматривать как паралингвистический, "окололингвистический сигнал". И особенная настройка внимания очень очень важна. Вот я переусердствовал и на уровне первого захода на ДлинныеТексты, -- взял слишком мелкий масштаб, действуя по шаблону, который мы использовали при анализе поэзии -- отслеживали в основном чистые паралингистические сигналы. Но субстрат подспудно работал и тянул тянул в нужную сторону и вытянул. Теперь это только дело техники/времени. Бионикс, опять же, сильно помог, хотя он так, наверное, не считает :) Прежде я вовсю использовал в такой работе загрузку интуиции Инниты. Но она уже давно полностью отвлечена другой работой, а в лингвистическом моделировании работать в черновом проходе в одиночку -- это как лишиться дополнительного жесткого диска на компе :) Но вот Бионикс теперь помогает :)

33 комментария

сначала старые сначала новые