[userpic]

Re: От трети до половины с декодером и/или буквализмом 

metanymous в посте Metapractice (оригинал в ЖЖ)

Ну то есть от 30 до 60 процентов проанализированных стихов содержали либо декодер, либо буквализм (либо утилизацию обоих феноменов).
Мы уже договорились, что декодер, буквализм и языкоиды полезно рассмотреть в объединении.
Эмерджентность такого объединения будет более мощная, нежели эффекты одних языкоидов.
Ну ещё есть мысль, что т.к. при языкоидном анализе: — отдельные "кусочки" смыслов иногда получаются довольно короткими (слова между двумя невербальными маркерами)
Ну, это старая сложная/ простая тема: как работает маркер. Так что, действие невербального маркера может распространяться только на одно слово.
— отдельные "кусочки" смыслов лишены контекста (потому что контекст задаёт развёртывание языкоидов в отдельности, для чего надо знать некий "объективный" смысл отдельно взятых кусочков)
Ну, вместо двух контекстов, которые ты предлагаешь анализировать, мы делаем проще. Мы по ходу работы с языкоидом начинаем создавать/ суммировать единственный контекст. Его создаёт накопленная сумма указанных «кусочков» смыслов.
...то присвоить/назначить этим коротеньким кусочкам текста/речи некий смысл без привлечения буквализма попросту невозможно!
Ну, например, берём языкоид, который мы недавно разбирали, построенный на личных местоимениях. Из песни Толкуновой.
Вот интересно, имеет местоимение «я», местоимение «ты» - «мы» и т.д. какие-то смысловые контексты? Разве, нужно привлекать буквализм для анализа таких языкоидов?
«Я» - один «я». «Ты» - один «ты». «Мы» - «я» + «ты». И т.п.
Иначе говоря, языкоиды, кроме всего прочего, содержат в себе навык генерировать отдельные короткие реплики, являющиеся "вещью в себе" (а языкоидные тексты состоят из таких кусочков).
Языкоиды есть процесс/ механизм для объединения смыслов.

4 комментария

сначала старые сначала новые