[userpic]

Пятнышки>отрезки>ориентация отрезков>заслоняющий 

metanymous в посте Openmeta (оригинал в ЖЖ)

тут небольшая путаница. Попробую прояснить:
SIRDS - Single Image Random Dot Stereograms - были изобретены в процессе исследования стереозрения.
А конкретно, есть такая вычислительная задача - каким чудом мозг из набора данных о положении, ориентации и фокусировки обоих глаз И двух плоских наборов цветов/освещенностей создает объемную модель видимого Мира?
Стоп! Нам интересна вовсе не вычислительная задача вначале, а модельное описание. Не "каким-то чудом" - а выявлением Инвариантов, не "плоских наборов цветов/освещенностей" - а офсеток/фактуры поверхностей, не "объемную модель видимого Мира" - ИнвариантыЗаслоняющихКраев - и уж из этих краев изображения.
Для решения этой задачи необходимо (как кажется алгоритмистам) решить множество подзадач:
выделить сначала точки, затем линии, плоскости, края, объекты итд.

Я называю это ВопрекиМоделированием - то что получается в итоге у них - работает, но это не есть доказательство, что описание Модели правильное.
В том числе - совсем простую: как найти соответствие между этими двумя картинками, т.е. как выделить пары точек в картинке левого и правого глаза, которые являются образами одной и той же точки во внешнем мире.
Это физическая модель. В ней нет уже и следа Гибсоновского подхода.
Вот, и здесь начинаются бАльшие разногласия между теориями восприятия.
Это разногласия не между теориями, а между применителями теорий, в частности, те кто пытается следовать Гибсону весьма неважные моделисты.
Ведь уже выделение ТОЧЕК, а уж тем более ЛИНИЙ и ПЛОСКОСТЕЙ - задача нетривиальная, необходимым образом использующая некие пороговые величины плюс опыт жизни организма, в том числе на генетическом уровне.
Неее, это уже не моделирование, а аналитический коллапс - возобладало аналитически-понятийное описание и все перемешалось.
И вот считалось, что СНАЧАЛА происходит выделение точек, линий, фигур, объектов в плоских картинках, а потом уже происходит matching - идентификация одних и тех же объектов в правой и левой картинке.
...
А потом придумали RDS - Random Dot Stereograms - правому и левому глазу с помощью стереоскопа показывают картинку из СЛУЧАЙНЫХ точек. В ней, кроме ТОЧЕК, ничего глазу не выделить:) А человек все равно видит объемную картинку. То есть matching не нуждается в информации о ЛИНИЯХ.
Еклмн, а вот загляни в нобелевскую работу о Зрительной Системе от сетчатки, до первичной зрительной коры Хьюбел-Визель, кажется, - и все противоречия исчезнут. Именно так и организована иерархия обработки информации в зрительной системе пятна (не точки) > отрезки линий (очень маленькие) > ориентация-перемещение отрезков (это вот как раз уровень на котором синтезируется представление о заслоняющем крае) > изображение
Это было большим ударом, так как совершенно непонятно с точки зрения эволюции, зачем на уровне нервной системы кодировать matching на столь ранней фазе обработки изображения, когда объектов столь много, и практически любые две точки могут принадлежать паре!!?!! А оно, оказывается, запрограммировано!
ну это ударяло аналитиков, которые не заглянули в мотериалы чужой области наук
А уж переход к SIRDS, когда ОБЕ картинки совмещены в ОДНУ, и глаза сами разбираются, кому что видеть - это с точки зрения эволюции и экологической теории ну просто нонсенс. По крайней мере на первый взгляд.
Нет, нам срочно нужно найти работы Гибсона и Хьюбела Визеля в интернете.

2 комментария

сначала старые сначала новые