Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 5481 - 5490 из 30957
http://metapractice.livejournal.com/444566.html
Проблема. Нет/сильно ограничена выдача поисковиком яндекса ссылок поиска по нашему блогу.
Robots.txt
https://webmaster.yandex.ru/robots.xml#results
User-Agent: Yandex
Disallow: /*.html*style=mine
Disallow: /*.html*mode=reply
Disallow: /*.html*replyto
Disallow: /data/foaf/
Disallow: /tag/
Disallow: /friendstimes
Disallow: /calendar
Disallow: /1999/
Disallow: /2000/
Disallow: /2001/
Disallow: /2002/
Disallow: /2003/
Disallow: /2004/
Disallow: /2005/
Disallow: /2006/
Disallow: /2007/
Disallow: /2008/
Disallow: /2009/
Disallow: /2010/
Disallow: /2011/
Disallow: /2012/
Disallow: /2013/
Disallow: /2014/
Disallow: /2015/
Host: metapractice.livejournal.com
User-Agent: GoogleBot
Disallow: /*.html*mode=reply
Disallow: /*.html*replyto
Disallow: /data/foaf/
Disallow: /tag/
Disallow: /friendstimes
Disallow: /calendar
Disallow: /1999/
Disallow: /2000/
Disallow: /2001/
Disallow: /2002/
Disallow: /2003/
Disallow: /2004/
Disallow: /2005/
Disallow: /2006/
Disallow: /2007/
Disallow: /2008/
Disallow: /2009/
Disallow: /2010/
Disallow: /2011/
Disallow: /2012/
Disallow: /2013/
Disallow: /2014/
Disallow: /2015/
User-Agent: TwitterBot
Disallow:
User-Agent: *
Disallow: /*.html*mode=reply
Disallow: /*.html*replyto
Disallow: /data/foaf/
Disallow: /tag/
Disallow: /friendstimes
Disallow: /calendar
Disallow: /1999/
Disallow: /2000/
Disallow: /2001/
Disallow: /2002/
Disallow: /2003/
Disallow: /2004/
Disallow: /2005/
Disallow: /2006/
Disallow: /2007/
Disallow: /2008/
Disallow: /2009/
Disallow: /2010/
Disallow: /2011/
Disallow: /2012/
Disallow: /2013/
Disallow: /2014/
Disallow: /2015/
форма содержание
https://www.google.ru/search?as_q=%D1%84%D0%BE%D1%80%D0%BC%D0%B0+%D1%81%D0%BE%D0%B4%D0%B5%D1%80%D0%B6%D0%B0%D0%BD%D0%B8%D0%B5&as_epq=&as_oq=&as_eq=&as_nlo=&as_nhi=&lr=&cr=&as_qdr=all&as_sitesearch=http%3A%2F%2Fmetapractice.livejournal.com%2F&as_occt=any&safe=images&as_filetype=&as_rights=
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Вот суки.
Простите меня за резкость.
А как прикрутить расширенный гуугловский поиск прямо на наш сайт?
А кстати, вполне ищется:
моделирование site:http://metapractice.livejournal.com/
https://www.google.ru/search?as_q=%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5&as_epq=&as_oq=&as_eq=&as_nlo=&as_nhi=&lr=&cr=&as_qdr=all&as_sitesearch=http%3A%2F%2Fmetapractice.livejournal.com%2F&as_occt=any&safe=images&as_filetype=&as_rights=
Тогда вопрос другой. Можно ли прикрутить эту поисковую форму прямо на наш журнал?


Только сейчас добрался до ФБ. Vitali Dunin, вы задали вопрос. Каким образом НС переводит текст с одного на другой язык, без классической семантики? Отличный вопрос. Где тут семантика? Чтобы ответить на него, я сделаю аналогию с другим вопросом - как найти и ухватить связь между формой и содержанием?


Существуют лингвистические модели, которые упаковывают «семантику» в лексические отношения.


 В том смысле, что у любого содержания есть какая-то форма. Вопрос - какова связь? Диалектика считает, что они жестко связаны. Теория передачи информации базируется на том, что для заданного содержания можно найти ту самую форму (одну из многих), которая лучше всего подходит для передачи в канале связи, где есть шум. Уже здесь мы видим, что диалектика отстает от реальности: жесткой связи нет, есть отдельно форма, есть содержание, есть операция кодирования (определения новой формы).


С точки зрения моделирования ЧА тезис о существовании «свободных от содержания» форм весьма сомнителен.


 Моделируем форму_содержание
http://metapractice.livejournal.com/274355.html


 Вопрос - что связывает форму и содержание? Ответ - операция кодирования. Вопрос - где там семантика? Ответ - в соблюдении тех закономерностей, благодаря которым разные формы несут одно и то же содержание. Теперь вернемся к переводу с одного языка на другой при помощи НС. Это операция перекодирования. В том смысле, что вербальный язык - это сложный код.


Т.е. «форма» это нечто вроде аллегорического мешка, в который может быть запрятан любой кот или даже шило.

Научное исследование. Нейронауки: существует ли свобода воли у человека?
http://www.kabmir.org/real/2685-science-free-will-exists.html
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Анатолий Левенчук Практически оффтоп, но не совсем оффтом (учитывая существование нейропсихологов): я всегда открыто придерживался находок NLP (нейролингвистического программирования в исполнении Гриндера и Бэндлера при поддержке Грегори Бейтсона) -- как это направление психопрактик бы ни ругалось всеми остальными патентованными (часто буквально) психологами. Ибо там всё настоящее, и совсем не дураки его делали. Одно из типовых ругательств: "это плохая психология, ибо бихевиоризм". На меня это ругательство действовало всегда ободряюще: бихевиоризм совсем не прост и совсем незаслуженно подзаброшен.
Вы своим комментарием про принцип Павлова "всё -- на условных рефлексах" в связи с нейронными алгоритмами работы мозга подсказали интересную мысль: если сегодня тексты книжек по НЛП (которое нейролингвистическое программирование) читать после чтения нейросетевой литературы, то там типовые фразы "как вы научили свой мозг так восхитительно ошибаться" будут совсем по-другому читаться, вполне "научно" а не метафорично! Надо бы в комьюнити openmeta в ЖЖ написать об этом, повеселить там людей. )))
https://www.facebook.com/groups/1602081160032874/permalink/1626835187557471/?comment_id=1631338243773832&offset=0&total_comments=201&comment_tracking=%7B%22tn%22%3A%22R0%22%7D
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Vitali Dunin
Vitali Dunin Не идею, а работу ACTL. Оттуда есть также следствия для "машинного обучения", идущие из физиологических знаний. Мы их будем развивать в виде так сказать, DL++ Ну, а в целом, всё теперь замечательно... Спасибо за ссылку на саму статью. Ято-то я поленился...
Анатолий Левенчук
Анатолий Левенчук Чтобы лучше понимать, какие архитектурные развилки в этих "обучениях" (почему инженеры могут выбирать другие решения глубогих нейронных архитектур, нежели были выбраны эволюцией в мозге), я бы ещё рекомендовал статью посмотреть http://leon.bottou.org/publications/pdf/mloptbook-2011.pdf -- это ещё 2008 год. Суть: если оптимизируется на нехватку данных, то там одни алгоритмы "оптимальны", а если оптимизируется на нехватку времени обучения, то там совсем другие решения выходят в фавор (ибо некоторые алгоритмы сходятся долго, зато точно. А другие быстро, но с большой ошибкой -- и если у вас ограниченное время, то точный алгоритм может выдать бОльшую ошибку, чем заведомо неточный!).
Понимание всех этих особенностей и различает нейрофизиологию от инженерии нейронных сетей: в эволюцию вмешиваться можно только ограниченно, а вот с нуля строить можно совсем другую машинку -- вот, калькулятор проще устроен, но считает быстрее мозга, это мы должны брать за образец и для других функций.
Den Tulinov
Den Tulinov Не могу не заметить, что Back Propagation в естественных нервных системах вполне себе существует, хотя физиологи и не определились, зачем это нужно. А насчет «твердо установлено» – в биологии вообще редко какое отрицание можно установить твердо: у попу...Еще
Backpropagating action potentials in neurones: measurement, mechanisms...
sciencedirect.com
http://www.sciencedirect.com/science/article/pii/S0079610704000653
https://www.facebook.com/groups/1602081160032874/permalink/1626835187557471/?comment_id=1631325997108390&offset=0&total_comments=201&comment_tracking=%7B%22tn%22%3A%22R6%22%7D
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Анатолий Левенчук Чтобы до кучи ссылка была на LCTA, ноябрь 2014 -- http://arxiv.org/abs/1411.0247 (Random feedback weights support learning in deep neural networks -- Timothy P. Lillicrap, Daniel Cownden, Douglas B. Tweed, Colin J. Akerman)
The brain processes information through many layers of neurons. This deep architecture is representationally powerful, but it complicates learning by making it hard to identify the responsible neurons when a mistake is made. In machine learning, the backpropagation algorithm assigns blame to a neuron by computing exactly how it contributed to an error. To do this, it multiplies error signals by matrices consisting of all the synaptic weights on the neuron's axon and farther downstream. This operation requires a precisely choreographed transport of synaptic weight information, which is thought to be impossible in the brain. Here we present a surprisingly simple algorithm for deep learning, which assigns blame by multiplying error signals by random synaptic weights. We show that a network can learn to extract useful information from signals sent through these random feedback connections. In essence, the network learns to learn. We demonstrate that this new mechanism performs as quickly and accurately as backpropagation on a variety of problems and describe the principles which underlie its function. Our demonstration provides a plausible basis for how a neuron can be adapted using error signals generated at distal locations in the brain, and thus dispels long-held assumptions about the algorithmic constraints on learning in neural circuits.
[1411.0247] Random feedback weights support learning in deep neural networks
arxiv.org
http://arxiv.org/abs/1411.0247
https://www.facebook.com/groups/1602081160032874/permalink/1626835187557471/?comment_id=1631311117109878&offset=0&total_comments=201&comment_tracking=%7B%22tn%22%3A%22R9%22%7D
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Анатолий Левенчук Да, прочёл. Мы эту идею, что можно сетки учить без backpropagation обсуждали ещё на хакатоне, нет? И я полностью признаю, что это существенный прорыв для исследователей мозга: от размахивания руками можно переходить к какому-то моделируемому мостику от низших физических уровней организации к высшим функциональным. Многие "загадки" становятся хоть как-то понятными, и спасибо за это толчку от DL-тусовки.
Мой краткий ответ: это отлично для нейрофизиологов, но сеткообучальщики отчаливают куда-то в другом направлении -- потому как эти другие направления оптимизируются по-другому (скажем, можно на чипе сделать 15тыс. умножителей, не вопрос, как это демонстрируется на современных FPGA-чипах -- см. http://ailev.livejournal.com/1207933.html).
Перспективная вычислительная инфраструктура для машинного...
ailev.livejournal.com
http://ailev.livejournal.com/1207933.html
https://www.facebook.com/groups/1602081160032874/permalink/1626835187557471/?comment_id=1631310680443255&offset=0&total_comments=201&comment_tracking=%7B%22tn%22%3A%22R9%22%7D

Дочитали до конца.