--Скорее так: если что-то "продавать" (в кавычках – имею в виду в большее широком смысле "привлекать внимание публики" – но и в прямом прочтении тоже), то придётся продавать некую "железяку" (ну или хотя бы "программу").--Ну да. Дикари мумба-юмба любят стеклянные бусы. И трубы от граммофона.Ну, в твоих словах звучит, кажется, какая-то обида на "туземцев" :)–Потому что деньги, вбухиваемые в пиар сверхтехнических фантастических штук типа ИИ, "Биг Даты" и т.д. делают людей/обывателей не чувствительными к "не техничным" штукам, типа, скажем, "техник коммуникации".–Это да. Ещё как.–Поэтому вскоре настанет и уже настаёт время, когда продавать чисто "техники коммуникации" будет не возможно.–Кажется, оно настало.Даже Бандлер ведь со своим DHE очень остроумно придумал, как не только утилизировать популярность технических штук (по сути тема "киборгов"), но и извлечь из этих "технических" штук пользу для "человеческих". Типа конвертировать опыт работы с железяками в опыт работы с себе- и тебе-коммуникацией по выгодному курсу.Ну, например, айфон с наценкой, нашпигованный коммуникативным софтом.Ну а что, я б купил! :) Шестишаговый рефрейминг в Апп Сторе :) А то сейчас на эту тему только шарлатанские поделки типа "что хочет ваш плачущий младенец" или ещё что вроде того. И ведь пользуются же популярностью!Или в интерфейс типа глаз/зрения терминатора, который ищет и указывает типа коммуникативные "цели". И при наличии интереса к той или иной "вещи", даёт ее дальнейшую расшифровку. Изображение захватывается с внешней камеры. И думать клиенту совсем не надо. При этом, эффект тренированности/метанойи вполне ожидаем и в таком виде сервиса.Ну, это мега-стартап. Это уже не "каша из топора". Нет никаких фундаментальных научных барьеров прямо сейчас сделать очки, которые бы показывали, например, пульс и частоту дыхания собеседника. Но, таких устройств нет. Я думаю, спрос на них, по всяким полицейским и военным линиям, более чем достаточный. Так что отсутствие работающих прототипов (не считая всяких не очень точных алгоритмов, которые работают только будучи точно и прямо направленными на зафиксированного человека) показывает, что задача очень сложна в инженерном плане. А раз кучи организаций с кучей денег не могут решить эту задачу, мне представляется бесперспективно её решать типа стартапом. У нас же нет каких-то наработок в области распознавания изображений.Яндекс поиск по блогам фильтрует. Мы с метапрактиком попали в этот фильтр практически сразу. Кажется, благодаря известному Кукутцсу. А может ещё кому такому хрен бы их кто считал/разбирался. Типа, носители честной конкуренции.Хм, я вот здесь читаю комментарии из Метапрактика без пропусков:https://blogs.yandex.ru/search.xml?journal=metapractice&ft=commentsА что конкретно блокируется? За личные блоги не скажу. Впрочем, поиск по блогам довольно глючный.Но, дело в другом. Ежели, яндекс фильтрует, хотя бы, в одном месте, то в его общей выдаче "сигнал" цивилизаций-3 становится менее четким. Типа разбитой голограммы.Угу, я так и понял. Ну, а где ещё можно снимать типа общественное мнение по неким конкретным вопросам?Ну, и если спуститься на землю, то нам бы получить такой "запаковыватель", который бы просто:---превращал звучащую речь в текст--а полученный текст синхронизировал с различными визуальными, аудиальными и прочими распознавалками.Это очень сложная задача. Это задача на острие прогресса, которую не очень успешно пытаются решить кучи организаций с кучей денег. Например, распознавание номеров с автоматических камер, для выписывания штрафов за превышение, делается в итоге людьми. Потому что точность полностью автоматических алгоритмов никакая. Так что с такой общей постановкой задачи делать нечего.Давеча со vseslavrus обсуждали в очередной раз идею примитивного ассистирующего моделированию софта, который можно разработать с не очень большими ресурсами (хотя всё равно задача весьма масштабная, при кажущейся простоте и ограниченности функций). Типа такого специфического текстового редактора. Пусть вся разметка и всё распознавание делается целиком вручную – если софт будет помогать хотя бы группировать/систематизировать разные "слои" разметок – это уже кратно ускорит процесс моделирования.
--Скорее так: если что-то "продавать" (в кавычках – имею в виду в большее широком смысле "привлекать внимание публики" – но и в прямом прочтении тоже), то придётся продавать некую "железяку" (ну или хотя бы "программу").--Ну да. Дикари мумба-юмба любят стеклянные бусы. И трубы от граммофона.--Ну, в твоих словах звучит, кажется, какая-то обида на "туземцев" :)Ну, на туземцев не обижаются. Их либо миссионируют, либо презирают, либо обучают. :)–Потому что деньги, вбухиваемые в пиар сверх-технических фантастических штук типа ИИ, "Биг Даты" и т.д. делают людей/обывателей не чувствительными к "не техничным" штукам, типа, скажем, "техник коммуникации".–Это да. Ещё как. ...--Даже Бандлер ведь со своим DHE очень остроумно придумал, как не только утилизировать популярность технических штук (по сути тема "киборгов"), но и извлечь из этих "технических" штук пользу для "человеческих". Типа конвертировать опыт работы с железяками в опыт работы с себе- и тебе-коммуникацией по выгодному курсу.Да, точно, ДХЕ полностью на эту тему.--Ну, например, айфон с наценкой, нашпигованный коммуникативным софтом.--Ну а что, я б купил! :) Шестишаговый рефрейминг в Апп Сторе :) А то сейчас на эту тему только шарлатанские поделки типа "что хочет ваш плачущий младенец" или ещё что вроде того. И ведь пользуются же популярностью!На днях стал смотреть с клиентом ролики на ютубе на тему кгд. Он смотрел, я комментировал. Там много свежих роликов. Не нашли ни одного, на который можно было бы в обучении ориентироваться на 100%.--Или в интерфейс типа глаз/зрения терминатора, который ищет и указывает типа коммуникативные "цели". И при наличии интереса к той или иной "вещи", даёт ее дальнейшую расшифровку. Изображение захватывается с внешней камеры. И думать клиенту совсем не надо. При этом, эффект тренированности/метанойи вполне ожидаем и в таком виде сервиса.--Ну, это мега-стартап. Это уже не "каша из топора".Да, всё это именно каша из топора. Это только захват контуров макродвижений для отзеркаливания. Разметка КГД и лево -правой экспрессии. И т.п.
Нет никаких фундаментальных научных барьеров прямо сейчас сделать очки, которые бы показывали, например, пульс и частоту дыхания собеседника.Да, не надо очки. Достаточно монитора на айфоне.Но, таких устройств нет. Я думаю, спрос на них, по всяким полицейским и военным линиям, более чем достаточный.Да ты сам положи в метапрактик ссылки на открытый код, который выделяет пульсирования тела/сердца.Так что отсутствие работающих прототипов (не считая всяких не очень точных алгоритмов, которые работают только будучи точно и прямо направленными на зафиксированного человека) показывает, что задача очень сложна в инженерном плане.Ну, м.б.А раз кучи организаций с кучей денег не могут решить эту задачу, мне представляется бесперспективно её решать типа стартапом. У нас же нет каких-то наработок в области распознавания изображений.Нам не нужно распознавание изображений.Но, если бы нам потребовалось такое распознавание, то мы бы выделили разделяющие паттерны и все дела. Это типа кошачье-собачьего теста. Это каждый раз задача типа "поиска недостающего звена". Недостающее звено в данном случае есть (напротив ранее сказанному) именно связующее звено. Ничтожные изменения паттерна связующего звена переводят изображение1 в изображение2.
--Яндекс поиск по блогам фильтрует. Мы с метапрактиком попали в этот фильтр практически сразу. Кажется, благодаря известному Кукутцсу. А может ещё кому такому хрен бы их кто считал/разбирался. Типа, носители честной конкуренции.--Хм, я вот здесь читаю комментарии из Метапрактика без пропусков:https://blogs.yandex.ru/search.xml?journal=metapractice&ft=commentsА ты найди эти комментарии в общем поисковом потоке яндекса. Т.е. мы в этом блоге типа "титаника в бутылке".А что конкретно блокируется? За личные блоги не скажу. Впрочем, поиск по блогам довольно глючный.То что ты называешь глючным, то есть система создания пробелов в информации.--Но, дело в другом. Ежели, яндекс фильтрует, хотя бы, в одном месте, то в его общей выдаче "сигнал" цивилизаций-3 становится менее четким. Типа разбитой голограммы.--Угу, я так и понял. Ну, а где ещё можно снимать типа общественное мнение по неким конкретным вопросам?А где?
--Ну, и если спуститься на землю, то нам бы получить такой "запаковыватель", который бы просто: --превращал звучащую речь в текст -а полученный текст синхронизировал с различными визуальными, аудиальными и прочими распознавалками.--Это очень сложная задача. Это задача на острие прогресса, которую не очень успешно пытаются решить кучи организаций с кучей денег. Например, распознавание номеров с автоматических камер, для выписывания штрафов за превышение, делается в итоге людьми. Потому что точность полностью автоматических алгоритмов никакая. Так что с такой общей постановкой задачи делать нечего.Ничего не понял. Автоперевод есть? А всего-то надо добавить синхронизацию полученного текста с видео/звуковым потоком. Даже в пауэрпойнте есть такое приложение.Давеча со vseslavrus обсуждали в очередной раз идею примитивного ассистирующего моделированию софта, который можно разработать с не очень большими ресурсами (хотя всё равно задача весьма масштабная, при кажущейся простоте и ограниченности функций). Типа такого специфического текстового редактора. Пусть вся разметка и всё распознавание делается целиком вручную – если софт будет помогать хотя бы группировать/систематизировать разные "слои" разметок – это уже кратно ускорит процесс моделирования.Был у нас такой участник типа Бобровский (?) Он такие вещи на раз решал. И даже показывал мне заготовки желаемого вами интерфейса/приложения.Да потом, как-то неудачно прихватил идею интонационных языкоидов - не взял самую обязательную сердцевину. В итоге, разработанный им коммерческий софт не пошел. А он на нас за что-то типа обиделся.
Ничего не понял. Автоперевод есть?Нет такого. Точнее, слово такое есть. Иногда оно используется в каких-то прогах. Но самого явления/технологии нет.А всего-то надо добавить синхронизацию полученного текста с видео/звуковым потоком. Даже в пауэрпойнте есть такое приложение.Хм, а где конкретно это в повер-поинте?Был у нас такой участник типа Бобровский (?) Он такие вещи на раз решал. И даже показывал мне заготовки желаемого вами интерфейса/приложения. Я помню, разбирали такое.Да потом, как-то неудачно прихватил идею интонационных языкоидов - не взял самую обязательную сердцевину. В итоге, разработанный им коммерческий софт не пошел. А он на нас за что-то типа обиделся. А в чём самая обязательная сердцевина? Иметь общий план?
--А всего-то надо добавить синхронизацию полученного текста с видео/звуковым потоком. Даже в пауэрпойнте есть такое приложение.--Хм, а где конкретно это в повер-поинте?Я случайно это увидел в учебной ютубовской флешке. Напиши там нужный поисковый запрос про использование п.п. и увидишь. Если нет времени - я поищу ссылку. Я видел, но уже забыл где.--Да потом, как-то неудачно прихватил идею интонационных языкоидов - не взял самую обязательную сердцевину. В итоге, разработанный им коммерческий софт не пошел. А он на нас за что-то типа обиделся.--А в чём самая обязательная сердцевина? Иметь общий план?Да я же указал выше - совмещение визуализации звучания с текстом.
Да я же указал выше - совмещение визуализации звучания с текстом.А, понял. То есть типа редактора субтитров, с возможностью дополнительно на субтитры накладывать интонационные линии.