Полное совпадение, включая падежи, без учёта регистра

Искать в:

Можно использовать скобки, & («и»), | («или») и ! («не»). Например, Моделирование & !Гриндер

Где искать
Журналы

Если галочки не стоят — только metapractice

Автор
Показаны записи 4811 - 4820 из 30957
Say to yourself, "If I was already able to...(state your goal)...what would I look like?" (Ad)
Construct a visual image of what you would look like if you were in the act of achieving the full goal you have just stated. You should be seeing yourself in this image from a disassociated point of view as if you were above or next to yourself looking at yourself. (Vc)

Предлагают увидеть себя со стороны, в качестве/со свойствами «быть способным» на нечто, на что ранее вы не были способны.
Дилтс считает, что для этого годится Vc из ключей КГД.
Мы же считаем, что любая форма видения себя со стороны с необычным способностями есть некоторая зрительная ~синестезия между Vc и Vr.
http://metapractice.livejournal.com/460792.html
Еще одна ассоциация связи техник(или усиление). Бендлеровский ГенераторНовогоПоведения это по сути техника импринтирования, потому что в технике ГНП есть:
- ролевое моделирование;
- фиксация убеждением;
- мощная кинестетика.
(сразу скажу, что технику не читал в оригинальном Бендлеровском описании - просто не нашел в сети. Но думаю, что ээээ оригинальное исполнение имеет в наличии этих три обязательных шага. Смешно звучит, но что делать). В Российском сегменте нлп намеков на эти обязательные шаги нет. Кто во что горазд.
офф. Если у метапрактиков есть техника ГенераторНовогоПоведения в описании Бендлера, то прошу - поделитесь, буду благодарен.
http://metapractice.livejournal.com/492280.html?thread=12687608#t12687608



New Behavior Generator Strategy


http://www.nlpu.com/Patterns/patt16.htm


One of the most essential processes of change is that of moving from a dream or vision to action. NLP has developed a kind of 'all purpose' creativity strategy, organized around the process of moving from vision to action, called 'The New Behavior Generator'. The basic steps to the New Behavior Generator were set out by John Grinder in the late 1970's.

The New Behavior Generator is an elegant strategy that can be applied to almost any situation that involves personal flexibility. The basic steps involve forming a visual image of a desired behavior, kinesthetically associating into the image on a feeling level, and verbalizing any missing or needed elements.





New Behavior Generator T.O.T.E.


These three steps form a feedback loop in which vision and action interact through the intermediate processes of emotion and communication.

The goal of the New Behavior Generator is to go through a type of mental 'dress rehearsal' by generating imaginary scenarios and bringing them to concrete actions by connecting the images to the kinesthetic representational system. The strategy is based on several key beliefs:


  1. People learn new behaviors by creating new mental maps in their brains.

  2. The more complete you make your mental maps, the more likely you will be to achieve the new behavior you want.

  3. Focusing on your goal is the quickest way to achieve new behaviors.

  4. People already have the mental resources they need to achieve new behaviors. Success is a function of accessing and organizing what is already there.

The New Behavior Generator is a 'How To' process that both expresses and supports these beliefs through the process of acting "as if". Like all NLP strategies, the New Behavior Generator follows a particular cognitive sequence, made up of processes involving the various sensory representational systems. Each step in the sequence is also supported by behavioral cues in the form of eye movements. These eye positions help to focus and stabilize the particular representational system to be accessed.

Basic Steps of the New Behavior Generator Strategy

The basic steps of the New Behavior Generator Strategy involve:


  1. Asking yourself, "If I could already achieve my new goal, what would I look like?"
    (Do this while putting your eyes down and to your left.)

  2. Picturing yourself achieving your goal. (Look up and to your right to help stimulate your imagination.)

  3. To help you visualize:

    1. Remember a similar successful achievement.

    2. Model someone else.

    3. Picture yourself first achieving a smaller part of the goal.
      (Move your eyes up and to the left or right.)


  4. Stepping into the picture so you feel yourself doing what you pictured.
    (Put your eyes and head down and to the right as you get into the feeling.)

  5. Comparing these feelings to feelings from a similar past success.
    (Keep your eyes and head turned down and to the right.)

  6. If the feelings are not the same, name what you need and add it to your goal. Go back to step 1 and repeat the process with your expanded goal.
    (Move your eyes and head down and to the left.)




Sequence of Accessing Cues for
New Behavior Generator Strategy



Detailed Description of the Steps of the New Behavior Generator Strategy

Each of the basic steps of the New Behavior Generator Strategy can be done with precision and rigor in order to enhance its practical effects. The following is a detailed description of each step in the strategy:


  1. Say to yourself, "If I was already able to...(state your goal)...what would I look like?" (Ad)

  2. Construct a visual image of what you would look like if you were in the act of achieving the full goal you have just stated. You should be seeing yourself in this image from a disassociated point of view as if you were above or next to yourself looking at yourself. (Vc)

  3. If you have trouble coming up with a clear image of yourself, use one of the following strategies:

    1. Chunk down your goal into smaller steps. Ask yourself, "Is there any portion of my goal that I can see myself achieving?" for instance, "Can I see myself accomplishing the first step of my stated goal?" Visualize yourself successfully achieving that smaller part of your goal. (Ad_>Vc)

    2. Use an image of yourself from a similar successful situation. Ask yourself, "Is there something similar to my goal that I can already achieve?" Visualize what you do in that situation and edit or modify the image to fit your current goal. (Ad_>Vr_>Vc)

    3. Model someone else. Ask yourself, "Who do I know that is already able to fully achieve the goal I have stated?" Visualize the what this other person does to be successful. Then visualize yourself doing what you just saw your model doing. (Ad_>Vr_>Vc)


  4. Mentally step inside of the image you created of yourself achieving your goal so that you feel as though you are doing right now what you just saw yourself doing. What would you be seeing, hearing and feeling? (Vc_>Kc)

  5. Compare the feelings you have as you put yourself fully into that experience with the feelings you identified earlier from a similar experience in which you are already successful. (Kc/Kr)

  6. Decision Point

    1. If the two feelings match exactly so that you feel as confident that you can achieve your new goal as easily as the goal you have already achieved successfully, then you are done.

    2. If the two feelings do not match then name what is missing or what is needed (i.e., "creativity," "more confidence," "be more relaxed," etc.).


  7. Apply the same rule to this statement of the needed resource that you applied to your initial goal statement. That is, state it positively. For example, if your statement of what is needed is "be less nervous," ask yourself, "If I could be less nervous what would I be doing instead?" (Ad)

  8. Refine your goal by taking the name of the needed resource that you have identified and adding it to your goal statement by simply connecting it with the word "and." For example, the goal statement may now be something like, "I want to be more assertive with my co-workers (initial goal statement) AND keep in mind their feelings as well." Go back to step #1 and repeat the strategy. (Ad)











1.
State Goal
In Positive
Form
2.
Visualize
Yourself
Achieving It
4. 5.
Does It Feel
Like I Can
Really Do It?
6. 7.
Name What Is
Needed Or What
Is Missing


Specific Steps of the New Behavior Generator Strategy


NOTE: You may add any number of needed resources to your goal statement so that when you are done you may have refined your goal to something like: "I want to be more assertive with my co-workers AND keep their feelings in mind as well AND maintain a sense of my own self confidence AND remain cool if someone gets angry."

References

Tools for Dreamers, Dilts, R. and Epstein, T., Meta Publications, Capitola, CA, 1991.

Also see the Article of the Month or the Archives if you are interested in checking out NLP in more depth.

For information on Robert Dilts’ products and services, please see Upcoming Seminars or Robert’s Product Page or return to Home Page. If you have problems or comments concerning our WWW service, please send e-mail to the following address: michaelp@bowsprit.com.

This page, and all contents, are Copyright © 1998 by Robert Dilts., Santa Cruz, CA.

Понятно. Значит, нужна следующая простая информация: список эмоций в каждом проекте, которые они диагностируют.
И всё встанет на свои места.
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Ага! Отлично! Надо обсудить в отдельной теме!
http://metapractice.livejournal.com/497371.html
http://openmeta.livejournal.com/234097.html
20+ Emotion Recognition APIs That Will Leave You Impressed, and Concerned
Posted by Bill Doerrfeld

If businesses could sense emotion using tech at all times, they could capitalize on it to sell to the consumer in the opportune moment. Sound like 1984? The truth is that it’s not that far from reality. Machine emotional intelligence is a burgeoning frontier that could have huge consequences in not only advertising, but in new startups, healthcare, wearables, education, and more.

There’s a lot of API-accessible software online that parallels the human ability to discern emotive gestures. These algorithm driven APIs use use facial detection and semantic analysis to interpret mood from photos, videos, text, and speech. Today we explore over 20 emotion recognition APIs and SDKs that can be used in projects to interpret a user’s mood.

How Do Emotion Recognition APIs Work?

nviso-example-2Emotive analytics is an interesting blend of psychology and technology. Though arguably reductive, many facial expression detection tools lump human emotion into 7 main categories: Joy, Sadness, Anger, Fear, Surprise, Contempt, and Disgust. With facial emotion detection, algorithms detect faces within a photo or video, and sense micro expressions by analyzing the relationship between points on the face, based on curated databases compiled in academic environments.

To detect emotion in the written word, sentiment analysis processing software can analyze text to conclude if a statement is generally positive or negative based on keywords and their valence index. Lastly, sonic algorithms have been produced that analyze recorded speech for both tone and word content.

Use Cases For Emotion Recognition

Smile — you’re being watched. The visual detection market is expanding tremendously. It was recently estimated that the global advanced facial recognition market will grow from $2.77 Billion in 2015 to $6.19 Billion in 2020. Emotion recognition takes mere facial detection/recognition a step further, and its use cases are nearly endless.

An obvious use case is within group testing. User response to video games, commercials, or products can all be tested at a larger scale, with large data accumulated automatically, and thus more efficiently. Bentley used facial expression recognition in a marketing campaign to suggest car model types based on emotive responses to certain stimuli. Technology that reveals your feelings has also been suggested to spot struggling students in a classroom environment, or help autistics better interact with others. Some use cases include:


  • Helping to better measure TV ratings.

  • Adding another security layer to security at malls, airports, sports arenas, and other public venues to detect malicious intent.

  • Wearables that help autistics discern emotion

  • Check out counters, virtual shopping

  • Creating new virtual reality experiences

Facial Detection APIs that Recognize Mood

These computer vision APIs use facial detection, eye tracking, and specific facial position cues to determine a subject’s mood. There are many APIs that scan an image or video to detect faces, but these go the extra mile to spit back an emotive state. This is often a combination of weight assigned to 7 basic emotions, and valence — the subject’s overall sentiment.

1: Emotient

Emotient is great for an ad campaign that wants to track attention, engagement, and sentiment from viewers. The RESTful Emotient Web API can be integrated into apps, or used to help power AB testing. In addition to the API, there’s a good account analytics panel. View a demo here.

emotient-analytics

2: Affectiva

With 3,289,274 faces analyzed to date, Affectiva is another solution for massive scale engagement detection. They offer SDKs and APIs for mobile developers, and provide nice visual analytics to track expressions over time. Visit their test demo to graph data points in response to viewing various ads.

3: EmoVu

Produced by Eyeris, EmoVu facial detection products incorporate machine learning and micro expression detection that allow an agency to “accurately measure their content’s emotional engagement and effectiveness on their target audience.” With a Desktop SDK, Mobile SDK, and an API for fine grained control, EmoVu offers wide platform support, including many tracking features, like head position, tilt, eye tracking, eye open/close, and more. They offer a free demo with account creation.

Eyeris-demo

Looking for APIs? Check out API Discovery: 11 Ways to Find APIs

4: Nviso

Switzerland-based Nviso specializes in emotion video analytics, using 3D facial imaging tech to monitor many different facial data points to produce likelihoods for 7 main emotions. Though no free demo is offered, Nviso claims to provide a real-time imaging API. They have a reputation, awarded for smarter computing in 2013 by IBM. With its international corporate vibe, Nviso may not be the choice for a developer looking for a quick plug-in-play ability with immediate support.

5: Kairos

kairos-logoThe Emotion Analysis API by Kairos is a more SaaS-y startup in the facial detection arena. Scalable and on-demand, you send them video, and they send back coordinates that detect smiles, surprise, anger, dislike and drowsiness. They offer a Free Demo (no account setup required) that will analyze and graph your facial responses to a few commercial ads.

The sleek-branded Kairos could be a developer favorite. It looks newly supported with a growing community, with transparent documentation for its Face Recognition API , Crowd Analytics SDK, and Reporting API. The catch is that the Emotion Analysis API is still in beta.

6 : Project Oxford by Microsoft

Microsoft’s Project Oxford is a catalogue of artificial intelligence APIs focused on computer vision, speech, and language analysis. After the project’s age-guessing tool went viral last year for it’s “incongruities,” some may be reluctant to try Microsoft’s emotion detection capabilities (this is the app that thought Keanu was only 0.01831 sad).

Nordic APIs founders Travis Spencer and Andreas Krohn - 99% happy

Nordic APIs founders Travis Spencer and Andreas Krohn – 99% happy

The API only works with photos. It detects faces, and responds in JSON with ridiculously specific percentages for each face using the core 7 emotions, and Neutral. Truncate the decimals and this would be a very simple and to the point API, a very useful tool given the right situation. Upload a photo to the free online demo here to test Project Oxford’s computer vision capabilities.

7: Face Reader by Noldus

Used in the academic sphere, the Face Reader API by Noldus is based on machine learning, tapping into a database of 10,000 facial expression images. The API uses 500 key facial points to analyze 6 basic facial expressions as well as neutral and contempt. Face Reader also detects gaze direction and head orientation. Noldus seems to have a solid amount of research backing its software.

face-reader-noldus

8: Sightcorp

Sightcorp is another facial recognition provider. Their Insight SDK offers wide platform support, and tracks hundreds of facial points, eye gaze, and has been used in creative projects, museum showcases, and at TEDX Amsterdam. Sightcorp’s F.A.C.E. API (still in beta) is an cloud analysis engine for automated emotional expression detection.

Sightcorp-example-insight-sdk

9: SkyBiometry

SkyBiometry-logoSkyBiometry is a cloud-based face detection and recognition tool which allows you detect emotion in photos. Upload a file, and SkyBiometry detects faces, and senses the mood between happy, sad, angry, surprised, disgusted, scared, and neutral, with a percentage rate for each point. It accurately determines if a person is smiling or not. A benefit to Skybiometry is that it’s a spin off of a successful biometric company — so the team’s been around for a while. Check out their free demo to see how it works, and view their extensive online API documentation.

10: Face++

From their developer center, the onboarding process for Face++ looks intuitive. Face++ is more of a face recognition tool that compares faces with stored faces — perfect for name tagging photos in social networks. It makes our list because it does determine if a subject is smiling or not. Face++ has a wide set of developer SDKs in various languages, and an online demo.

faceplus-example

11: Imotions

Imotions is a biometrics research platform that provides software and hardware for monitoring many types of bodily cues. Imotions syncs with Emotient’s facial expression technology, and adds extra layers to detect confusion and frustration. The Imotions API can monitor video live feeds to extract valence, or can aggregate previously recorded videos to analyze for emotions. Imotion software has been used by Harvard, Procter & Gamble, Yale, the US Air Force, and was even used in a Mythbusters episode.

Imotions-example

12: CrowdEmotion

CrowdEmotion offers an API that uses facial recognition to detect the time series of the six universal emotions as defined by Psychologist Paul Ekman (happiness, surprise, anger, disgust, fear and sadness). Their online demo will analyze facial points in real-time video, and respond with detailed visualizations. They offer an API sandbox, along with free monthly usage for live testing. Check out the CloudEmotion API docs for specific information.

CrowdEmotion-demo-API

13: FacioMetrics

Founded at Carnegie Mellon University (CMU), FacioMetrics is a company that provides SDKs for incorporating face tracking, pose and gaze tracking, and expression analysis into apps. Their demo video outlines some creative use cases in virtual reality scenarios. The software can be tested using the Intraface iOS app.

faciometrics-intraface-app

Text to Emotion Software

There are many sentiment analysis APIs out there that provide categorization or entity extraction, but the APIs listed below specifically respond with an emotional summary given a body of plain text. Some keywords to understand here are natural language processing — the use of machines to detect “natural” human interaction, and deep linguistic analysis — the examination of sentence structure, and relationships between keywords to derive sentiment.

You could use these APIs to do things like inform social media engagement analytics, add new features to chat messaging, perform targeted news research, detect highly negative/positive customer experiences, or optimize publishing with AB testing.

14: IBM Watson

Powered by the supercomputer IBM Watson, The Tone Analyzer detects emotional tones, social propensities, and writing styles from any length of plain text. The API can be forked on GitHub. Input your own selection on the demo to see tone percentile, word count, and a JSON response. The IBM Watson Developer Cloud also powers other cool cognitive computing tools.

IBM watson

Also Read:Green APIs that Promote Sustainability and Climate Action

15: Receptiviti

Backed by decades of language-psychology research, the Receptiviti Natural Language Personality Analytics API uses a process of target words and emotive categories to derive emotion and personality from texts. Their Linguistic Inquiry and Word Count (LIWC) text analysis process is even used by IBM Watson. With REST API endpoints and SDKs in all major programming languages, Receptiviti looks both powerful and usable.

16: AlchemyAPI

The Alchemy API scans large chunks of text to determine the relevance of keywords and their associated negative/positive connotations to get a sense of attitude or opinion. You can enter a URL to receive a grade of positive, mixed, or negative overall sentiment. Though it’s more for defining taxonomies and keyword relevance, the tool does offer an overall sentiment evaluation for the document. Check out the demo or Sentiment Analysis API docs.

17: Bitext

The Text Analysis API by Bitext is another deep linguistic analysis tool. It can be used to analyze words relations, sentences, structure, and dependencies to extract bias with its “built-in sentiment scoring” functionality.

sentiment_analysis_screen-bitext

18: Mood Patrol

Hosted on the Mashape API marketplace, Mood Patrol by Soul Hackers Labs is a simple API that extracts emotion from text. Good for analyzing small sections of text for cues, and responding with fine grained adjectives that describe the emotional tone based on Plutchik’s 8 Basic Emotions. Visit the Soul Hackers demo or API documentation.

19: Synesketch

Synesketch is basically the iTunes artwork player for the written word. It’s an innovative open source tool that analyzes text for sentiment, and converts emotional tone into some awesome visualizations. Talk about emotional intelligence — “[Synesketch] code feels the words”, dynamically representing text in animated visual patterns so as to reveal underlying emotion. A few third-party apps have already been constructed with this open source software to recognize and visualize emotion from Tweets, speech, poetry, and more.

Synesketch

20: Tone API

The Tone API is a speedy SaaS API built for marketers to quantify the emotional response to their content. The tool takes a body of text and analyzes for emotional breadth, intensity, and comparison with other texts. Looks to be a cool service for automating in-house research to optimize smart content publishing.

tone-api-example

The Power of Third Party APIs:How Genews Uses Third Party APIs to Support Gender Equality

21: Repustate API

The Repustate Sentiment Analysis process is based in linguistic theory, and reviews cues from lemmatization, polarity, negations, part of speech, and more to reach an informed sentiment from a text document. Check out info on their Text Analytics API.

Speech to Emotion Software

Lastly, humans also interact with machines via speech. There are plenty of speech recognition APIs on the market, whose results could be processed by other sentiment analysis APIs listed above. Perhaps this is why an easy-to-consume web API that instantly recognizes emotion from recorded voice is rare. Use cases for this tech could be:


  • Monitoring customer support centers

  • Providing dispatch squads automated emotional intelligence

22: Good Vibrations

The Good Vibrations API senses mood from recorded voice. The API and SDK use universal biological signals to perform a real time analysis of the user’s emotion to sense stress, pleasure, or disorder.

They’re not really web APIs, but EMOSpeech is an enterprise software application that allows call centers to analyze emotion, and Audeering software detects emotion, tone, and gender in recorded voice.

Conclusion: The Future of Emotion Recognition

Machine emotional intelligence is still evolving, but the future could soon see targeted ads that respond to not only our demographic (age, gender, likes, etc.) but to our current emotional state. For point of sale advertising, this information could be leveraged to nudge sales when people are most emotionally vulnerable, getting into some murky ethical territory. Emotional recognition via facial detection is also shady if the user isn’t aware of their consent to be recorded visually. There are of course data privacy legalities any API provider or consumer should be aware of before implementation.

We are only on the tip of the iceberg when it comes to machine human interaction, but cognitive computing technologies like these are exciting steps toward creating true machine emotional intelligence.

Did we leave out any good Emotion Recognition APIs? Respond below or add to this Product Hunt list.


Ну, это как бы и инструмент, и идеальный конечный результат.
</>
[pic]
...

metanymous в посте Metapractice (оригинал в ЖЖ)

Ты имеешь в виду: в книге Дилтса "Структура субъективного опыта"?
http://metapractice.livejournal.com/274581.html
Оригинал взят у ss69100 в Растения читают мысли?!!
Afficher l"image d"origine...1 Средства массовой информации, сперва проигнорировавшие доклад Бакстера, раструбили эту историю по всему миру после того, как журнал «Дикие животные Америки» (National Wildlife) набрался храбрости и опубликовал обширную статью о его экспериментах в номере за февраль 1969 года.
Открытие Бакстера обрело столь большую известность, что по всему миру секретарши и домохозяйки принялись беседовать со своими растениями, a Dracaena massangeana стала темой разговоров на кухне за чашкой чая.

Читателей больше всего поразила мысль о том, что деревья способны бояться лесоруба, а морковь - зайцев. Возможности же применения эффекта Бакстера в медицинской диагностике, расследовании уголовных преступлений и шпионаже были столь многообещающи, что редакторы журнала даже не осмелились упомянуть о них в своей статье.

Автор статьи в «Международном медицинском вестнике» (Medical World News) от 21 марта 1969 года отметил, что исследования экстрасенсорного восприятия, похоже, «скоро станут достойны признания официальной науки, в котором исследователям психических явлений было отказано с момента основания в 1882 году в Кембридже Британского общества исследования психических феноменов».

Уильям Бондюран (William M. Bondurant), директор Фонда им. Мэри Рэйнольд Бэбок из Северной Каролины, объясняя свое решение выделить Бакстеру десять тысяч долларов на продолжение исследований, заявил: «Его эксперименты указывают на возможность существования глубинной связи между всеми живыми существами, связи, выходящей за пределы известных нам законов физики. Подобная проблема достойна изучения».

На выделенные средства Бакстер приобрел более дорогое оборудование, включая электрокардиографы и электроэнцефалографы. Эти приборы, обычно использующиеся для измерения электрических сигналов сердца и мозга, имеют по сравнению с гальванометром большое преимущество: они не пропускают через растение ток, а только записывают изменения их электрического потенциала. Кардиограф оказался более чувствительным, чем гальванометр, энцефалограф - в десять раз чувствительнее кардиографа.

По счастливой случайности перед Бакстером открылась целая новая область исследований. Однажды вечером он собирался скормить сырое яйцо своему доберман-пинчеру и заметил, что одно из подключенных к полиграфу растений бурно отреагировало, когда он разбил скорлупу яйца. На следующий день произошло то же самое. Бакстеру стало интересно, что может чувствовать яйцо. Он подключил к нему гальванометр и погрузился в новые исследования.

Бакстер сделал девятичасовую запись сигналов яйца. Они соответствовали ритму сердцебиения четырехдневного зародыша курицы, 160-170 ударов в минуту. Но было здесь одно «но»: это яйцо не было оплодотворенным. Тогда Бакстер разбил его и провел тщательное исследование. К его изумлению, в яйце отсутствовала какая бы то ни было система циркуляции жидкости, которая могла бы объяснить наблюдаемую пульсацию. Похоже, Бакстер наткнулся на какую-то полевую, а не физическую, структуру, малоизвестную современной науке.

Пожалуй, единственным до Бакстера исследователем в этой области был профессор медицинского факультета Йель-ского университета Гэрольд Сакстон Бурр (Harold Saxton Burr), который в 1930-1940-х годах провел удивительные исследования энергетических полей, окружающих растения, человека и даже отдельные клетки. Исследования Бурра только сегодня получают должное признание.

Бакстер временно приостановил опыты с растениями и посвятил себя исследованию нового явления, обнаруженного в яйце. Эти исследования имеют огромное значение для понимания происхождения жизни, и о них можно было бы написать отдельную книгу.

РАСТЕНИЯ ЧИТАЮТ МЫСЛИ

Пока Бакстер проводил свои эксперименты на востоке США, одного очень занятого ученого-химика по имени Марсел Вогель (Marcel Vogel), работающего в IBM в Лос Гатос, штат Калифорния, любезно попросили прочитать курс лекций о «творчестве» для инженеров и ученых компании. Вогель всерьез принялся за дело, и лишь тогда по-настоящему понял, насколько широко это понятие. В его голове постоянно вертелись вопросы: «Что такое творчество? Кого можно назвать человеком творческим?» В поиске ответов, Вогель, многие годы учившийся на священника-францисканца, набросал основные тезисы для двенадцати двухчасовых семинаров по творчеству. Он надеялся, что его лекции произведут фурор среди слушателей.

Сам Вогель еще в детстве познал, что такое творчество. Ему захотелось узнать, почему светятся светлячки и некоторые виды червей. Покопавшись в библиотеках, он так и не нашел исчерпывающей информации о люминесценции. Тогда он объявил своей матери, что справится сам, да еще напишет об этом книгу. И что же, десять лет спустя, Вогель и Питер Прингшейм (Peter Pringsheim) из Университета Чикаго опубликовали книгу «Люминесценция в твердых и жидких средах и ее практическое применение» (Luminescence in Liquids and Solids and Solids and Their Practical Application).


Еще через два года Вогель открыл корпорацию «Люминесценция Вогеля» (Vogel Luminescence) в Сан-Франциско, которая стала лидером в этой области. За пятнадцать лет компания Вогеля внедрила ряд новшеств: красный цвет, видимый на экране черно-белого телевизора; флуоресцентные карандаши; яркие этикетки для ядохимикатов; составы, попадающие в мочу грызунов, и позволяющие отследить скрытые места их обитания в подвалах, канализациях и развалинах; психоделические краски, столь популярные среди участников движения Нью Эйдж.

В середине 1950-х годов Вогелю наскучила рутина управления своей корпорацией, и в один прекрасный день он ее продал и устроился на работу в компанию IBM. Там ему предоставилась возможность полностью посвятить себя научно-прикладным исследованиям. Он с головой погрузился в изучение магнетизма, колдовал над оптико-электрическими приборами и жидкими кристаллами; патентовал важные изобретения, связанные с хранением компьютерной информации. Вскоре стены его дома были увешаны дипломами и наградами.

Кульминацией курса лекций, который Вогель читал для сотрудников IBM, стала принесенная одним из слушателей статья Бакстера «Есть ли эмоции у растений?» (Do Plants Have Emotions?), опубликованная в журнале «Арго» (Argosy). Эта статья перевернула представления Вогеля о творчестве. Правда, вначале он чуть было не выбросил журнал в мусорное ведро, посчитав Бакстера очередным шарлатаном, на которого не стоит даже обращать внимания. Но мысль о том, что растения способны чувствовать, крепко засела в его голове. Через пару дней Вогель внимательно перечитал статью и остался о Бакстере весьма хорошего мнения.

Статья, прочитанная вслух слушателям семинара, вызвала не только насмешки, но и любопытство. Пока студенты шумно обменивались впечатлениями от услышанного, Вогель уже твердо решил начать эксперименты с растениями. В тот же вечер один из слушателей рассказал Вогелю о том, что в последнем номере журнала «Популярная электроника» (Popular Electronics) упоминаются опыты Бакстера и приведена электрическая схема некоего прибора под названием «психоанализатор», улавливающего и усиливающего

реакции растений. Собрать такой прибор стоило всего 25 долларов.

Вогель разделил своих студентов на три группы и дал им задание повторить опыты Бакстера, но ни одна группа не добилась положительного результата. Сам же Вогель оказался более удачливым, и он смог повторить некоторые результаты экспериментов Бакстера. Он продемонстрировал слушателям, как растения предчувствуют, что им оторвут листья и тревожатся при одной только угрозе сожжения или выдергивания с корнем. Эта угроза вызывает у них даже больше беспокойства, чем реальное вырывание, сожжение или повреждение. Но странно: почему же никто, кроме него, не смог повторить этот эксперимент? В детстве Вогель интересовался всем, что связано с работой человеческого сознания. Он проштудировал немало литературы о магии, спиритизме и гипнозе, и еще подростком давал публичные сеансы гипноза.

Особенно его поразили: теория Месмера (Mesmer) о вселенском эфире, равновесие которого обеспечивает здоровье, а нарушение равновесия вызывает болезнь; идеи Куе (Coue) о самовнушении, при помощи которого можно устранить боль при родах и улучшить самочувствие; упоминания различных авторов о «психической энергии», о которой одним из первых заговорил Карл Юнг (Carl Jung), утверждавший, что она не только отличается от физической энергии, но даже имеет другую природу.

Если «психическая энергия» существует, рассуждал Вогель, то ее, как и другие виды энергии, можно накапливать и хранить. Но как и в чем? Вогель разглядывал химические реактивы на полках своей лаборатории в IBM и прикидывал, какой из них подойдет для хранения этого вида энергии.

Он решил обратиться за помощью к своей знакомой, экстрасенсу Вивьен Вилей (Vivian Wiley). Она внимательно рассмотрела расставленные перед ней химикаты и объявила, что, по ее мнению, в качестве накопителя психической энергии ни один из них не подходит. Тогда Вогель попросил ее забыть обо всех этих химических веществах и попробовать найти что-то еще, прислушавшись к голосу интуиции. Вернувшись домой, Вивьен сорвала в своем саду два листика камнеломки; один она положила на столик около кровати, а другой - в гостиную. Вогелю она объяснила: «Каждое утро, проснувшись, я буду смотреть на лист возле кровати и мысленно просить его, чтобы он не увядал; а на другой лист не стану обращать никакого внимания. Посмотрим, что будет».

Через месяц она попросила Вогеля прийти к ней домой и принести фотоаппарат, чтобы запечатлеть листики на пленку. Вогель не поверил своим глазам. Лист, на который не обращали внимания, завял, потемнел и начал разлагаться. Лист же, на котором Вивьен ежедневно конценрировала свое внимание, был свежий и зеленый, словно его только что сорвали. Казалось, какая-то сила бросила вызов законам природы и поддержала жизнь в сорванном листе. Вогель решил повторить эксперимент своей знакомой, сорвал у росшего неподалеку от его лаборатории вяза три листа и положил их на стеклянную тарелку рядом со своей кроватью.

Каждый день перед завтраком Вогель сосредотачивался на двух листах, лежащих на краях тарелки, с любовью упрашивая их не увядать. На лист, лежащий в центре тарелки, он старался не обращать никакого внимания. За неделю лист в центре потемнел и съежился, а другие два листа оставались свежими и зелеными. Что особенно удивительно, у здоровых листьев даже затянулись ранки на черешках, которыми они были прикреплены к дереву.

Тем временем Вивьен Вилей продолжала свой опыт и через некоторое время принесла Вогелю те самые два листа, которые он уже видел. Один лист оставался свежим уже два месяца, тогда как другой совершенно высох и почернел.

Так Вогель воочию убедился в реальном существовании «психической энергии». Если усилием разума вопреки всем известным законам можно поддерживать жизнь в оторванном листе, то не может ли мысль человека повлиять на жидкие кристаллы, которые Вогель активно изучал в IBM?

При помощи специального микроскопа Вогель сделал сотни цветных фотографий жидких кристаллов с увеличением в триста раз. Фотографии получались столь яркими и необычными, что ничуть не уступали лучшим работам художников-абстракционистов. Проводя фотосъемку, Вогель вдруг понял, что стоило ему расслабиться и «отпустить мысли», и он начинал чувствовать процессы, невидимые в микроскоп.

«Я стал замечать под микроскопом то, что не видели другие. Но видел я все это не глазами, а своим сознанием. Когда я научился видеть невидимое, моя чувствительность перешла на новый уровень, и я стал подбирать освещение так, чтобы эти невидимые феномены стали доступны глазу человека и фотоаппарату».

Тогда Вогель пришел к неожиданному заключению. Кристаллы появляются в своей материальной форме благодаря особым матрицам, или нефизическим образам из чистой энергии, которые предчувствуют появление физической материи. А так как растения могут предчувствовать намерения человека (к примеру, агрессию), то Вогелю стало совершенно ясно, что мысль создает определенное энергетическое поле.

К осени 1971 года Вогель с головой ушел в микросъемку кристаллов и забросил свои эксперименты с растениями. Но тут в журнале «Меркурий» (Mercury) вышла статья, посвященная его исследованиям, с лестными отзывами доктора Джины Серминара (Gina Cerminara), известного психолога и автора популярной книги о ясновидящем Эдгаре Кайсе (Edgar Cayce). Информационное агентство Ассошиэйтед Пресс (Associated Press), распространило эту статью по всему миру. Вогель оказался в центре внимания, от него требовали дополнительной информации, и он решил продолжить свои исследования.

Прежде всего Вогель решил усовершенствовать способы крепления электродов к листьям растения, чтобы более точно отслеживать влияние мыслей и эмоций человека на растения. Он стремился устранить воздействие на самописец случайных электромагнитных колебаний вроде шума работающего поблизости пылесоса или других помех, которые являются основной причиной искажения данных. Именно по этой причине Бакстер проводил большинство своих экспериментов от полуночи до рассвета.

Вогель также обнаружил, что одни филодендроны реагировали на раздражение быстрее, чем другие, у одних реакция была резкой и отчетливой, у других - менее выраженной, и даже листья одного и того же растения обладали неповторимым характером и индивидуальностью. Самыми «трудными» в работе оказались листья с большим электрическим сопротивлением; легче всего работалось с мясистыми листьями, содержащими много воды. У растений наблюдались периоды активности и отдыха, в зависимости от времени суток и лунных циклов.

Чтобы обеспечить чистоту эксперимента и устранить внешнее воздействие на электроды, Вогель разработал клейкое вещество, состоящее из воды, агар-агара, загустителя из смолы карри и соли. Сначала он наносил этот состав на листья растения, затем поверх него осторожно прикреплял тщательно зачищенные электроды из нержавеющей стали, длиной в один сантиметр. Застывшее желе из агар-агара запечатывало электроды в полужидкой среде и таким образом практически устраняло внешнее воздействие на участки листьев, соприкасающиеся с электродами. Так воздействие посторонних факторов на показания приборов было сведено на нет, и точность измерений значительно возросла.

Весной 1971 года Вогель начал новую серию исследований с целью определить момент установления связи между филодендроном и человеком. Он подсоединял филодендрон к гальванометру, самописец которого чертил совершенно прямую горизонтальную линию. Затем ученый принимался глубоко дышать и, расслабившись, становился перед растением почти касаясь его листьев расставленными пальцами. Он посылал филодендрону эмоции симпатии и любви, подобные тем, которые он мог бы испытывать к своим лучшим друзьям. Каждый раз самописец начинал чертить волнообразные восходящие линии. В то же время Вогель явственно ощущал на ладонях рук потоки энергии, исходящей от растения.

Спустя 3-5 минут растение переставало реагировать на положительные эмоции Вогеля, словно отдав всю свою энергию в ответ на проявления добрых чувств человека.

Взаимодействие ученого с растением напомнили ему отношения между близкими друзьями или влюбленными, которые давно не виделись и, наконец, встретились. Первая встреча вызывает наибольший всплеск эмоций, но постепенно эмоциональная энергия иссякает и нуждается в пополнении. Как и любовники, Вогель и растение чувствовали прилив радости и удовлетворения.

В питомниках, среди множества растений, Вогель мог с легкостью распознавать особенно чуъствительные. Для этого он водил над ними ладонью до тех пор, пока не ошущал, по его словам, легкий холодок, а затем серию электрических импульсов - все это указывало на наличие мощного поля. Вогель стал проделывать эксперименты постепенно увеличивая расстояние между собой и растением. Как и Бакстер, в своих опытах с растением он добился тех же ощущений сначала за пределами помещения, затем за квартал от помещения, и даже находясь в своей лаборатории, в 13 километрах от растения.

Затем Вогель устроил такой эксперимент: подключил два растения к одному и тому же прибору, а затем отщипнул лист у одного из них. Второе растение реагировало на боль своего соседа, но лишь в том случае, если Вогель обращал, на него свое внимание. Если же ученый отрывал лист у одного растения не обращая на другое внимания, то последнее никак не реагировало. Вогель и первое растение - словно влюбленные, уединившиеся на лавочке в парке и совершенно не замечающие прохожих. Но вдруг молодой человек отвлекается на проходящую мимо девушку и на миг забывает о своей подруге.

Из собственного опыта Вогель знал, что учителя йоги и других методов глубокой медитации, вроде Дзен, находясь в медитативном состоянии, совершенно не реагируют на внешние раздражители. Энцефалограф показывает, что волны, исходящие от мозга человека в медитации, совершенно отличаются от мозговых волн того же человека в обычном состоянии. Постепенно Вогель стал понимать, что его особое сосредоточенное состояние является основой для взаимодействия с растением. Он переключался со своего обычного состояния сознания, концентрируясь на мысли о том, что растению хорошо и радостно, его любят и искренне желают, чтобы оно росло здоровым и сильным. Растение чувствовало этот настрой и выходило из состояния дремы.

Похоже, взаимодействие растения и человека происходило именно на этом уровне; человек, таким образом, мог бы считывать информацию о событиях или живых объектах через растение, фиксируя его реакцию с помощью приборов. Обычно на налаживание контакта с растением Вогелю хватало от нескольких минут до получаса.

Когда ученого просили подробно описать этот процесс, он отвечал, что сначала успокаивает все свои чувства, дабы ощутить энергетическую связь с растением. Как только достигнуто равновесие между биоэлектрическими потенциалами растения и человека, растение перестает реагировать на шумы, температуру, окружающие электрические поля и другие растения. Оно реагирует только на Вогеля, который смог хорошо настроиться или просто загипнотизировать растение.

Когда ученый почувствовал уверенность в себе, ему захотелось провести эксперименты с растениями на публике. В одной из передач местного телевидения в Сан-Франциско растение, подсоединенное к самописцу, наглядно отражало различные эмоции Вогеля: от раздражения от вопросов журналиста до состояния гармонии при общении с растением. По просьбе режиссера одной из передач телекомпании ABC ученый показывал реакцию растения на его мысли или мысли другого человека: приборы четко регистрировали бурную реакцию растения на всплеск человеческих эмоций и его возврат к нормальному состоянию.

На своих лекциях Вогель уверенно заявил: «Факт остается фактом, человек может общаться и общается с растениями. Растения - живые, чувствующие существа. Они создают вокруг себя особое пространство. Пусть они кажутся нам глухими, слепыми и немыми, но для меня совершенно очевидно то, что растения являются прекрасным индикатором человеческих эмоций. Растения излучают полезные человеку энергии. И мы все способны их чувствовать! Они заряжают человека энергией, а человек, в свою очередь, заряжает их». Индейцы Северной Америки прекрасно знали об этих свойствах растений. При необходимости индейцы уходили в лес, находили подходящую сосну и, разведя руки в стороны, прислонялись к ней спиной, чтобы подзарядиться ее энергией.

Когда Вогель начал демонстрировать публике чувствительность растений на измененное состояние сознания человека, он заметил, что скептицизм и враждебность некоторых зрителей производят на него очень странное воздействие. Он стал обращать внимание на негативное отношение, исходящее от зрителей, и обнаружил, что методом глубокого дыхания (которому он научился на занятиях по йоге) может изолировать тех, кто источает эти эмоции. Затем он создавал положительный мыслеобраз и переключался на него, точно так же, как мы крутим ручку радио, настраиваясь на другую волну.

«Враждебность и негативные эмоции, исходящие от зрителей, - отметил Вогель, - являются основным препятствием для налаживания хорошего контакта с растением. Самой трудной задачей в публичных экспериментах с растениями является нейтрализация этих эмоций. Если мне не удается это сделать, растение и, конечно же, прибор, замирают до тех пор, пока я не разберусь с отрицательными эмоциями и не установлю новую позитивную связь с растением».

«Мне кажется, - говорил он, - что я - посредник, фильтрующий реакцию растения на окружающие воздействия. Я могу снять этот фильтр, чтобы связать напрямую растение и зрителей. При этом, заряжая растение своей энергией, я могу повысить его чувствительность. Здесь очень важно понять, что, по-моему, при контакте с растением вы не общаетесь с разумом в обличье растения. Скорее растение становится инструментом, продолжением чувствительности человека. В этом случае человек может взаимодействовать с биоэнергетическим полем растения или через него с мыслями и эмоциями других людей».

Вогель сделал вывод, что Энергия Жизни, или Космическая Энергия, которая окружает всё живое, является основой жизни и растений, и животных, и человека. Таким образом, человек и растение - единое целое. «Это единство делает возможным не только общение человека и растения, но и запись этого общения через растение на ленту самописца».


1 Начало здесь.

***
Отрывок из одноимённой книги П. Томпкинса и К. Берда.
*
Спасибо анонимному коллеге за ссылку.

Дочитали до конца.