«Я знаю, о чем ты думаешь, кожаный»: как машины учатся читать мысли

«Я знаю, о чем ты думаешь, кожаный»: как машины учатся читать мысли 1

Когда выяснилось, что телепатия — это что-то из области фантастики, человечество не отказалось от идеи научиться читать мысли. Просто от мистического мышления оно перешло к научному, и для помощи в чтении мыслей люди стали обращаться не к магическим ритуалам, а к знаниям из области психологии, биологии и медицины. По мере развития технологий искусственный интеллект стал одним из инструментов, призванных помогать человеку в раскрытии тайн, которые хранит чужая черепная коробка. Рассказываем, как люди и машины учатся читать мысли и что из этого получается.

Чтение мыслей через эмоции

Одним из самых известных методов, который можно приблизить к чтению мыслей, является считывание невербальных сигналов, в том числе микромимики. Этим приемом пользуются многие фокусники-«телепаты» или менталисты: они анализируют невербальные сигналы публики и с помощью них угадывают числа, имена, находят спрятанные предметы.

Объяснить чтение мыслей через эмоции в свое время пытался Пол Экман, американский психолог, о работе которого многие знают в основном благодаря сериалу «Обмани меня» с Тимом Ротом. Экман исследовал взаимосвязь эмоций с мимикой человеческого лица. Для этого он в рамках исследовательской работы путешествовал по миру и фотографировал лица людей, которые испытывали эмоции. При анализе фотоматериала Экман пришел к мысли, что эмоции и их проявление универсальны во всех культурах. Он провел еще несколько исследований, подтвердивших эту гипотезу, написал книгу «Telling Lies» (на основе которой и выпустили сериал «Обмани меня»), а также работал консультантом по распознаванию лжи в различных американских организациях, в том числе в ФБР.

Технологические компании собрали огромные объемы поверхностных изображений человеческих эмоций, включая миллиарды селфи в социальных сетях, портреты в Pinterest, видео в TikTok и фотографии во Flickr. Подобно распознаванию лиц, распознавание эмоций стало частью базовой инфраструктуры многих платформ, от крупнейших технологических компаний до небольших стартапов. Одни компании стали использовать эти данные для улучшения показателей безопасности (например, FaceID), другие используют данные об эмоциях для изучения пользовательского поведения. Еще в начале 2010-х Sony выпускали цифровые камеры, которые могли распознавать улыбку и, как только объект съемки улыбался, начинали съемку.

Эти системы уже влияют на то, как ведут себя люди и как действуют социальные институты, несмотря на отсутствие существенных научных доказательств того, что они работают. В настоящее время широко используются автоматизированные системы распознавания эмоций, особенно при приеме на работу. Компания по найму HireVue, среди клиентов которой Goldman Sachs, Intel и Unilever, использует машинное обучение, чтобы делать выводы о том, подходят ли кандидаты для работы. В 2014 году компания запустила свою систему искусственного интеллекта для изучения микромимики, тона голоса и других переменных из видеособеседований, которые она использовала для сравнения кандидатов на работу с лучшими работниками компании. После серьезной критики со стороны ученых и групп по защите гражданских прав в 2021 году HireVue отказалась от анализа лиц, но сохранила тон голоса в качестве критерия оценки. В январе 2016 года Apple приобрела стартап Emotient, который утверждал, что создал программное обеспечение, способное распознавать эмоции по изображениям лиц.

Читайте также:  Не ставьте ваши визы, гоните ваши денежки

Однако подобные алгоритмы машинного обучения до сих пор являются полем для дискуссий как среди правозащитников, так и среди ученых. Пола Экмана за его вклад в науку назвали одним из 100 наиболее влиятельных людей современности, и по мере того, как его слава росла, другие ученые начинали анализировать его работы и находить нестыковки. Как выяснилось, Экман изучал проявление микромимики в рамках шести базовых эмоций, а большинство фотографий, которые он использовал, либо были постановочными, либо изображали «чистые» эмоции, в то время как в реальной жизни люди способны выражать сложные сочетания эмоций и промежуточные состояния, например между радостью и грустью.

Машина, конечно, может опознать улыбку или нахмуренные брови, но она не может провести такую же оценку, которую производит живой человек в процессе коммуникации. При живом общении мы оцениваем не только вербальную и невербальную составляющую, но еще и контекст, в котором мы находимся и в котором происходит коммуникация; немаловажны обстоятельства, в которых человек выражает те или иные эмоции. Так что можно с уверенностью говорить о том, что для машины ваше лицо все еще (пока) закрытая книга.

Актуальные статьи и подборки в вашем смартфоне. Подписывайтесь на наш Telegram-канал и получайте все материалы, которые выходят на нашем сайте.

Сразу в мозг

Лицо — это только отражение наших мыслей, а вот их источник — мозг. Поэтому логично, что ученые решили, кроме исследования мимики, попробовать получить человеческие мысли без посредников — напрямую от нейронных соединений. Исследования из области нейробиологии и нейропсихологии, применение МРТ помогли исследовать активность головного мозга и взаимосвязь его отделов с различными вариантами поведения, а также с патологиями (в том числе и поведенческими). С подключением искусственного интеллекта данные, получаемые в результате исследования, стало проще обрабатывать, анализировать и применять.

Появилось даже целое направление «нейроробототехника», или neurobotics, которое представляет собой микс естественных наук, робототехники и информационных технологий, а также BCI (brain-computer-interface), или нейрокомпьютерного интерфейса (это система, в которой для улучшенного анализа данных объединяются мозг и компьютерный интерфейс).

Вы думаете, что с помощью BCI можно захватить мир или найти всех мутантов на планете, как в «Людях Икс»? На самом деле это работает далеко не так. Эти системы применяются для поиска и выявления нарушений в работе мозга, для лечения патологий, для изучения работы нейронных связей. С помощью нейроимплантантов уже лечатся нарушения зрения у пациентов с параличом, преодолеваются нарушения речи и коммуникации, а также сенсорные нарушения. Так, в 2021 году была проведена демонстрация нейроимплантанта от Стэнфордского университета, который позволил полностью парализованному пациенту общаться со скоростью 15 слов в минуту.

Похожий чип Neurolink разрабатывает одноименная компания Илона Маска. Чип был анонсирован в 2019 году, пока что его испытывают на животных. Уже были проведены исследования с участием мышей, свиней и приматов (как утверждают авторы исследований, ни одно животное не пострадало). Эти чипы помогают исследовать активность мозга, а также выявлять патологии, преодолевать их и справляться с нарушениями речи и памяти, вызванными структурными нарушениями мозга. Эти технологии уже приближаются к чтению мыслей, описанному в комиксах Marvel, но без супергероики и антиутопических мотивов.

Источник

Автор публикации

не в сети 9 часов

Андрей Маргулис

542
С организацией DDoS атак завязал.
Выкладываю новости технологий и интересные статьи с темной стороны интернета.
31 год
День рождения: 14 Мая 1991
Комментарии: 548Публикации: 2688Регистрация: 12-12-2015
Понравилась статья? Поделиться с друзьями:
РЭНБИ - Украина
Авторизация
*
*
Регистрация
*
*
*
*
Ваш день рождения * :
Число, месяц и год:
Отображать дату:
Генерация пароля
/