ОБЪЕДИНЕНИЕ ЛИДЕРОВ НЕФТЕГАЗОВОГО СЕРВИСА И МАШИНОСТРОЕНИЯ РОССИИ
USD 92,26 -0,33
EUR 99,71 -0,56
Brent 0.00/0.00WTI 0.00/0.00

Эмоции роботов

Зачем нам нужны эмоции от роботов и как научить машину реагировать как человек, рассказывает лингвист Артемий Котов

В научной фантастике, особенно в фильмах, можно найти очень много случаев общения между роботами и людьми. Эти роботы, как правило, эмоциональны, и ситуации, когда они начинают проявлять эмоции, шутить, улыбаться, понимать эмоции человека, часто становятся важным элементом сюжета. В этот момент начинает казаться, что в роботе проснулось что-то человеческое. Таким образом зрители и герои устанавливают с роботом эмоциональный контакт. Это явление — не только объект интереса режиссеров кино или научных фантастов, но также и объект изучения науки. Ученых очень интересует, что же должен сделать робот, что сказать и как себя повести, чтобы установить эмоциональный контакт с человеком.

На пересечении дисциплин

Все разговоры о воспроизведении или распознавании эмоций роботами в конечном счете сводятся к тому, что нужно изучить эмоции людей. Это значит, что необходимы большие базы данных — корпусы — проявлений и переживаний эмоций человеком. Такими базами являются литература и кинематограф. Можно, например, изучать эмоции, которые проявляют актеры — есть целые корпусы, посвященные им. В их числе — корпус МУРКО в составе Национального корпуса русского языка (НКРЯ). Он доступен для всех пользователей, и по нему можно искать фрагменты из фильмов, в которых игра актеров — мимика, жесты — соответствует какой-то эмоции. Можно найти радость, объятия, угрозу и так далее. Но при анализе такого материала — кинофильмов, специально созданных режиссером и актерами, — всегда встает вопрос о валидности материала: насколько он естественен? Актеры воспроизводят эмоции отчасти так, как им подсказывают собственные чувства, отчасти так, как их научили в театральном училище или как сказал режиссер. Это некое специальное воспроизведение эмоций, которое присутствует у нас в культуре, которое хорошо распознается, и оно нужно, чтобы точно сообщить эмоцию героя зрителям. Но в реальной жизни люди все-таки ведут себя по-другому — очень противоречиво, испытывают и проявляют сразу множество эмоций: и улыбаются, и хмурятся, и жестикулируют, и переминаются. Поведение человека очень сложное, а актеры стараются этого избегать, чтобы та эмоция, которая видна в кадре, получалась максимально чистой и однозначно считывалась зрителем, без каких-либо двусмысленностей.

Часто именно сложность и противоречивость поведения кажутся человеку привлекательными. Нам интересно смотреть на героя художественного фильма, когда он противоречив: это напоминает нам естественное поведение человека. В нашем Отделе нейрокогнитивных технологий Курчатовского комплекса природоподобных технологий мы собираем видеозаписи поведения людей в реальных ситуациях. У нас есть несколько сотен видеозаписей из службы одного окна, куда приходят люди с коммунальными платежами и где спорят по поводу них. Это очень сложные реальные ситуации общения. А чтобы собрать положительные эмоции, мы приглашаем людей, которые занимаются каким-нибудь видом искусства, спрашиваем их о том, как они занимаются своим делом, и записываем их на несколько камер, когда они рассказывают. Затем мы размечаем их поведение: отмечаем все элементы мимики, все улыбки, прикусывания губ, движения глаз, бровей, жесты. По этой базе, как и по корпусу МУРКО, мы тоже можем искать паттерны — стандартные последовательности движений или действий при выражении эмоций. Эти паттерны можно выделить, перенести их на трехмерного компьютерного персонажа, а затем на самого робота. И робот воспроизводит те же жесты, что и человек в какой-то эмоциональной сложной ситуации. Если роботу надо проявить какую-то эмоцию, он берет примеры из этой базы, комбинирует их, при этом может сразу выполнять несколько жестов, как и человек: двигать руками, смотреть в сторону и так далее. И при этом стараться поддерживать коммуникативный контакт с человеком. Мы стараемся создать такую архитектуру робота, чтобы он, как и человек, при помощи сложных эмоций проявлял «сложный внутренний мир».

Есть отдельные исследования по разработке анимированных трехмерных агентов в компьютерных играх — ими занимаются большие компании. Они заинтересованы в том, чтобы герой компьютерной игры проявлял эмоции, похожие на человеческие. Их персонажи часто очень правдоподобно жестикулируют, у них активная мимика. Исследовательские проекты вроде нашего нацелены на то, чтобы создать не такого робота, эмоции которого хорошо бы считывались пользователем, а такого, который будет вести себя сложно, противоречиво, максимально похоже на человека. Вероятно, при этом он будет вызывать и какие-то неоднозначные ощущения у людей.

Универсальные эмоции

Существует классификация базовых эмоций, разработанная психологом Полом Экманом. Исследование Экмана заключалось в том, что он показывал снимки с проявлениями человеческих эмоций представителям разных культур и просил их определить эти эмоции. Таким образом у него получилось выделить несколько эмоций, которые лучше всего распознаются людьми из разных культур, и он утверждал, что именно эти эмоции универсальны — это гнев, страх, удовольствие, грусть и отвращение. Если же учитывать и внутреннее состояние человека, то список Экмана будет включать 15 эмоций: радость, гнев, презрение, удовлетворение, отвращение, смущение, восхищение, страх, чувство вины, гордость, облегчение, грусть, удовлетворение, удовольствие, стыд.

В компьютерной лингвистике и моделировании эмоций используется и теория базовых эмоций Экмана, и другие разработки, — например, параметрические модели, когда эмоция представлена как набор переменных. Эмоция представляется как комбинация возбуждения, удовольствия и, например, внутреннего ощущения контроля над ситуацией. Если человек счастлив настолько, что буквально прыгает от радости, то можно сказать, что он испытывает позитивную эмоцию с высоким уровнем возбуждения. А можно быть в хорошем настроении и лежать довольным на диване, и тогда это тоже позитивная эмоция, но с низким или отрицательным уровнем возбуждения.

Есть еще одна модель, которую разработали А. Ортони, Дж. Клоур и А. Коллинз, она называется OCC — по первым буквам их фамилий. В ней эмоции классифицируются по стимулам, которые их вызывают. Выделяются первичные эмоции, наиболее простые (скажем, яблоки можно любить, а можно не любить), более сложные эмоции, например гордость за проделанную работу: ощущение в отношении этих действий вызывает какой-то эмоциональный отклик. Сюда же, к примеру, относится страх, что другой человек сделает что-то не так: мы предвосхищаем действия другого и испытываем эмоции от предвосхищения этих действий.

В наших системах анализа речи мы пытаемся классифицировать эмоции по типам текстов и сообщений, которые их вызывают. Если говорить человеку, что он никому не нужен и его никто не любит, то он, понятное дело, расстроится. Поэтому нам нужно сделать такого робота, который тоже будет расстраиваться от таких слов. А если мы скажем, что он классный и все обращают на него внимание, он скорее будет радоваться. Соответственно, если робот имитирует изменение своего настроения, то, когда ему грустно, он должен говорить: «Меня никто не любит, я никому не нужен», а в хорошем настроении — «Какой я классный!». Такие реакции тоже паттерны, как было с мимикой, но речевые. Мы пытаемся собирать такие паттерны из разных источников, например из блогов, где люди действительно грустят или радуются и это как-то проявляется в написанном тексте. Их можно брать даже из рекламы, которая пытается воздействовать на человека по принципу: «Ты никому не нужен, но если ты купишь наш продукт, то все обратят на тебя внимание!» Простые роботы, кстати, тоже должны реагировать на такую рекламу: демонстрировать соответствующие эмоции и «хотеть» купить рекламируемый продукт. Если же мы растим эмоционально более сложного робота, он должен понимать ту эмоцию, которую ему сообщает реклама, и ту, которую было бы наиболее адекватно испытывать в ответ на нее, например усталость от рекламы. Но простой робот должен только «заражаться» эмоцией, которую ему сообщают. В качестве примера такой рекламы могут использоваться в том числе материалы предвыборных кампаний. На основе таких примеров мы создаем автоматическую систему, которая каждый день читает тексты из интернета, новости, сообщения из блогов, помечает их разными эмоциями, которые могли бы быть реакцией на эти тексты. Потом эти реакции можно передавать роботу, который будет радоваться или грустить в зависимости от того, что его лингвистический компонент прочел в новостях.

Как полюбить робота

Сделать такого робота, чтобы его полюбили люди, как дети любят свои игрушки, — это очень большая задача для науки. Некоторые взрослые очень любят своих роботов-пылесосов, дают им имена, шьют одежду и даже носят в гости. Они, конечно, понимают, что это неживое устройство, но склонны одушевлять его, — возможно, потому, что он способен вести себя автономно, самостоятельно ездить по комнате. За счет этого с ним устанавливается эмоциональная связь, хотя у этого робота нет даже человеческой мимики, а есть только автономность передвижения. Но, возможно, именно она и является важной причиной эмоционального отношения к роботу. Другими такими факторами могут стать умение робота шутить, наличие глаз и возможности установить зрительный контакт. Скорее всего, ключевым будет какое-то сочетание таких факторов. Но понять, что это за факторы и как они должны быть реализованы в роботах, — это как раз очень интересная задача. Для этого важно понимать, как извлечь из речи человека смысл, который он туда вложил, как именно он выбрал эмоциональную реакцию и способы ее реализовать. Понимание этих процессов является ключевым для создания привлекательного для человека робота.

Можно предположить, что эмоционально реагирующий робот потенциально способен выполнять какую-то воспитательную функцию. С одной стороны, люди очень настороженно относятся к тому, что их детей будут воспитывать эмоциональные роботы, боятся этого и считают, что это очень плохо. Но с другой стороны, разработчики игрушек стараются сделать свои игрушки эмоциональными, заставляют их эмоционально себя вести: мычать, хныкать, смеяться. Получается, ребенок играет с такой игрушкой и вызывает у нее эмоции, наблюдает их, и это непроизвольно становится фактором обучения. Поэтому нет ничего плохого в разработке игрушек с эмоциональными реакциями — их делают и сейчас, но к этому, конечно, надо относиться внимательно и следить, как дети будут взаимодействовать с такими игрушками и что будут у них заимствовать.

Люди могут учиться эмоциями не только у игрушек. Дети, да и взрослые люди, могут заимствовать проявление своих эмоций из кино или мультфильмов, пытаться подражать любимым героям. Что-то подобное может быть и с игрушками. Хорошо это или плохо — сказать сложно. Это просто особенность человеческой культуры.

Робот и ирония

Ирония — одна из тех вещей, которые строятся на противоречии. Например, фразу «ты молодец» можно произнести с весьма безрадостным выражением лица, и это будет считываться человеком как ироничное высказывание. Подобным реакциям учат и роботов. Мы проводим такие опыты с компьютерными агентами: передаем ему событие «тебя стукнули» — как будто кто-то проходил мимо и задел его, намеренно либо нет, а компьютерный агент может «злиться» по этому поводу, активизировать негативную реакцию, но также подавить ее выражение и выбрать наилучшую позитивную реакцию, например «хорошо, что ты обратил на меня внимание». Проявление эмоций, как правило, включает в себя целый комплекс: содержание речи, выражение лица, интонация. В искусственном синтезе речи мы пока не очень хорошо контролируем интонации, поэтому в графическом интерфейсе мы вместе с текстом выводим смайлик, как бы показывая, что это была ироничная реакция, а не серьезная.

Последние успехи

Область разработки эмоций роботов устроена очень сложно и включает в себя много разных направлений. Среди безусловных достижений стоит отметить алгоритмы нейросетей, которые применяются для классификации информации в поисковой выдаче. Эти алгоритмы, как и подобные им, обучаются на предъявлении огромного количества примеров — сотен тысяч и миллионов. Но человек ведет себя иначе, ему не нужен миллион предъявлений. Поэтому мы хотим отойти от принципов современных нейронных сетей либо модифицировать их так, чтобы процесс работы был больше похож на человеческую мысль. Наш мозг не только классифицирует входящую информацию, но и решает массу других, более сложных задач. И чтобы понять, как он устроен, просто алгоритмов классификации недостаточно — здесь необходимы другие методы. Нужно выяснить, как устроена система, которая позволяет человеку испытывать сложные эмоции, балансировать между ними. Поэтому возможностей для прогресса здесь еще масса.

Дополнительная информация

  • Автор: Артемий Котов Артемий Котов кандидат филологических наук, ведущий научный сотрудник Отдела нейрокогнитивных технологий Курчатовского института

Идет загрузка следующего нового материала

Это был последний самый новый материал в разделе "Технологии"

Материалов нет

Наверх