пациентов. Действительно, научные исследования показали, что компьютеры лучше людей замечают признаки физического дискомфорта[287]. Одно из первых приложений Emotient для Google Glass предназначалось для менеджеров магазинов: с его помощью можно было оценивать моральное состояние персонала или выявлять, как эмоции отражаются на покупках, – что и у кого покупают посетители[288]. В январе 2016 года Emotient была поглощена Apple[289].

Лондонская компания Realeyes также использует результаты исследований Экмана для оценки выражений лиц зрителей рекламных роликов на экранах своих компьютеров или на мониторах, установленных в общественных местах. Последнее, в частности, было проведено в рамках кампании под названием «Боязнь сцены» по заказу производителя электроники LG. Местом действия были мужские туалеты, где над писсуарами установили видеомониторы LG. При появлении человека реклама прерывалась, и на экране возникала женщина, которая как будто могла видеть происходящее в туалете. Камеры Realeyes наблюдали смену выражений на лицах мужчин – от смущения и испуга до восторга. Анализ показал также, что часть мужчин испытывали отвращение и в начале, и в конце видео[290]. Одна из конкурирующих компаний Affectiva, выделившаяся из состава Центра медиаисследований МТИ, занималась созданием системы эмоционального оповещения для людей с аутизмом, которым трудно определять значение выражений лиц окружающих[291]. Коммерческие заказчики поручали Affectiva замеры эмоциональной реакции на рекламу, а социологи пользовались ее услугами для оценки реакции зрителей на выступления политиков в теледебатах[292].

Выражения лиц – далеко не единственный источник сбора и анализа данных о человеческих эмоциях. Эмоции также проявляются и в тоне, громкости (силе), качестве звука, продолжительности и скорости человеческой речи[293]. Для создания одного из основных каталогов голосовых выражений эмоций ученые привлекли сотню актеров из пяти очень разных по культурным традициям англоязычных стран – Австралии, Кении, Индии, Сингапура и Соединенных Штатов. Актеры произносили простые тексты вроде чисел или дат с различной эмоциональной окраской[294].

Многие ученые считают, что подобные «постановочные» голосовые образцы не годятся для подготовки систем машинного обучения к успешной работе с обычной человеческой речью в режиме реального времени, поскольку актеры обучены придавать эмоциям излишнюю выразительность. В последних исследованиях для создания библиотек эмоций использовались огромные архивы телефонных переговоров колл-центров. Первичную информацию готовили сотрудники колл-центров, которым поручалось отмечать эмоциональное состояние собеседника и соответствующим образом обозначать аудиозапись разговора. Образцы раздраженной, безропотной, эмоционально напряженной или нейтральной речь, включая даже краткие реплики типа «а-а!», «о!», «ну!» или «оʼкей»[295], использовались для обучения систем распознавания речи. В некоторых случаях в качестве дополнительного подтверждения эмоционального состояния потребителя ему задавался вопрос об оценке качества сервиса[296].

Такие компании, как LiveOps и Mattersight, предоставляющие услуги колл-центров, используют программные средства определения окраски речи для обеспечения лучшей коммуникации между сотрудником и клиентом. У клиента заметный региональный акцент? Тогда его звонок нужно перенаправить сотруднику из этого региона, чтобы общение прошло на более доверительном уровне. Голос клиента при ответах на навигацию голосового меню звучит раздраженно? Тогда перенаправим его к сотруднице, лучше всех справляющейся с трудными проблемами и клиентами. Если, несмотря на все ее старания, клиент повышает голос и разговаривает все более резким тоном, уровень аудиенции может быть повышен до разговора с менеджером. В LiveOps контекст этих аудиозаписей дополняется информацией о жалобах клиентов, почерпнутых из социальных сетей и других источников[297]. Человек, сразу установивший контакт с работником колл-центра, может быть не настолько жестким в своей претензии, или его можно будет убедить купить товар или услугу. В Mattersight утверждают, что могут предоставлять еще более персонализированный сервис, соединяя сотрудника с клиентом на основе совпадения типа личности. Компания анализирует содержание и тональность предыдущих разговоров, классифицирует собеседников, например «общительный», «саркастичный», «серьезный», «застенчивый» и т. п., и направляет звонки сотрудникам, которым лучше удается общение с определенными типажами, что повышает уровень удовлетворенности клиентов[298]. Заказчиками компании являются медицинские, страховые и телефонные компании, постоянно работающие с людьми, и для них успешность общения оператора колл-центра с клиентом очень важны.

Кроме того, специально разработанные алгоритмы могут «говорить» за тех, кто не может делать это самостоятельно. Часто можно услышать, что родители умеют различать просьбы, которые выражает своим плачем младенец. Но в большинстве случаев это отнюдь не факт. И неудивительно: у родителей очень узкая выборка для анализа. И в этом состоит разница между людьми и машинами в построении моделей на основе взаимодействия с окружающей действительностью. Создатель образовательного стартапа Udacity Себастьян Трун, работавший также над развитием проекта беспилотных автомобилей Google, замечает, что водители-люди совершенствуются в вождении на собственном опыте, тогда как Google-кары учатся на ошибках, совершенных всеми Google-карами. Люди учатся в основном на собственных неудачах и удачах, дополнением к которым служит опыт людей их социального окружения. Кроме этого они могут воспользоваться советами экспертов. В отличие от них, машины могут получать знания об ошибках от всех остальных машин в своей сети[299].

Дмитрий Каневский и его коллеги из IBM запатентовали систему, обучающуюся на данных о деятельности мозга, сердца и легких младенцев и аудиозаписях их крика и плача. Иногда младенец плачет, чтобы привлечь внимание, иногда из-за одиночества, и обработка данных может помочь родителям лучше отслеживать эмоциональное состояние своего ребенка и принимать соответствующие решения[300].

В будущем выводы о наших эмоциях можно будет делать на основе менее явных признаков, чем выражение лица или громкость и интонация голоса. Такие фитнес-браслеты, как Fitbit, Withings Pulse и Garmin Vivo, регистрируют основные показатели жизнедеятельности, включая частоту пульса в состоянии покоя и активности, которые можно соотносить с появлением и нарастанием определенных эмоциональных состояний. Пульс может измеряться при помощи инфракрасных датчиков, подобных находящемуся на задней панели Apple Watch, улавливающих покраснение кожи при усилении пульсации крови в организме. Многие клиники используют инфракрасные камеры для мониторинга сердцебиения пациентов, поскольку они дают более точную картину, чем устройства, размещаемые на теле и могущие оторваться. Xbox использует инфракрасное излучение для слежения в режиме реального времени за уровнем физической активности игрока и определения уровня его увлеченности или скуки[301]. Эта информация используется для выдачи новых игровых задач, подобранных в соответствии с настроем играющего[302].

СОЦИАЛЬНАЯ СРЕДАВЛИЯЕТ НА НАШИРЕШЕНИЯ, НО ТО ЖЕСАМОЕ СПРАВЕДЛИВОИ В ОТНОШЕНИИФИЗИЧЕСКОЙ СРЕДЫ

Еще труднее скрывать свои эмоции на биохимическом уровне. Анализ крови может выявить биохимические показатели страха, стресса и переутомления, но их же можно получить и из анализа пота. По заказу министерства обороны США корпорация GE разработала беспроводной датчик под названием Fearbit, крепящийся на тело как лейкопластырь. На стороне, соприкасающейся с кожей человека, расположены наноструктуры, улавливающие отдельные биохимические элементы

Добавить отзыв
ВСЕ ОТЗЫВЫ О КНИГЕ В ИЗБРАННОЕ

0

Вы можете отметить интересные вам фрагменты текста, которые будут доступны по уникальной ссылке в адресной строке браузера.

Отметить Добавить цитату