«Черное зеркало» наоборот: как технологии сделают людей добрее

фото eltiempo.com
фото eltiempo.com

Боты-опекуны и подкасты для эмпатии.

Журналистка Кэйтлин Уголик Филлипс несколько лет общалась с создателями «человечных» приложений – VR-фильмов о войне в Сирии, чат-ботов, способных распознать у собеседника депрессию и программ, которые учат детей эмпатии. По итогам этих интервью она выпустила книгу «Будущее чувств: как построить эмпатию в мире, одержимом технологиями» (The Future of Feeling: Building Empathy in a Tech-Obsessed World). На смену технологиям, пробуждающим в нас худшие импульсы, приходят сервисы, которые делают нас лучшими версиями себя: пересказываем самое главное.

Фрагмент обложки
Фрагмент обложки

Эмпатия бывает двух типов: когнитивная (когда мы понимаем, какие переживания испытывает другой человек) и аффективная (когда мы переживаем вместе с ним). В 2018 году компания PsychTests оценила связь уровня эмпатии у 9 тысяч человек с 31 параметром – их моральной устойчивостью, способностью решать конфликты, выражать свои чувства и т.д. Люди, которые считают себя эмпатами – то есть способными активно сопереживать другим людям – оказались более счастливыми, мотивированными, оптимистичными. Не-эмпаты получили более высокий результат только по одному параметру: «стремление к чужому одобрению». Неудивительно, что соцсети, где стремление к одобрению выражено в их главных функциях – «лайк» и «поделиться», – быстро стали весьма неуютным местом.

Даже несуществующий пользователь соцсети может нас разозлить. Мелани Грин из Университета штата Нью-Йорк в Буффало пришла к выводу, что людям эмоционально сложно обсуждать вопросы, по которым нет общего консенсуса. Например, американцы в целом поддерживают права ветеранов и могут говорить на эту тему цивилизованно; другое дело – обсуждение использования стволовых клеток. Грин озвучивала простую или противоречивую тему, после чего просила человека оценить сгенерированное компьютером лицо «собеседника». Лица, показанные после противоречивых вопросов (например, вопрос легализации гей-браков), казались людям более угрожающими. Неудивительно, что мы так легко ввязываемся в споры даже с незаполненными фейковыми аккаунтами.  

TikTok не помогает коммуницировать. Учителя младших зумеров (т.е. тех, кто рожден в конце прошлого десятилетия) жалуются, что дети, постоянно использующие приложения вроде Musical.ly, с трудом общаются друг с другом без смартфона. Кроме того, при переписке или использовании приложений для обмена фотографиями они ставят количество сообщений превыше их содержания – это стремление к непрерывному самовыражению даже закреплено в функции streaks в Snapchat – она мотивирует пользователя не давать своему аккаунту простаивать.

Эмпатия в среде подростков снижается. В 2010 году Сара Конрат из Университета Мичигана проанализировала ответы 14 тысяч учеников колледжей и пришла к выводу, что их уровень эмпатии на 40% ниже, чем был у людей того же возраста в 1979 году. При этом исследовательница не пришла к выводу, что всему виной технологический бум, но журналисты быстро подхватили тему и обвинили корпорации в зомбировании детей. Впрочем, у такой теории есть свои сторонники в академической среде. Шерри Теркл из Массачусетского технологического института насторожилась задолго до появления соцсетей, когда заметила, как в 90-х дети обращались с игрушками «Ферби» – говорящими роботами, похожими на птенцов. Дети часто воспринимали их как живых существ, но при этом запросто могли сломать.

Технологии приходится перекраивать из-за злоупотреблений. Бриса Айюб, экс-продюсер образовательного контента в компании Common Sense Media, рассказывает, что им приходится менять условия использования своих продуктов с учетом новых лазеек, которые находят дети. Они перенимают у взрослых и друг у друга новые формы буллинга. Среди них типично играть на FOMO ровесников (fear of missing out – страх пропустить что-то интересное): дети не приглашают одноклассников на праздник, а потом в соцсетях отмечают их на фотографиях с мероприятия. Даже заветный «лайк» становится инструментом давления, когда кто-то проходится по чужой странице, ставя его под каждым постом – это сигнализирует: «я слежу за тобой».

Но соцсети – это также инструменты для «воспитания чувств». Причем воспитывать можно не только школьников. Так, Youtube-блогер Дилан Мэррон прославился роликами с распаковкой – только вместо покупок он «распаковывал» понятия вроде токсичной маскулинности. У Мэррона быстро появился пул личных хейтеров, которые в комментариях желали ему смерти. Тогда он решил лично пообщаться с кем-то из них и дал одному из комментаторов свой номер телефона. «Как ты помнишь, я – кусок дерьма», – начал он. «Я должен взять свои слова обратно. Я не собирался тебя так называть», – ответил собеседник. Так звучит подкаст Мэррона «Беседы с людьми, которые меня ненавидят». Блогеру не удается переубедить всех, но почти с каждым гостем он ведет цивилизованный разговор. А всего-то нужно было – перейти из анонимного пространства к беседе один на один.

Дилан Мэррон, фото Twitter
Дилан Мэррон, фото Twitter

Подкасты сами по себе провоцируют эмпатию. И дело не только в том, что они рассказывают истории (а люди, которые читают или слушают больше историй, получают больше очков в тестах на эмпатию). Эксперимент Калифорнийского университета продемонстрировал, что голоса людей вызывают в нас больше сочувствия, чем их же речь в письменной форме. Людям предлагали прочитать, прослушать и посмотреть монологи на сложные темы вроде абортов или войны в Афганистане. Оказалось, что самыми человечными испытуемым казались спикеры, которых они только слышали. То же самое работало с голосами кандидатов в президенты США в 2016 году – не видя говорящего, люди воспринимали его как более приятного и умного человека, даже если были не согласны с его программой. В другом исследовании люди слышали или видели, как две женщины друг друга передразнивают: аудио вызвало больше сочувствия, чем аудио плюс видео. В голосе есть нечто, что провоцирует эмпатию в большей степени, чем наблюдение за выражениями лиц – и тем более чем чтение текста. Но ряд стартапов хочет сделать и текстовые дискуссии человечнее.

Нейросети помогут «глубже» прочесть текст. Так, приложение Faciloscope использует алгоритм, который выделяет в предложениях три базовых «риторических паттерна»: постановка (когда люди задают правила для беседы), взывание (когда указывают на отношения между участниками беседы) и приглашение (когда просят что-то прокомментировать или задают вопрос). Проанализировав с помощью Faciloscope первый попавшийся спор из Facebook о цензуре в библиотеках, журналистка увидела, что львиную долю диалога (69%) занимало установление правил. Это практически не оставило места для реального обмена мнениями. Неудивительно, что наши споры в соцсетях так непродуктивны.

Алгоритм определит, в какой момент диалог перестает быть культурным. Похожий инструмент для понимания структуры онлайн-бесед разработала Google – он называется Perspective API. Исследователи из Корнеллского университета применили его для анализа 1270 обсуждений в Википедии, которые из цивилизованных бесед скатились в обмен оскорблениями. Затем они сравнили их с обсуждениями на те же темы, которые не превратились в «срачи». Выяснилось, что если первый комментарий под темой начинался со слов «ты/вы», слов благодарности или с прямого вопроса по теме, то у дискуссии было гораздо меньше шансов сойти с рельс. И дело не в том, что люди соглашались друг с другом – они могли спорить, но активная заинтересованность в чужом мнении не оставляла места для оскорблений.

Еще один инструмент для изучения эмпатии – игры. Институт будущего (IFTF) в Пало-Альто разработал многопользовательскую игру Face the Future, нацеленную на подростков. Игра рассказывает, что в будущем изобретут девайс FeelThat, транслирующий эмоции человека другим людям – он измеряет уровень гормонов и модуляции голоса, после чего окружающие могут физически почувствовать то, что чувствует владелец FeelThat. В IFTF предложили школьникам придумать утопические и дистопические сценарии того, как люди используют такую вещь. Часть пользователей сочли, что FeelThat поможет сблизить людей – например, он «заставит Трампа почувствовать то, что чувствует эмигрант из Мексики». Но другие задались вопросом: не породит ли девайс новые поводы для дискриминации – на почве эмоций? И не сможет ли государство активнее следить за гражданами на основе данных, полученных от такой программы? Школьники, по сути, озвучили то же, что говорят техно-энтузиасты во всем мире: технологии сами по себе не закладывают в нас плохие или хорошие черты – они лишь эксплуатируют уже существующие привычки.

Существуют «эмпатичные» игры и для младших школьников. Компания Tinybop создает приложения для самых маленьких; к примеру, игра Homes позволяет виртуально посетить дома разных народов мира, от американского бунгало до монгольской юрты. Если ребенок включит веб-камеру, то во время исследования незнакомого дома увидит себя в зеркале и задумается о том, что на другом конце земли живут, в сущности, такие же дети. Компания получила теплый отзыв от семьи мусульманских эмигрантов из Йемена. Их младшая дочь хотела показать новым друзьям в США, как жила на родине, но интернет выдавал по запросу «дома в Йемене» сплошные разрушенные войной жилища. В программе Homes она нашла современный йеменский дом, похожий на свой, и впервые смогла гордиться интересом сверстников к своей родине. Игра Random App of Kindness, в свою очередь, позволяет ребенку виртуально помочь человеку или животному. Как выяснилось на примере 106 испытуемых в возрасте от десяти лет, после двух месяцев ее использования они были более склонны помогать окружающим в реальной жизни.

Виртуальная реальность – это «машина эмпатии». Так технологию назвал режиссер Крис Милк на конференции TED в 2015 году. Милк создал VR-фильм «Тучи над Сидрой», в котором зритель переносится в центр сирийского лагеря для беженцев. Фильм показали на форуме в Давосе, и реакция мировых лидеров показалась режиссеру впечатляющей. Когда ООН начала использовать VR для того, чтобы переносить людей в бедные страны, количество пожертвований увеличилось вдвое. Появились также VR-фильмы, объясняющие последствия Холокоста, климатического кризиса и расового неравенства. В одном фильме вы сможете побыть на месте темнокожего подростка, которого без повода досматривает полиция. В другом – на месте девушки, которая приходит делать аборт и подвергается оскорблениям митингующих («лучше бы твоя мать сделала аборт!» Центр цифровой журналистики Колумбийского университета пришел к выводу, что VR-погружение не только вызывает более эмоциональный отклик, чем фото или видео, но и чаще заставляет зрителя совершить конкретный поступок после просмотра – например, оформить пожертвование.

Но VR создает и пространство для манипуляций. Марку Цукербергу пришлось извиняться за неудачную идею с VR-прогулкой по Пуэрто-Рико после урагана Мария: на сцены разрушения был наложен мультяшный аватар Цукерберга, который объяснял происходящее, и для многих зрителей его комментарии звучали саркастично. Очки с дополненной реальностью от Epson Moverio могут показать работнику завода, что будет, когда он совершит определенное действие: с одной стороны, создатели очков смогли поставить себя на место работника и помочь ему, но с другой – начальник тоже сможет «поставить себя на его место» и эксплуатировать подчиненного с удвоенной силой (например, подталкивать к нарушению техники безопасности, которая не «прописана» в очках). Критике подвергся даже VR-фильм лауреата «Оскара» Алехандро Гонсалеса Иньярриту «Плоть и песок», посвященный иммигрантам – его назвали манипулятивным, одновременно чересчур нагнетающим обстановку (в нем представлены все темные стороны миграционного контроля) и при этом нереалистичным – например, можно пройти через виртуального персонажа и увидеть его бьющееся сердце.

Эмпатия становится маркетинговым трюком и обязательной частью корпоративной культуры. Британская фирма The Empathy Business и издание Harvard Business Review создают рейтинги компаний с наивысшим уровнем эмпатии (Facebook, Google, LinkedIn и Netflix регулярно занимают в них первые места). Оценивается не только отношение руководства к проблемам дискриминации или харассмента, но и способность организовать совместную работу, при которой сотрудники будут прислушиваться к чужим эмоциям, а не «подсиживать» коллег. В 2016 году 20% американских работодателей ввели курсы «обучения эмпатии» для своего менеджмента.

«Тренинг по эмпатии» – обычное дело в крупных компаниях. Трансгендерная предпринимательница Натали Иган основала стартап Translator, который изначально задумывался как соцсеть для трансгендерных людей. Но многие потенциальные инвесторы попросту не понимали, чем опыт таких пользователей отличается от всех прочих. Тогда Иган сделала Translator приложением, которое «переводит» опыт одной группы людей на общепонятный язык. Стартап использует чат-ботов и VR-технологии, чтобы сотрудники клиентских компаний (включая гигантов вроде McKinsey & Co) могли лучше понять трудности, с которыми сталкиваются в бизнесе женщины и меньшинства. Поскольку приложение анонимно, никто не будет чувствовать себя униженным, как во время «парада привилегий» – типичного корпоративного тренинга, когда HR просит шагнуть вперед людей, которые родились в обеспеченной семье, не являются эмигрантами и т.д.

Сотрудников даже набирают, исходя из их склонности к эмпатии. Например, гостиничная сеть Hyatt Hotels активно использует искусственный интеллект в общении с клиентами, но все равно нуждается в реальных людях, когда нужно решить возникшую проблему. Нанимая новых сотрудников, Hyatt предлагает им пройти игру, разработанную компанией Pymetrics, которая помогает выявить необходимые гибкие навыки. А компания Fidelity Invetments улучшает свой клиентский сервис с помощью VR-симуляции, в которой сотрудник колл-центра может виртуально посетить «дом» звонящего и лично увидеть, как тот живет, и как решение компанией его вопроса повлияет на его быт.

Бот Ellie, фото USC Institute for Creative Technologies
Бот Ellie, фото USC Institute for Creative Technologies

Боты уже заменяют терапевтов: например, Ellie на экране имеет вид спокойной брюнетки в кардигане. Она общается с солдатами и обнаруживает у них признаки посттравматического расстройства. Это часть более крупного проекта SimCoach – интерактивной программы реинтеграции ветеранов. Те, кто прошел сеанс с «Элли», оказывались более открытыми при дальнейших, уже не анонимных консультациях с врачами. Вероятно, дело в том, что она человечна, но не слишком похожа на человека, что позволяет людям спокойно открывать ей душу. Робот не вызывает у человека такой прилив эмпатии, как другой человек, но и не воспринимается как полностью бездушный автомат: так, исследование 2012 года выяснило, что 98% детей не хотели, чтобы другого человека закрыли в шкафу, 100% были не против того, чтобы в шкафу заперли обычную метлу, но 46% не хотели, чтобы такому наказанию подвергли робота Robovie. Разработчики прекрасно понимают наши слабости и в 2019 году даже представили специального робота для обнимашек Lovot.

Бот может помочь родителям стать лучше. Вивьен Мин изобрела Muse – приложение, которое изучает отношения родителей с детьми и присылает пуш-уведомления с предложениями о том, чем можно заняться вместе – например, устроить конкурс бумажных самолетиков или разобраться, как работает сантехника в ванной. Если ребенок будет постоянно проигрывать, приложение посоветует маме дать ему выиграть. Родителям все сложнее продемонстрировать модель эмпатии детям, которые много времени проводят онлайн, так что Muse становится палочкой-выручалочкой – программа отслеживает пятьдесят когнитивных конструкций и знает, какие из них лучше всего развивать в определенном возрасте ребенка.

Наконец, бот может поддержать в трудную минуту. Чат-бот Replika появился после того, как умер лучший друг его разработчицы Евгении Куйды. Она загрузила в ИИ все сообщения, которые ей присылал покойный, и его сообщения, которые ей переслали общие друзья. Получившееся приложение не слишком напоминает общение с другим человеком, но оно прекрасно подходит для рефлексии: вы делитесь чем-то с Replika, а бот задает наводящие вопросы, которые помогают вам лучше понять себя. Приложение заново учит вас говорить с собой так, как вы говорили бы с другом, ребенком или с любимым щенком – только с небольшой помощью алгоритма.

Но цифровой self-help не всегда обезличен. Так, Роберт Моррис давно привык привлекать посторонних к решению своих проблем: записывая свои наблюдения и сложности, он присылал их незнакомцам через аутсорсинговую платформу Amazon Mechanical Turk, где за несколько центов люди оценивали его действия и иногда позволяли взглянуть на ситуацию по-новому. Так у него родилась идея сервиса Koko, в котором люди будут обсуждать проблемы друг друга и виртуально подставлять дружеское плечо. Иногда достаточно написать незнакомцу: «все будет хорошо». Алгоритм Koko был куплен компанией Airbnb для их собственных ИИ-разработок, а Tumblr внедрила Koko в свою платформу, так что если пользователь искал что-то по тегам вроде «депрессия» или «суицид», сайт предлагал им воспользоваться Koko – «анонимным сообществом неравнодушных людей».

Искусственный интеллект не имеет злых намерений, но он способен отражать наши злые побуждения. И он точно так же способен отразить нашу эмпатию – так что все дело за людьми.