союзе, например, обязательным является согласие пользователя на куки-файлы. Поскольку отказ от них ведет к потере части сетевой и мобильной функциональности, включая персонализацию, многие нажимают кнопку «принять» практически рефлекторно. Это не является информированным согласием. Подавляющее большинство людей беспечно соглашаются с условиями предоставления софта или услуг на сайте, не утруждая себя вникнуть или хотя бы прочитать написанное (например, у Apple это огромное соглашение на сорока четырех страницах). Детальные пояснения по протоколам эксперимента были бы столь же непонятны подавляющему большинству людей, как и алгоритмы, применяемые Facebook для генерирования новостной ленты пользователя. Стандарты информированного согласия при всей их благонамеренности безнадежно устарели.

Еще хуже то, что оповещение пользователей ставит под угрозу эксперимент как таковой. Если участник знает, что ученые изучают конкретный вопрос (например, «Как влияет эмоциональное содержание постов в Facebook на друзей автора?»), то его поведение в сети почти наверняка изменится, а причины этого будут исследователям непонятны. В случае предупреждения об исследованиях распространения эмоциональных состояний человек может чрезмерно заострять внимание на соответствующих окрасках контента и реагировать с повышенной симпатией или, напротив, цензурировать свои комментарии из опасения предоставить ученым слишком личные сведения.

Напротив, нужно настаивать на том, чтобы значимые результаты экспериментов сообщались участникам в доступной форме, и распространять информацию о ценности, которую представляют научные выводы для компании и для общества. Для целей большей прозрачности компании должны посвящать описаниям проведенных экспериментов как минимум страницу своих сайтов. Для более сложных экспериментов, особенно тех, в которые вовлекаются социальные контакты людей, можно предусмотреть и более серьезные варианты взаимодействия. Представьте себе, что, вместо того чтобы узнать об эксперименте с распространением эмоциональных состояний из новостей, пользователи, чьи новостные ленты изменялись в ходе исследований, получили бы письма непосредственно от Facebook с объяснением научной задачи и их роли в ее выполнении. К такому письму может быть приложен пост, который не дошел до пользователя, но был бы им получен, будь он включен в контрольную группу. В идеальном варианте при наличии интереса пользователи имели бы возможность применить методы исследования к собственной ленте новостей в режиме реального времени и понаблюдать за результатами. Такого рода раскрытие информации позволило бы пользователям осознать влияние, которое обработка информации оказывает на них и на их социальное окружение. Кроме того, это дало бы пользователям возможность выражать свой интерес к участию в подобных исследованиях в будущем[198].

Далее следует научиться извлекать пользу из исследований социального графа и их следствий. Например, как насчет сообщений Facebook о том, что по прочтении постов одного из знакомых ваш настрой улучшается и вы чувствуете воодушевление, тогда как беглое ознакомление с постом другого обычно ведет к снижению вашей продуктивности? Имея достаточное количество данных о колебаниях вашего настроения и степени эффективности, Facebook мог бы изменять настройки показа, чтобы способствовать достижению целей, запланированных вами на день. Вы могли бы установить приложение для регистрации своей производительности или настроения, которое в течение дня время от времени спрашивало бы вас о том, как вы себя чувствуете. С другой стороны, можно использовать носимое устройство типа Fitbit или Apple Watch, периодически считывающее основные показатели вашего самочувствия. Или можно предоставить Facebook доступ к камере телефона или ноутбука, чтобы отмечать, когда улыбка на вашем лице сменяется раздражительной гримасой в связи с пустой тратой времени на чтение постов ваших друзей. В обмен на такую информацию Facebook мог бы даже рекомендовать, с кем вам стоит проводить больше времени как онлайн, так и в реальной жизни.

Возможность наблюдать и оценивать масштабы распространения идей и настроений создает богатый материал для оценки «мнения масс» по важным вопросам, таким как состояние экономики страны или решения о военном вмешательстве. Результаты исследований распространения эмоциональных состояний могли бы также учитываться при пересмотре законодательства в связи с изменениями социальных норм. После легализации однополых браков Верховным судом США в июне 2015 года Facebook предложил своим пользователям опцию – применить радужный фильтр к своему фото в профайле в честь этого события[199]. Зайдя в Facebook на следующий день, я обнаружил, что этой опцией уже воспользовалась большая часть людей из моей новостной ленты. Я был приятно удивлен этому. Однако в целом фильтром воспользовались только около трех процентов пользователей Facebook[200]. Чтобы понять, с чем это связано, я обратился к исследованию части аудитории Facebook, за два года до этого заменявшей свои фото в профайлах на логотип с изображением красного знака равенства – в знак поддержки права на однополые браки. Я выяснил, что пользователи заменяли свое фото после того, как это делали некоторые из их друзей. Важной информацией было как само количество людей с логотипом вместо фото, так и картина того, насколько одни люди подвержены влиянию других.

Обычно люди не очень хорошо представляют себе порядок, в котором Facebook показывает им других пользователей. В основе этого порядка может быть оценка взаимного интереса, реклама новой функции, решение акцентировать внимание на тех, кто создаст больше контента, некий А/В-эксперимент, а возможно, и политическая акция, как в случае с радужным фильтром. Кроме того, когда посетители заходят в таймлайн пользователя, им показывают выборку друзей, отличную от той, которую видит сам этот пользователь. Возможно, Facebook считает, что именно эти люди будут представлять больший интерес для гостя? Сам Facebook об этом умалчивает, а мы не можем контролировать даже то, в каком порядке наших друзей показывают нам, не говоря уже о других людях.

«Реконструкция «социальной» и «агитационной» рекламы, призывающей голосовать на выборах, которую показывали пользователям Facebook в день выборов в 2010 году. По данным статьи «A 61-Million-Person Experiment in Social Influence and Political Mobilization» by Robert M. Bond, Christopher J. Fariss, Jason J. Jones, Adam D. I. Kramer, Cameron Marlow, Jaime E. Settle, and James H. Fowler; журнал Nature, vol. 489 (September 13, 2012)».

Если бы компания Facebook захотела повлиять на политику страны, она могла бы приоритезировать посты, выражающие «предпочтительную» точку зрения. Как отмечает преподаватель права и информатики Гарвардского университета Джонатан Зиттрейн, в Facebook уже экспериментировали со «строительством гражданского общества», когда настраивали людей голосовать на выборах в конгресс в 2010 году. Почти все совершеннолетние пользователи-американцы получили напоминания о том, что нужно посетить избирательный участок. Одна из групп получила «социальную» рекламу в виде сообщений с именами и фото уже проголосовавших друзей. Другая, не столь многочисленная, группа получила «информационное сообщение» о дате выборов без каких-либо упоминаний о друзьях. Реакцию этих экспериментальных групп сопоставляли с контрольной, не получавшей от Facebook никаких извещений о выборах[201]. Воздействие сообщений измерялось по трем параметрам: сколько людей кликнули кнопку для

Добавить отзыв
ВСЕ ОТЗЫВЫ О КНИГЕ В ИЗБРАННОЕ

0

Вы можете отметить интересные вам фрагменты текста, которые будут доступны по уникальной ссылке в адресной строке браузера.

Отметить Добавить цитату