Научный эксперимент Facebook на пользователях показал, что компания обладает еще большей властью и еще меньше заботится об этике, чем мы думали.
Дэвид Холмс
Если вы еще не знали, с каким презрением Facebook относится к своим пользователям, то теперь вам откроется отвратительная правда.
В докладе, опубликованном на Слушаниях Национальной академии наук (PNAS), говорится о том, что статистики Facebook провели эксперимент по манипуляции эмоциями более 700 000 пользователей, чтобы узнать, настолько ли заразительны положительные и отрицательные эмоции в социальных сетях, насколько в реальном мире. Внеся изменения в мощный алгоритм ленты новостей Facebook, они сделали так, что некоторые пользователи (назовем их "подопытными кроликами") видели меньше постов с позитивными словами. Другие же видели меньше постов с негативными словами. "При снижении позитивных выражений, - говорится в докладе, - люди писали меньше позитивных постов и больше негативных; при снижении негативных выражений наблюдался противоположный эффект. Эти результаты показывают, что эмоции, которые чувствуют другие люди на Facebook, влияют на наши собственные эмоции, что экспериментально доказывает массовую заражаемость через социальные сети".
Результаты никого не должны удивлять. Удивляет и беспокоит другое: власть, которой обладает Facebook над эмоциями пользователей, и готовность употребить эту власть в отношении ничего не подозревающих участников. Во-первых, с каких пор стало нормальным проводить эксперименты по социальному поведению на людях без их ведома? С формальной точки зрения, как говорится в докладе, пользователи согласились на этот опыт, когда согласились с "Политикой использования данных Facebook" при регистрации, так что Facebook действовал не незаконно. Но это, несомненно, неэтично.
Более того, манипуляция пользовательскими эмоциями в цифровом пространстве несет с собой пугающие последствия. В реальном мире, если ваше окружение несет в себе слишком много негатива, решение очень простое: найти новое окружение. Но на Facebook, если компания захочет скормить вам больше негативных эмоций, такой номер не пройдет - если, конечно, вы не уничтожите свой аккаунт. Главная задача алгоритма ленты новостей, по словам Facebook, - чтобы выдача соответствовала желаниям и интересам пользователя. Естественно, когда Facebook хочет провести эксперимент над своими пользователями, про эту задачу забывают.
Но дикость ситуации даже в другом. Эти исследования были обнаружены не в результате журналистского расследования: сотрудники Facebook сами сообщили о них в PNAS. Хуже того, правильность методологии вызывает сомнения. Чтобы определить "положительные" и "отрицательные" слова, исследователи пользовались методикой под названием Linguistic Inquiry and Word Count, или LIWC. Но даже сами создатели LIWC признают, что достоверность методики в применении к "естественному языку" (например, статусу в Фейсбуке) "под вопросом". Надежность LIWC в основном тестировали на научных работах, где заметно больше повторений, чем в естественном языке.
Может быть, я пересмотрел сериала "Черное зеркало", но я просто не могу не задумываться о возможном злоупотреблении такой властью. Методики психологической борьбы, например, доведение до умопомешательства, уже давно используются правительственными агентствами, чтобы расшатать психику политических диссидентов и других нежелательных личностей. Учитывая, что связи между правительственными организациями и техническими компаниями все усиливаются (а мы уже видели, как Facebook подчиняется требованиям правительства), что помешает АНБ изменить содержание ленты новостей жертвы таким образом, чтобы она от этого сошла с ума? Это не так и сложно: если, открывая Facebook, вы все время будете видеть только своих бывших девушек, старых друзей, добившихся большего успеха, чем вы, и политические тирады членов семьи, вполне можно лишиться рассудка.
Правительству даже не обязательно в это лезть: Facebook может и самостоятельно "работать" с определенными пользователями - например, представителями компаний-конкурентов или нынешними/бывшими сотрудниками. Настолько мощный психологический контроль над рабочей силой, несомненно, будет выгоден. А если Facebook поймают с поличным? Компания, конечно же, заявит, что это просто социальный эксперимент, на который пользователи дали молчаливое согласие при регистрации.
На Facebook ежедневно заходит десятая часть населения Земли; сейчас, когда мы знаем, какое эмоциональное воздействие оказывают алгоритмические манипуляции компании, возможности для социальной инженерии широки, как никогда. Нет, ясное дело, что, скорее всего, Facebook просто хочет убедить людей покупать еще больше всякой фигни, чтобы рекламодатели остались довольны, но потенциальное применение этой власти для того, чтобы влиять на результаты выборов или на всемирную торговлю, может привлечь самые разные группы влияния.
Или, может быть, я просто параноик. Эй, Facebook, сделаешь мне в ленте побольше позитива, чтобы хотя бы выходные радовали?