Премия Рунета-2020
Россия
Москва
+15°
Boom metrics
Умные вещи30 июня 2014 9:00

Facebook провел тайный психологический эксперимент над людьми

Это вызвало грандиозный скандал в СМИ и соцсетях, однако представители компании объясняли, что исследование было проведено на благо пользователей
Facebook провел тайный психологический эксперимент над людьми

Facebook провел тайный психологический эксперимент над людьми

Фото: REUTERS

Страшный скандал, в котором оказалась замешана социальная сеть Facebook разразился в США. Выяснилось, в компании провели психологический эксперимент с 600 тысячами пользователями соцсети, при этом они ничего не знали о нем.

Специалисты провели случайную выборку более полумиллиона пользователей и разделили их на две группы. В ленте одних появлялось больше позитивных новостей, у других – больше негативных. Затем вычислялась эмоциональная характеристика сообщений испытуемых, - сообщает The Telegraph.

Эксперимент показал, что социальные сети воздействуют на мышление и эмоции человека.

Адам Крамер, специалист по изучению данных в Facebook и автор эксперимента, пояснил, что манипуляция затронула лишь 0,04 процента пользователей соцсети и лишь в течение одной недели 2012 года. По его словам, исследование проводилось с целью выявить эмоциональные механизмы, которые заставляют пользователей не заходить в Facebook, и сделать ленту более «релевантной и вдохновляющей».

«Написав и придумав этот эксперимент самостоятельно, я могу сказать, что нашей целью не было расстроить кого-либо. Я понимаю, почему у некоторых людей возникли проблемы с ним, и вместе с моими соавторами я извиняюсь за то, как опыт был описан и за беспокойство, вызванное им. Оглядываясь назад, я понимаю, что исследование не стоило таких последствий» - заявил автор эксперимента Адам Крамер.

Как пишет The Atlantic, помимо связи количества негативных постов за авторством пользователя с общим настроем его ленты эксперимент выявил и другие тенденции. Например, снижение количества записей обоих типов, негативных и позитивных, приводило к тому, что человек значительно реже начинал писать в Facebook.

Кроме того, оказалось программное обеспечение, использованное для анализа записей, предназначено скорее для больших текстов, нежели для коротких заметок. Если человеческий наблюдатель посчитал бы фразы «I'm not happy» («Я несчастен») и «I'm not having a great day» («У меня плохой день») строго негативными, то алгоритм LIWC 2007 выдал бы им нейтральный рейтинг: по два очка за слова «great» и «happy», и минус два очка за каждое «not».

После публикации журнала Proceedings of the National Academy of Sciences, раскрывшей подробности о масштабном эксперименте Facebook, известные защитники приватности подняли панику в сети. С разных сторон начали появляться призывы удалиться из Facebook из-за этого «пугающего» исследования.

Однако, в компании заявили, что с юридической точки зрения все было законно, так как каждый пользователь социальной сети подписывается под условиями пользовательского соглашения, в соответствии с которыми компания имеет право изменять содержимое сайта по своему усмотрению, в том числе изменять алгоритмы выдачи релевантной ленты сообщений на стене.