Пузырь фильтров

Перейти к навигацииПерейти к поиску
Пузырь фильтров: различия при поиске

Пузы́рь фи́льтров, Информационный пузырь (англ. «Filter bubble») — понятие, разработанное интернет-активистом Илаем Парайзером (англ. Eli Pariser) и описанное в его одноимённой книге: негативная сторона персонализированного поиска, явления, при котором веб-сайты определяют, какую информацию пользователь хотел бы увидеть, основываясь на информации о его месторасположении, прошлых нажатиях и перемещениях мыши, предпочтениях и истории поиска. В результате веб-сайты показывают только информацию, которая согласуется с прошлыми точками зрения данного пользователя. Вся иная информация, как правило, пользователю не выводится.

Примером этого являются Google и другие поисковые системы с персонализированными результатами поиска, а также Facebook с персонализированной лентой новостей, которая с каждым действием пользователя наполняется всё более и более персональными результатами. Так, если у пользователя есть два друга в социальной сети, один делает посты с поддержкой президента, а другой с его критикой, и пользователь делится первыми, а вторые игнорирует, то постепенно в его ленте будут появляться посты со всё более ярко выраженной высокой оценкой президента. Соответственно, он получает намного меньше противоречащей своей точке зрения информации и становится интеллектуально изолированным в своём собственном информационном пузыре.

Илай Парайзер приводит пример, когда один пользователь искал информацию в Google по запросу «British Petroleum» и в ответ получил только инвестиционные новости о компании British Petroleum; когда другой пользователь отправил такой же запрос, то получил в ответ информацию о взрыве нефтяной платформы Deepwater Horizon, и эти страницы с результатами поиска «разительно отличались» между собой[1][2][3]. Эффект «пузыря» может иметь негативные последствия для формирования гражданского мнения[4].

Как сказал бывший глава Google Эрик Шмидт: «Людям будет очень сложно увидеть или приобрести что-то, что так или иначе не было под них подобрано»[5].

Источники информации для поисковых систем

  • Марка и тип персонального компьютера
  • Операционная система
  • Местоположение пользователя
  • Возраст пользователя
  • Язык пользователя
  • Также, если операционная и поисковая системы принадлежат одной и той же компании (например, Google и Android, Bing и Windows), то учитывается огромное число персональных данных пользователя: файлы, приложения; браузер Google Chrome также собирает огромное число персональных данных пользователя
  • Браузер
  • Другие сервисы (например, Google может собрать обильную информацию из социальной сети Google+, интересов в Google Новостях, фотографиях в Google Фото и Picasa, чата Hangouts, файлов на Google Диске и. т. п.
  • История поисковых запросов
  • История просмотров сайтов
  • Другие открытые вкладки в браузере

Критика

Парайзер в своей книге «The Filter Bubble» предупреждает, что потенциальным недостатком фильтрации поисковых запросов является то, что она «закрывает нас от новых идей, предметов и важной информации»[6] и «создаёт впечатление того, что наши узкие собственные интересы и есть всё, что существует и окружает нас»[2]. Это приносит потенциальный вред как для личности, так и для общества в целом. Парайзер раскритиковал Google и Facebook за предоставление пользователям «слишком много сладкого, но ничего полезного»[7]. Он предупреждает, что этот «невидимый алгоритм редактирования в сети» может «ограничить получение новой информации и сузить рамки разнообразия этой информации». Согласно Парайзеру, вредное воздействие от «пузыря фильтров» включает вред в обществе в целом, так как он может подрывать формирование «гражданского мнения» и делать людей более уязвимыми для «пропаганды и манипуляций»[2].

Директор по продукту Facebook Крис Кокс говорит: «Основная масса контента, который вы видите на Facebook, производится вашими „слабыми связями“, пользователями, с которыми вы не взаимодействуете вне соцсети. Наши исследования не доказывают, что Facebook создаёт пузырь фильтров, зато предоставляют некоторые свидетельства обратного»[8].

«Парадокс релевантности»

Пузырь фильтров похож на явление, в котором люди и организации ищут информацию, которая изначально кажется им правильной, но она оказывается бесполезной или почти бесполезной, и избегают информации, кажущейся и воспринимаемой ими как неправильная и несущественная, но оказывающейся полезной.

Проблема появляется потому, что реальная значимость конкретного факта или понятия в этих случаях очевидна только после того, как этот факт стал известен. До этого идея изучения была отклонена, потому что какой-либо факт был неправильно воспринят. Соответственно, ищущий информацию попадает в ловушку и не может узнать то, что ему действительно нужно, попадая в своего рода информационное слепое пятно. Этот феномен был назван «парадоксом релевантности»[6]; он часто встречается на протяжении всего человеческого интеллектуального развития и является важной проблемой для науки и образования. Дэвид Эндрюс в книге «The IRG Solution» анализирует эту проблему, а также предлагает общее её решение.

Возможность отключения персонализированного поиска

После выхода книг и статей Парайзера, часть пользователей интернета стала возмущаться тем, что один и тот же, казалось бы, поисковик выдаёт всем различные результаты. Поэтому, большинство современных поисковых систем дают возможность регулировки результатов поиска: в Google зарегистрированным пользователям возможно одновременно смотреть персональные и общие результаты с помощью специальной кнопки, находящейся справа от результатов поиска; в Яндексе можно или навсегда включить, или навсегда отключить персональный поиск; в Bing можно пока только очистить историю просмотра.

Поисковая система DuckDuckGo вообще не использует пузырь фильтров и не собирает информацию о пользователях. Она позиционирует себя как использующую информацию из многих источников с целью предоставления более точных, актуальных и разнообразных результатов поиска, чем обычные поисковики.

См. также

Примечания

  1. Lynn Parramore (interviewer) Eli Pariser (subject) (2010-10-10). "The Filter Bubble". The Atlantic. Архивировано 22 августа 2017. Дата обращения: 20 апреля 2011. Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill.... {{cite news}}: |author= имеет универсальное имя ()
  2. 1 2 3 Jacob Weisberg (2011-06-10). "Bubble Trouble: Is Web personalization turning us into solipsistic twits?". Slate Magazine. Архивировано 12 июня 2011. Дата обращения: 15 августа 2011.
  3. Doug Gross, CNN (2011-05-19). "What the Internet is hiding from you". CNN. Архивировано 7 февраля 2012. Дата обращения: 15 августа 2011. I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all. {{cite news}}: |author= имеет универсальное имя ()
  4. Zhang; Séaghdha, Quercia, and Jambor. Auralist: Introducing Serendipity into Music Recommendation (англ.) // ACM WSDM : journal. — 2012. — February. Архивировано 15 мая 2012 года.
  5. Вред и отключение пузыря фильтров. Дата обращения: 16 июня 2016. Архивировано 7 августа 2016 года.
  6. 1 2 "First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser". USA Today. 2011. Архивировано 3 мая 2011. Дата обращения: 20 апреля 2011. Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.
  7. Bianca Bosker (2011-03-07). "Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns". Huffpost Tech. Архивировано 9 декабря 2012. Дата обращения: 20 апреля 2011. When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.
  8. Facebook отрицает пузырь фильтров. Дата обращения: 17 июня 2016. Архивировано 14 августа 2016 года.

Литература

Ссылки