Пузырь фильтров
Пузы́рь фи́льтров, Информационный пузырь (англ. «Filter bubble») — понятие, разработанное интернет-активистом Илаем Парайзером (англ. Eli Pariser) и описанное в его одноимённой книге: негативная сторона персонализированного поиска, явления, при котором веб-сайты определяют, какую информацию пользователь хотел бы увидеть, основываясь на информации о его месторасположении, прошлых нажатиях и перемещениях мыши, предпочтениях и истории поиска. В результате веб-сайты показывают только информацию, которая согласуется с прошлыми точками зрения данного пользователя. Вся иная информация, как правило, пользователю не выводится.
Примером этого являются Google и другие поисковые системы с персонализированными результатами поиска, а также Facebook с персонализированной лентой новостей, которая с каждым действием пользователя наполняется всё более и более персональными результатами. Так, если у пользователя есть два друга в социальной сети, один делает посты с поддержкой президента, а другой с его критикой, и пользователь делится первыми, а вторые игнорирует, то постепенно в его ленте будут появляться посты со всё более ярко выраженной высокой оценкой президента. Соответственно, он получает намного меньше противоречащей своей точке зрения информации и становится интеллектуально изолированным в своём собственном информационном пузыре.
Илай Парайзер приводит пример, когда один пользователь искал информацию в Google по запросу «British Petroleum» и в ответ получил только инвестиционные новости о компании British Petroleum; когда другой пользователь отправил такой же запрос, то получил в ответ информацию о взрыве нефтяной платформы Deepwater Horizon, и эти страницы с результатами поиска «разительно отличались» между собой[1][2][3]. Эффект «пузыря» может иметь негативные последствия для формирования гражданского мнения[4].
Как сказал бывший глава Google Эрик Шмидт: «Людям будет очень сложно увидеть или приобрести что-то, что так или иначе не было под них подобрано»[5].
Источники информации для поисковых систем
- Марка и тип персонального компьютера
- Операционная система
- Местоположение пользователя
- Возраст пользователя
- Язык пользователя
- Также, если операционная и поисковая системы принадлежат одной и той же компании (например, Google и Android, Bing и Windows), то учитывается огромное число персональных данных пользователя: файлы, приложения; браузер Google Chrome также собирает огромное число персональных данных пользователя
- Браузер
- Другие сервисы (например, Google может собрать обильную информацию из социальной сети Google+, интересов в Google Новостях, фотографиях в Google Фото и Picasa, чата Hangouts, файлов на Google Диске и. т. п.
- История поисковых запросов
- История просмотров сайтов
- Другие открытые вкладки в браузере
Критика
Парайзер в своей книге «The Filter Bubble» предупреждает, что потенциальным недостатком фильтрации поисковых запросов является то, что она «закрывает нас от новых идей, предметов и важной информации»[6] и «создаёт впечатление того, что наши узкие собственные интересы и есть всё, что существует и окружает нас»[2]. Это приносит потенциальный вред как для личности, так и для общества в целом. Парайзер раскритиковал Google и Facebook за предоставление пользователям «слишком много сладкого, но ничего полезного»[7]. Он предупреждает, что этот «невидимый алгоритм редактирования в сети» может «ограничить получение новой информации и сузить рамки разнообразия этой информации». Согласно Парайзеру, вредное воздействие от «пузыря фильтров» включает вред в обществе в целом, так как он может подрывать формирование «гражданского мнения» и делать людей более уязвимыми для «пропаганды и манипуляций»[2].
Директор по продукту Facebook Крис Кокс говорит: «Основная масса контента, который вы видите на Facebook, производится вашими „слабыми связями“, пользователями, с которыми вы не взаимодействуете вне соцсети. Наши исследования не доказывают, что Facebook создаёт пузырь фильтров, зато предоставляют некоторые свидетельства обратного»[8].
«Парадокс релевантности»
Пузырь фильтров похож на явление, в котором люди и организации ищут информацию, которая изначально кажется им правильной, но она оказывается бесполезной или почти бесполезной, и избегают информации, кажущейся и воспринимаемой ими как неправильная и несущественная, но оказывающейся полезной.
Проблема появляется потому, что реальная значимость конкретного факта или понятия в этих случаях очевидна только после того, как этот факт стал известен. До этого идея изучения была отклонена, потому что какой-либо факт был неправильно воспринят. Соответственно, ищущий информацию попадает в ловушку и не может узнать то, что ему действительно нужно, попадая в своего рода информационное слепое пятно. Этот феномен был назван «парадоксом релевантности»[6]; он часто встречается на протяжении всего человеческого интеллектуального развития и является важной проблемой для науки и образования. Дэвид Эндрюс в книге «The IRG Solution» анализирует эту проблему, а также предлагает общее её решение.
Возможность отключения персонализированного поиска
После выхода книг и статей Парайзера, часть пользователей интернета стала возмущаться тем, что один и тот же, казалось бы, поисковик выдаёт всем различные результаты. Поэтому, большинство современных поисковых систем дают возможность регулировки результатов поиска: в Google зарегистрированным пользователям возможно одновременно смотреть персональные и общие результаты с помощью специальной кнопки, находящейся справа от результатов поиска; в Яндексе можно или навсегда включить, или навсегда отключить персональный поиск; в Bing можно пока только очистить историю просмотра.
- Возможность просмотра результатов поиска в поисковой системе Google c учётом персонализации и без.
- Возможность отключения персонализированного поиска в поисковой системе Яндекс.
Поисковая система DuckDuckGo вообще не использует пузырь фильтров и не собирает информацию о пользователях. Она позиционирует себя как использующую информацию из многих источников с целью предоставления более точных, актуальных и разнообразных результатов поиска, чем обычные поисковики.
См. также
- Склонность к подтверждению своей точки зрения
- DuckDuckGo
- Ixquick
- Веб-жучок[англ.]
- MetaGer[англ.]
Примечания
- ↑ Lynn Parramore (interviewer) Eli Pariser (subject) (2010-10-10). "The Filter Bubble". The Atlantic. Архивировано 22 августа 2017. Дата обращения: 20 апреля 2011.
Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....
{{cite news}}
:|author=
имеет универсальное имя () - ↑ 1 2 3 Jacob Weisberg (2011-06-10). "Bubble Trouble: Is Web personalization turning us into solipsistic twits?". Slate Magazine. Архивировано 12 июня 2011. Дата обращения: 15 августа 2011.
- ↑ Doug Gross, CNN (2011-05-19). "What the Internet is hiding from you". CNN. Архивировано 7 февраля 2012. Дата обращения: 15 августа 2011.
I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.
{{cite news}}
:|author=
имеет универсальное имя () - ↑ Zhang; Séaghdha, Quercia, and Jambor. Auralist: Introducing Serendipity into Music Recommendation (англ.) // ACM WSDM : journal. — 2012. — February. Архивировано 15 мая 2012 года.
- ↑ Вред и отключение пузыря фильтров . Дата обращения: 16 июня 2016. Архивировано 7 августа 2016 года.
- ↑ 1 2 "First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser". USA Today. 2011. Архивировано 3 мая 2011. Дата обращения: 20 апреля 2011.
Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.
- ↑ Bianca Bosker (2011-03-07). "Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns". Huffpost Tech. Архивировано 9 декабря 2012. Дата обращения: 20 апреля 2011.
When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.
- ↑ Facebook отрицает пузырь фильтров . Дата обращения: 17 июня 2016. Архивировано 14 августа 2016 года.
Литература
- Eli Pariser. The Filter Bubble: What the Internet Is Hiding from You. — New York: Penguin Press, 2011. — ISBN 978-1594203008.
- Green, Holly Breaking Out of Your Internet Filter Bubble . Forbes (29 августа 2011). Дата обращения: 4 декабря 2011. Архивировано 18 мая 2012 года.
- David Andrews. The IRG Solution. — 1984.