Пузырь с фильтром

редактировать
Термин был придуман интернет-активистом Эли Паризер около 2010 г.

A пузырек с фильтром - термин, придуманный интернет-активистом Эли Паризер - это состояние интеллектуальной изоляции, которое якобы может быть результатом персонализированного поиска, когда веб-сайт алгоритм выборочно угадывает, какую информацию пользователь хотел бы видеть на основе информации о пользователе, такой как местоположение, прошлые клики и история поиска. В результате пользователи отделяются от информации, которая не соответствует их точкам зрения, эффективно изолируя их в своих культурных или идеологических пузырях. Выбор, алгоритм алгоритма, непрозрачен. Яркие примеры включают результаты персонализированного поиска Google и персонализированный поток новостей на Facebook. По мнению Паризера, эффект пузыря может иметь негативные последствия для гражданского дискурса, но противоположные точки зрения считают его минимальным и решаемым. Результаты США были связаны с президентскими сетями в 2016 году, такими как Twitter и Facebook, и поставили под сомнение влияние феномена «пузыря фильтров» на подверженность пользователей воздействию фейковые новости и эхо-камеры, пробуждающие новый интерес к этим термину, поскольку это явление может нанести вред демократии и благополучию, оказывая влияние на дезинформацию. хуже.

(Технологии, такие как социальные сети) позволяют вам общаться с единомышленниками, поэтому вы не смешиваете, не разделяете и не понимаете другие точки зрения... Это очень важно. Оказалось, что это большая проблема, чем я или многие другие ожидали ».

Билл Гейтс 2017 в Кварц

Содержание

  • 1 Концепция
    • 1.1 Подобные концепции
  • 2 Реакции и исследования
    • 2.1 Реакции СМИ
    • 2.2 Академические исследования и реакции
    • 2.3 Платформенные исследования
  • 3 Контрмеры
    • 3.1 Физическими лицами
    • 3.2 Медиа-компании
  • 4 Этические последствия
  • 5 Опасности пузырей фильтра
  • 6 Расширения концепции
  • 7 См. Также
  • 8 Примечания
  • 9 Ссылки
  • 10 Дополнительная литература
  • 11 Ссылки

Концепция

Социальные сети, стремясь угодить пользователям, могут скрывать информацию, которую, по их мнению, пользователям понравится слышать, но непреднамеренно изолируют то, что они знают, в свои собственные пузыри фильтров, согласно Паризер.

Термин был придуман интернет-активист Эли Паризер около 2010 г. и обсуждается в его одноименной книге 2011 г.; Согласно Паризеру, пользователи меньше сталкиваются с противоречивыми точками зрения и интеллектуально изолированы в собственном информационном пузыре. Он привел пример, в котором один пользователь ввел в Google поиск по запросу "BP" и получил новости об инвестициях о British Petroleum, в то время как другой пользователь получил информацию о разливе нефти Deepwater Horizon, и отметил, что две страницы результатов поиска были «разительно разными».

Паризер определил свою концепцию пузыря фильтров в более формальных терминах как «эта личная экосистема информация, которая обслуживается по этому алгоритам». История просмотров и поиска пользователей Интернета накапливается с течением времени, когда они показывают интерес к темам, «щелкая ссылки, просматривая друзей, помещая фильмы в [свою] очередь, читая новости» и так далее. Затем интернет-компания использует эту информацию для таргетинга рекламы для пользователя или для того, чтобы типы информации отображались более заметно на страницах результатов поиска.

. Этот процесс не является случайным, так как он работает под Трехэтапный процесс, согласно Паризеру, который заявляет: «Во-первых, вы знаете, кто такие люди и что им нравится. Затем вы предоставляете им контент и услуги, которые им лучше всего подходят. Наконец, вы настраиваетесь так, чтобы они подходили именно вам. Паризер также сообщает:

Согласно одному исследованию Wall Street Journal, 50 ведущих интернет-сайтов, от CNN до Yahoo и MSN имеют личность, устанавливают в среднем 64 файла cookie с данными и персональные маяки установления..com такое слово, как «депрессия», и этот сайт установил ваш компьютер до 223 файлов cookie и маяков, чтобы другие веб-сайты могли нацелить вас на антидепрессанты. Откройте для себя - хотя бы на мгновение - страницу со списком признаков того, что ваш супруг может обмануть, и готовьтесь к тому, что вас преследуют объявления с тестами на отцовство по ДНК.

Доступ к данным о кликах по ДНК.

По состоянию на 2011 год один инженер сообщил Паризеру, что Go по ссылкам, отображаемым с помощью измерений посещаемости сайта, позволяет определить, что пузыри фильтров могут быть коллективными или индивидуальным. ogle проанализировал 57 различных фрагментов данных, чтобы персонально адаптировать результаты поиска пользователя, включая данные, не относящиеся к файлу cookie, такие как тип используемого компьютера и физическое местонахождение пользователя.

Для описания этого явления использовались другие термины, в том числе «идеологические рамки » и «образная сфера, окружающая вас при поиске в Интернете». Родственный термин, «эхо-камера», применялся к средствам массовой информации, но теперь применялся к социальным сетям.

Идея Паризера о пузыре фильтров была популяризирована после выступления на TED он дал в мае 2011 года, в котором он приводит примеры того, как работают пузырьки-фильтры и где их можно увидеть. В ходе теста прогнозируемого эффекта пузыря фильтра, «Египет» в Google и прислать ему результаты. При сравнении двух первых страниц результатов результатов, хотя они частично совпадали по таким темам, результаты одного друга заметно включались ссылки на информацию о продолжавшейся в то время египетской революции 2011. страница результатов другого друга не содержала таких ссылок.

В «Пузыре фильтров» Паризер предупреждает, что он «закрывает нас для новых идей», тем и «создает впечатление, что наш узкий личный интерес»., что существует ». По его мнению, это хорошее вредно как для людей, так и для общества. Он раскритиковал Google и Facebook за то, что они предоставляют пользователям «слишком много конфет и недостаточно моркови». Он предупредил, что «невидимое алгоритмическое редактирование сети» может ограничить доступ к новой информации и сузить кругозор. По словам Паризера, пагубные последствия пузырей фильтров включают вред обществу в целом в том смысле, что они могут «подорвать гражданский дискурс» и сделать людей более уязвимыми для «пропаганды и манипуляций». Он писал:

Мир, построенный из знакомого, - это мир, в котором нечему учиться... (существует) невидимая автопропаганда, внушающая нам наши собственные идеи.

— Эли Паризер в The Economist, 2011

Многие люди даже не подозревают о существовании пузырей фильтров. Это можно увидеть в статье в The Guardian, в которой упоминается тот факт, что «более 60% пользователей Facebook вообще не знают о каких-либо действиях на Facebook, вместо этой полагающейся, что каждая их история от друзей и страниц, на которые они подписаны» "Краткое объяснение того, как Facebook решает, что происходит в новостной ленте пользователя, осуществляется с помощью алгоритма, который учитывает," как вы взаимодействуют с похожими сообщениями в прошлом ".

Было описано, что пузырек фильтров усугубляет явление, получившее название сплинтернет или кибербалканизация, которое происходит, когда Интернет разделяется на подгруппы единомышленников, которые становятся изолированными внутри своего собственного онлайн-сообщества. восходит к первым дням появления общедоступного Интернета, когда термин «кибербалканизация» был придуман в 1996 году.

Подобные концепци и

В средствах массовой информации, эхо-камера - метафорическое описание ситуации, в убеждения усиливаются или подкрепляются посредством общения и повторения внутри закрытой системы. Посещая «эхо-камеру», люди ищут информацию, которая подкрепляет их вспомогательное взгляды, первое как бессознательное упражнение предвзятости подтверждения. Это может усилить политическую и социальную поляризацию и экстремизм. Этот является метафорой, основанной на акустической эхо-камере, где звуки отражаются в полом корпусе. «Эхо-камеры» укрепляют убеждения человека без фактической поддержки. Их окружают те, кто признает и придерживается одной и той же точки зрения.

В прощальном обращении Барака Обамы подобная концепция фильтрации пузырей обозначена как «угроза [американской] демократии», то есть отступление в нашу собственную пузыри,... особенно наши каналы в социальных сетях, в окружении людей, которые похожи на нас и разделяют те политические же взгляды и никогда не оспаривают наши предположения... И все больше мы становимся безопасными в наших пузырях, что начинаем принимать только информацию, будь то правда или нет, но это соответствует нашему мнению, вместо того, чтобы основывать наши мнения на судебные доказательства ».

Реакции и исследования

Реакция СМИ

Есть противоречивые сообщения степени, в которой происходит персонализированная фильтрация, и о том, является ли такая деятельность полезной или вредной. Аналитик Джейкоб Вайсберг, в июне 2011 года писал для Slate, провел небольшой ненаучный эксперимент для проверки теории Паризера, в котором участвовали пять сотрудников с различными идеологическим прошлым, проводившие серию поисков », Джон Бонер "," Барни Фрэнк "," План Райана "и" Obamacare ", и отправив Вайсбергу скриншоты их результатов. Результаты различались от человека к человеку лишь в незначительных элементы, и любые различия, по-видимому, не были связаны с идеологией, что привело Вайсберга к выводу, что пузырек фильтров не действует, и написал, что идея, которую большинство «Интернета подпитывала» в корыте Daily Me "раздулся. Вайсберг попросил Google прокомментировать, и представитель заявил, что существуют алгоритмы, которые намеренно «ограничивают персонализацию и продвигают разнообразие». Рецензент Пол Бутен провел эксперимент, аналогичный эксперимент Вейсберга, среди людей с разной историей поиска и снова обнаружил, что разные искатели почти одинаковые результаты поиска. В ходе тестирования обнаружил, что пользовательские данные раньше играли большую роль в определении результатов поиска, но Google в ходе тестирования обнаружил, что поисковый запрос является лучшим фактором, определяющим, какие результаты отображать.

Есть сообщения о том, что Google и другие сайты хранят обширные «досье» информации о своих пользователях, которые могут использовать их другой персональный опыт работы в Интернете, если они захотят это сделать. Например, существует технология, позволяющая Google пропускать прошлые истории пользователей, даже если у них нет личной учетной записи Google или они не вошли в нее. В одном из отчетов говорилось, что Google собрал информацию "за 10 лет" из различных источников, таких как Gmail, Google Maps и других служб, помимо своей поисковой системы, хотя обратное В отчете говорилось, что персонализировать Интернет для каждого пользователя была технически сложной попыткой интернет-фирмы, несмотря на огромное количество доступных данных. Аналитик Дуг Гросс из CNN предположил, что отфильтрованный поиск кажется более полезным для потребителей, чем для граждан, и поможет потребителю, ищущему "пиццу", найти местные варианты доставки, основанные на персонализированном поиске, и соответствующая фильтрация далеких пиццерий. Такие организации, как Washington Post, The New York Times и другие, экспериментировали с созданием новых персонализированных информационных услуг с целью адаптации результатов поиска к тем, которые могут понравиться пользователям. или согласен с.

Исследования и реакция академических кругов

Книга «Общественность больших данных и ее проблемы» Тауэль Харпер предполагает, что потеря редакционной субсидии на самом деле приводит к более однородной и нормализованной общественной сфере, чем традиционные печатные СМИ. Процесс выбора значимости, закон больших чисел и мощность ранее существовавших сетей означает, что алгоритмический выбор тенденцию укреплять нормы и еще больше маргинализировать в цифровых публикациях.

Научное исследование Wharton, в котором анализировались персонализированные рекомендации, также обнаружило, что эти фильтры действительно могут создавать общность, а не фрагментацию во вкусе онлайн-музыки. Сообщается, что пользователи используют фильтры для расширения своего вкуса, а не для его ограничения. Профессор права Гарвардского университета Джонатан Зиттрейн оспорил степень искажения результатов поиска Google фильтрамиализации, заявив, что «эффект персонализации поиска был незначительным». Кроме того, Google предоставляет возможность отключить функции персонализации, если они хотят, путем удаления записи Google об истории поиска и настройки Google не запоминать их ключевые слова для поиска и посещенные ссылки в будущем.

Исследование от Internet Policy Review обратил внимание на отсутствие четкого и проверяемого определения пузырей фильтров по дисциплинам; Это часто приводит к тому, что исследователи по-разному определяют и изучают пузырьки-фильтры. Впервые исследование объяснило отсутствие эмпирических данных о существовании пузырей фильтров в разных дисциплинах и предположения, что эффекты, приписанные им, могут быть вызваны скорее существовавшими ранее идеологическими предубеждениями, чем алгоритмами. Связанные с ними проблемы, связанные с определением пузырей фильтров и связанными с ними факторами.

Исследование, проведенное исследователями из Оксфорда, Стэнфорда и Microsoft, изучило истории просмотров 1,2 миллиона пользователей из США надстройки Панель инструментов Bing для Internet Explorer в период с марта по май 2013 года. Они выбрали 50 000 из тех пользователей, которые были активными пользователями, а затем присоединились к новым агентствам левыми или правыми, в зависимости от того, проголосовало ли большинство новостей в округах, связанных с IP-адресами пользователей, за Обаму или Ромни на президентских выборах 2012 года. Затем они определили, читались ли новости после доступа к сайту издателя, через службу агрегирования новостей Google, через поиск в Интернете или через социальные сети. Исследователи представили, что, хотя поиск в Интернете и социальных сетях действительно способствуют идеологической сегрегации, подавляющее потребление других новостей в Интернете состояло из пользователей, которые напрямую посещают основные сайты левого или правого толка, и, следовательно, были доступны почти исключительно для просмотра с одного просмотра. стороны. качественного Ограничения исследования включают проблемы выбора, такие как возрастные отклонения пользователей Internet Explorer выше, чем у всего интернет-населения; Использование панели инструментов добровольное (или незнание) предоставление доступа к истории просмотров для пользователей, которые меньше заботятся о конфиденциальности; предположение, что все статьи в левых публикациях левые, и то же самое для правых; Пользователи, которые не являются активными пользователями новостей, получают большую часть своих новостей через социальные сети и, таким образом, испытывают более сильные социальные эффекты или алгоритмической предвзятости, чем те пользователи, которые по сути самостоятельно выбирают свою предвзятость по своему выбору новостных публикаций (при условии, что они осведомлены о предвзятости публикаций).

Исследования платформ

Хотя алгоритмы ограничивают политическое разнообразие, часть пузыря фильтров является результатом выбора пользователя. Исследование, проведенное специалистами по данным в Facebook, показывает, что на каждые четыре друга Facebook, разделяющих идеологию, приходится один друг с противоположными взглядами. Независимо от того, какой алгоритм использует Facebook для своей Ленты новостей, люди просто с большей вероятностью будут дружить / подписываться на людей, которые разделяют схожие убеждения. Суть алгоритма заключается в том, что он ранжирует истории на основе истории пользователя, что приводит к сокращению «политически сквозного контента на 5 процентов для консерваторов и 8 процентов для либералов». Однако даже когда людям предоставляется возможность щелкнуть ссылку, предлагающую противоположные взгляды, они по-прежнему выбирают наиболее просматриваемые источники. «[U] ser выбор снижает вероятность нажатия на сквозную ссылку на 17 процентов для консерваторов и на 6 процентов для либералов». Сквозная ссылка - это ссылка, которая представляет точку зрения, отличную от предполагаемой точки зрения пользователя или того, что веб-сайт считает убеждениями пользователя. Недавнее исследование Леви Бокселла, Мэтью Генцкова и Джесси М. Шапиро предполагает, что онлайн-СМИ не являются движущей силой политической поляризации. В документе утверждается, что поляризация была вызвана демографическими группами, которые проводят меньше всего времени в Интернете. Наибольший идеологический раскол наблюдается среди американцев старше 75 лет, в то время как только 20% сообщили об использовании социальных сетей по состоянию на 2012 год. Напротив, 80% американцев в возрасте 18–39 лет сообщили об использовании социальных сетей по состоянию на 2012 год. Данные показывают, что более молодые демографические В 2012 году поляризация не стала более поляризованной, чем в 1996 году, когда онлайн-СМИ практически не существовали. Исследование подчеркивает различия между возрастными группами и то, как потребление новостей остается поляризованным, поскольку люди ищут информацию, которая соответствует их предубеждениям. Американцы старшего возраста обычно остаются неизменными в своих политических взглядах, поскольку традиционные средства массовой информации продолжают оставаться основным источником новостей, в то время как онлайн-СМИ являются ведущим источником для молодежи. Хотя алгоритмы и пузыри фильтров ослабляют разнообразие контента, это исследование показывает, что тенденции политической поляризации в первую очередь вызваны уже существующими взглядами и неспособностью распознать внешние источники. В исследовании 2020 года, проведенном в Германии, использовалась модель психологии большой пятерки для проверки влияния индивидуальной личности, демографии и идеологий на потребление новостей пользователями. Основываясь на своем исследовании на представлении о том, что количество источников новостей, которые потребляют пользователи, влияет на их вероятность оказаться в пузыре фильтров (более широкое разнообразие СМИ снижает шансы), их результаты предполагают, что определенные демографические данные (более высокий возраст и мужчины) наряду с определенной личностью характеристики (высокая открытость) положительно коррелируют с количеством источников новостей, потребляемых отдельными лицами. Исследование также выявило отрицательную идеологическую связь между разнообразием СМИ и степенью приверженности пользователей правому авторитаризму. Помимо предложения различных индивидуальных факторов пользователя, которые могут влиять на выбор роли пользователя, это исследование также поднимает вопросы и вызывает ассоциации между вероятностью попадания пользователей в пузыри фильтров и их поведением при голосовании.

Исследование Facebook показало, что это было так. «неубедительно», сыграл ли алгоритм такую ​​большую роль в фильтрации новостных лент, как предполагалось. Исследование также показало, что "индивидуальный выбор" или предвзятость подтверждения также влияет на то, чтоотфильтровывается из лент новостей. Некоторые социологи раскритиковали этот вывод, потому что протест против пузыря фильтров в том, что алгоритмы и индивидуальный выбор работают вместе, чтобы отфильтровать новые ленты. Они также раскритиковали небольшой размер выборки Facebook, который составляет около «9% реальных пользователей Facebook», и тот факт, что результаты исследования «не воспроизводятся» из-за того, что исследование было проведено «учеными Facebook», которые имели доступ к данным, которые Facebook не предоставляет сторонним исследователям.

Хотя исследование показало, что только около 15–20% друзей среднего пользователя Facebook подписываются на противоположную сторону политического характера, Джулия Каман из Vox предположил, что это может иметь положительные последствия для разнообразия точек зрения. Эти «друзья» часто являются знакомыми, никогда не расскажем о нашей политике без Интернета. Facebook может создать уникальную среду, которую пользователь видит и, возможно, взаимодействует с контентом, размещенным или повторно размещенным этим «вторым уровнем». «24 процента новостей, которые были либерализованы, были консервативными, а 38 процентов новостей, которые были консервативными, были либеральными». «Либералы, как правило, связаны с меньшим количеством друзей, которые делятся информацией с другой стороны, по сравнению с их консервативными коллегами». Это взаимодействие позволяет разнообразить информацию и источники, которые могут модерировать мнения пользователей.

Аналогичным образом, исследование пузырей фильтров Twitter, проведенное Нью-Йоркским университетом, пришло к выводу, что «люди теперь имеют доступ к более широкому кругу точек зрения на новостные. события, и большая часть информации поступает не по их традиционным каналам, напрямую от политических деятелей или через этих друзей и родственников. Кроме того, интерактивный характер социальные сети дает людям возможность обсуждать политические события со своими сверстниками., включая тех, с кем у них слабые социальные связи ». Согласно этим исследованиям социальные сети могут разнообразить информацию и мнения, которые пользователи контактируют, хотя есть много предположений о пузырях фильтров и их возможностей создать более глубокую политическую поляризацию.

Визуализация процесса и роста двух социальных медиа-ботов, используемые в исследование Weibo 2019 года. Согласно исследованию, диаграмма представляет два элемента структуры пузырей фильтров: большая информация пользователей вокруг одной темы и однонаправленная звездообразная структура, которая влияет на ключевые информационные потоки.

Социальные боты используются разными исследователями для проверки поляризации и соответствующих с ней эффектов, которые приписываются фильтрующим пузырькам и эхо-камерам. В исследовании 2018 года использовались социальные боты в Твиттере для преднамеренного воздействия на воздействия пристрастных точек зрения. В исследовании утверждено, что оно применимо к результатам различных воздействий различных взглядов, которые должны быть ограничены зарегистрированными партиями американских пользователей Twitter. Один из основных выводов заключался в том, что после воздействия различных взглядов (предоставленных ботами) саморегистрирующиеся страны стали более консервативными, в то время как саморегистрируемые либералы применялись меньше идеологических изменений, если вообще не изменились. Другое исследование, проведенное в Китайской Народной системе, было использовано социальных сетей на Weibo - социальной платформе в Китае - для изучения структуры пузырей фильтров с точки зрения их влияния на поляризацию. В исследовании проводится различие между двумя концепциями поляризации. В одном случае люди со схожими взглядами объединяются в группы, разделяют мнения и блокируют разные точки зрения (поляризация мнений), а в другом - люди не доступа к разнообразному контенту и источникам информации (поляризация информации). Используя социальные ботов вместо людей-добровольцев и уделяя больше внимания поляризации информации, исследователи пришли к выводу, что есть два важных элемента пузыря: большая оценка пользователей вокруг одной темы и однонаправленная звезда. -подобная структура, влияющая на ключевые информационные потоки.

В июне 2018 года платформа DuckDuckGo провела исследование на веб-Google. В рамках этого исследования 87 взрослых людей из разных уголков континентальной части США одновременно вводят в Google три ключевых слова: иммиграция, контроль над огнестрельным оружием и вакцинация. Даже в режиме приватного большинства людей есть результаты, уникальные для них. Google включил ссылки для некоторых, но не включил для других участников, информационные окна "Новости" и "Видео" значительно различались. Google публично оспорил эти результаты, заявив, что персонализация страницы результатов поисковой системы (SERP) - это в основном миф. Сотрудник поиска Google Дэнни Салливан службы заявили: «С годами сложился миф о том, что поиск Google персонализирует, что для одного и того же запроса разные люди могут получать разные результаты от друг друга. Это не так. Результаты могут отличаться, но обычно по неперсонализированным причинам ».

Когда пузырьки с фильтрами находятся на месте, они создают моменты, которые создают моменты, которые вызывают моментми «Вау! ». Момент «Вау» - это когда на вашем компьютере появляется статья, реклама, пост и т. Д., Которые связаны с текущим или текущим использованием объекта. Ученые представляют этот термин после того, как молодая женщина выполняет свой распорядок дня, в том числе пила кофе, когда она открыла свой компьютер и заметила рекламу той же марки кофе, которую пила. "Сел и открыл Facebook сегодня утром, пока пил кофе, и там было две рекламы Nespresso. Что-то вроде" эй! ", Когда продукт, вы пьете, появляется на экране перед из вас". Бывают моменты «ох», когда людей «находят». Это означает, что рекламные алгоритмы нацелены на конкретных пользователей на основе их «поведения при клике», чтобы увеличить их доход от продаж. Моменты «вау» могут также воспламенить дисциплину в пользователях, чтобы они придерживались рутины и общности с продуктом.

Несколько дизайнеров разработали инструменты для противодействия эффектам пузырей фильтра (см. § Контрмеры). Швейцарская радиостанция SRF проголосовала за filterblase (немецкий перевод слова «пузырь с фильтрами») за слово 2016 года.

Контрмеры

Частными лицами

В книге «Пузырь фильтров: что Интернет скрывает от вас» интернет-активист Эли Пэрисер подчеркивает, как учащение пузырей еще больше усиливает преодоление барьеров социального капитала по определению Роберта Путмана. Фактически, в то время как объединение капитала соответствует, с одной стороны, установление прочных связей между единомышленниками, таким образом усиливающееся влияние на социальную однородность, объединение социального капитала, с другой стороны, представляет собой создание слабых связей между людьми с большими расходящимися интересами и точки зрения, что оказывает значительно большую неоднородность. В этом смысле высокий промежуточный капитал с большей вероятностью будет социальной интеграции за счет увеличения объема продаж наших рекламных материалов. Таким образом, наращивание своего связующего капитала - например, путем, путем, путем, путем использования большого количества людей в неформальной обстановке - может быть эффективным способом уменьшить влияние феномена пузыря фильтров.

На самом деле пользователи могут предпринять множество действий, чтобы прорваться сквозь фильтры, например, использовать сознательные усилия, чтобы задействовать какую-либо информацию, которую они раскрывают, и критически размышляя о том, взаимодействуют ли они с широким диапазоном содержания. Эта точка зрения утверждает, что пользователи должны изменить психологию своего подхода к СМИ, а полагаться на технологии для противодействия их предубеждениям. Пользователи могут сознательно избегать неподдающихся проверке или слабых источников новостей. Крис Глушко, вице-президент по маркетингу IAB, выступает за использование сайтов с проверкой фактов для использования фейковых новостей. Технологии также сыграть ценную роль в борьбе с пузырями фильтров.

Такие сайты, как allsides.com, theflipside.io, hifromtheotherside.com и factualsearch.news, стремятся познакомить читателей с разными точками зрения с разнообразным контентом. Некоторые дополнительные плагины, такие как Media Bias Fact Check, нацелены на то, чтобы помочь людям выйти из пузырей фильтров и рассказать им об их личной перспективе; таким образом, эти СМИ показывают контент, противоречащий их убеждения и мнения. Например, Escape Your Bubble просит пользователей указать конкретную политическую партию, о которой они хотят быть более информированными. Затем плагин предложит прочитать статью из авторитетных источников, связанных с этой политической партией, побуждая пользователей больше узнать о другой партии. Помимо плагинов, существуют приложения, созданные с целью поощрения пользователей открывать свои эхо-камеры. UnFound.news предлагает читателям новостное приложение, курируемое ИИ (Искусственный интеллект ), которое представляет им новости с разных и разных точек зрения, помогая им сформировать обоснование и информированное мнение, а не поддаваться собственному предубеждениям. Это также подталкивает читателей к чтению с разных точек зрения, если их модель чтения смещена в сторону одной стороны / идеологии. «Читайте через проход» - это новостное приложение, которое показывает, читают ли пользователи из разных новых источников, которые включают разные точки зрения. Каждый источник скоординирован по цвету, что политические взгляды каждой статьи. Когда пользователи читают новости только с одной точки зрения, приложение сообщает об этом пользователю и побуждает читателей исследовать другие источники с противоположных точек зрения. Хотя приложения и плагины - это инструменты, которые могут использовать люди, Эли Паризер заявил, что безусловно, здесь есть некоторая ответственность за поиск новых и людей, которые не похожи на вас ».

С тех пор, как веб-сайт реклама может усиливать эффект пузырей фильтров, открывая другим большее количество одного и того же контента, пользователи могут блокировать большую часть рекламы, удаляя историю поиска, отключая целевую рекламу и загружая расширения. Такие расширения, как Escape your Bubble для Google Chrome, позволяют контролировать контент и предотвращать доступ пользователей к предвзятой информации, в то время как расширение Mozilla Firefox, такие как Lightbeam и самоуничтожающиеся файлы cookie, позволяют визуализировать, как их данные отслеживаются, и позволяют они удаляют некоторые отслеживающие файлы cookie. Некоторые используют анонимные или неперсонализированные поисковые системы, такие как YaCy, DuckDuckGo, Qwant, Startpage.com, Disconnect и Searx, чтобы компании не могли собирать данные своего веб-поиска. Швейцарская ежедневная газета Neue Zürcher Zeitung проводит бета-тестирование персонализированного приложения для работы с новостями, которое использует машинное обучение, чтобы угадывать, какой контент интересует пользователя, при этом «всегда включающий элемент неожиданности»; идея состоит в том, чтобы смешать историю, за пользователя никогда ли следил бы в прошлом.

Европейский Союз принимает меры для уменьшения эффекта пузыря фильтров. Наша формация спонсирует расследование того, как пузыри фильтров способность людей получать доступ к разнообразным новостям. Направленную на информирование социальных сетей. В США панель CSCW предлагает использовать приложения-агрегаторы новостей для расширения сообщений новостей потребителями СМИ. Приложения-агрегаторы новостей сканируют все текущие новостные статьи и направляют вас к другим точкам зрения по определенной теме. Пользователи могут также использовать разнообразный балансировщик новостей, который визуально показывает потребителю СМИ, наклоняется ли он влево или вправо, когда дело доходит до чтения новостей, когда дело доходит до чтения новостей, используется наклон вправо с большей красной полосой или влево с помощью большей синей полосой. Исследование, оценивающее этот балансировщик новостей, обнаружило «небольшое, но заметное изменение в поведении в сторону более сбалансированного воздействия среди пользователей, наблюдающих обратную связь, по сравнению с контрольной группой».

Медиа-компании

В свете недавних опасений по поводу фильтрации информации в социальных сетях Facebook признал наличие пузырей фильтров и предпринял шаги по их удалению. В январе 2017 года Facebook удалил персонализацию из своего списка популярных тем из-за проблем, связанных с тем, что некоторые пользователи не видели там обсуждаемых событий. Стратегия Facebook состоит в том, чтобы отменить функцию «Похожие статьи», которую он реализовал в 2013 году, которая будет публиковать связанные новости после того, как пользователь прочитает общую статью. Теперь обновленная стратегия перевернула бы этот процесс и публиковала статьи с разных точек зрения на одну и ту же тему. Facebook также пытается пройти процедуру проверки, при которой будут отображаться только статьи из авторитетных источников. Наряду с основателем Craigslist и несколькими другими, Facebook инвестировал 14 миллионов долларов в усилия, чтобы «повысить доверие к журналистике во всем мире и лучше информировать общественность». Идея заключается в том, что если люди читают только сообщения, даже поделились их друзья, по крайней мере, эти сообщения будут заслуживающими доверия.

Аналогичным образом, Google по состоянию на 30 января 2018 г. также признал наличие проблем с фильтром на своей платформе. Google получает результаты с алгоритмическим ранжированием на основе «авторитетности» и «релевантности», которые показывают и показывают скрытые запросы поиска, Google стремится с помощью алгоритмов поиска. Обучая свою поисковую систему распознавать цель поиска запроса, а не буквальный синтаксис, Google пытается ограничить размер пузырей фильтров. На данный момент начальная фаза этого обучения будет введена во втором квартале 2018 года. Вопросы, которые связаны с предвзятостью и / или противоречивыми мнениями, не будут рассматриваться до более позднего времени, что порождает более серьезную проблему, которая существует до сих пор: действует как арбитр истины, либо как знающий проводник для принятия решений.

В апреле 2017 года появилась новость о том, что Facebook, Mozilla и Craigslist внесли большую часть суммы в $ 14 Пожование CUNY «Инициатива целостности новостей», направленное на устранение фейковых новостей и создание более честных СМИ.

Позже, в августе, Mozilla, создатели Firefox веб-браузер объявил о создании Mozilla Information Trust Initiative (MITI). + MITI будет служить коллективным усилием по разработке продуктов, исследований и решений на уровне сообщества для борьбы с эффектом пузырей фильтров и распространением фейковых новостей. Группа открытых инноваций Mozilla, стремясь бороться с дезинформацией, уделяет особое внимание продукту с точки зрения грамотности, исследованиям и творческого вмешательства.

Этические последствия

Как популярность облачных сервисов увеличиваются, ожидается, что, что ожидается, что эти персонализированные алгоритмы, используемые для построения пузырей фильтров, станут более распространенными. Ученые начали влияние пузырей фильтров на пользователей социальных сетей с этической точки зрения, особенно в области личной свободы, безопасности. и информационная ошибка. Пузырьки фильтров в популярных поисковых системах могут определять конкретный контент, просматриваемый пользователями, часто без их прямого согласия или ведома, из-за алгоритмов, используемых для его отбора. Самостоятельно созданный контент, проявленный на основе моделей поведения, может привести к частичной информационной слепоте. Критики использования пузырей фильтров предполагают, что люди могут потерять автономию по отношению к собственному опыту в социальных сетях, и их идентичность сконструирована в результате повсеместного распространения пузырей фильтров.

Технологи, инженеры по социальным сетям и специалисты по компьютерам также исследовали распространенность пузырей фильтров. Марк Цукерберг, основатель Facebook и Эли Паризер, автор The Filter Bubble, озабоченность по конфиденциальности и поляризации информации. Информация некоторых персонализированных систем и пользователей социальных сетей не является частной, хотя люди считают, что это должно быть. Обеспокоенность по поводу конфиденциальности информации, используемой для использования в информационных технологиях.

Некоторые ученые выразили озабоченность по поводу эффектов фильтрации пузыри на индивидуальное и социальное благополучие, т. е. распространение среди широкой общественности и потенциальное влияние системы в Интернете на изменение, связанного со здоровьем. В междисциплинарной книге 2019 года сообщалось об исследованиях и перспективах роли пузырей фильтров в отношении дезинформации о здоровье. Основываясь на различных областях, таких как журналистика, право, медицина и психология здоровья, книга обращается к различным аспектам убеждения в здоровье (альтернативной медицине и псевдонауке), а также потенциальным средствам защиты от негативного воздействия пузырьков воздействия пузырьков фильтров и эхо-камер на различные темы в области здравоохранения. дискурс. Исследование, проведенное в 2016 году о потенциальных воздействиях на результаты поисковых систем, потенциальных возможностей воздействия на результаты исследований для здравоохранения.. В исследовании, проведенном в 2016 году хорватским журналом, были предложены некоторые варианты смягчения другого вредного воздействия пузырей фильтров на информацию о здоровье, например: медицинское информирование о пузырях фильтров и связанных с ними эффектах; пользователи выбирают альтернативу поисковым системам [для Google] и более подробное объяснение процессов, которые поисковые системы используют для определения отображаемых результатов.

Пользователи социальных сетей, просматривающие отдельные пользователи социальных сетей, социальные сети, создающие пузыри фильтров, пользователи социальных сетей, более восприимчивы к подтверждению предвзятость и может подвергаться предвзятой, вводящей в заблуждение информации. Социальная сортировка и другие непреднамеренные дискриминационные практики также ожидаются в результате персонализированной фильтрации.

В свете исследователи президентских выборов в США также выразили озабоченность по поводу воздействия пузырей фильтров на демократию и демократические процессы, а также рост «идеологических медиа». Эти ученые используют, что пользователи не могут «[мыслить] за пределами [своих] узких личных интересов», поскольку пузыри фильтров используются персонализированные социальные каналы, изолируя их различных точек зрения и окружающих их сообществ. По этой причине все чаще расширяется возможность проектирования социальных сетей с большей интуицией, то есть проактивно рекомендовать, который находится за пределами пузыря фильтров, включая сложную политическую информацию, и, в конечном итоге, предоставляет пользователям расширяющие возможности фильтры и инструменты. Связанная с этим проблема заключается в том, как пузыри фильтров способствуют распространению «фейковых новостей » и как это может повлиять на политические взгляды, в том числе на то, как голосуют пользователи.

Разоблачения в марте 2018 г. из Сбор и использование компанией Cambridge Analytica пользовательских данных для не менее 87 миллионов профилей в Facebook во время президентских выборов 2016 года подчеркивают этические последствия пузырей фильтров. Соучредитель и информатор Cambridge Analytica Кристофер Уайли подробно рассказал, как у компании была возможность создать «психологические» профили этих пользователей и использовать эту информацию для формирования их поведения при голосовании. Доступ к пользовательским данным со стороны третьих лиц, как Cambridge Analytica, может вызвать раздражение и усилить вызывари пузыри фильтров, пользователь, искусственно увеличивая сопубеждения и еще больше раскалывая общества.

«Мы предлагаем вам воспользоваться услугами президентского выбора 2020 года». Исследователи сказали, что важно переобучить ваш алгоритм, чтобы лопнуть пузырек фильтра, в то время как кампании занавеса продолжаются.

Опасности пузырей фильтра

Пузыри фильтров остановились от всплеска персонализации СМИ, который может заманить в ловушку пользователей. Использование ИИ для персонализации предложений может привести к тому, что пользователь будет просматривать только контент, который укрепляет их собственные точки зрения, не оспаривая их. Веб-сайты социальных сетей, такие как Facebook, также могут использовать платформу для анализа, чтобы пользователю было сложно определить источник контента, предоставляя его надежным или поддельным. Это может привести к тому, что они могут заставить их реагировать более радикально, когда они видят противоположную точку зрения. Пузырь фильтра может заставить человека рассматривать противоположные точки зрения как неправильные и могут вызвать взгляды потребителям.

Исследования объясняют, что пузырек фильтра усиливает то, о чем человек уже думает. Вот почему используются важные ресурсы, которые устанавливают точки зрения.

Расширения концепции

Концепция которые распространена на другие области, чтобы описать общества, Само-сегрегация не только в соответствии с политическими взглядами, но также в соответствии с экономической, социальной и культурной ситуацией. Этот всплеск приводит к потере более широкому сообществу и создает ощущение, что, например, детям не нужны специальные мероприятия, которые могут быть специально спланированы так, чтобы быть привлекательными для детей и непривлекательных взрослых без детей.

См. Также

Примечания

Ссылки

Дополнительная литература

Внешние ссылки

Последняя правка сделана 2021-05-20 04:02:02
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте