Filtrační bublina

Filtr bublina (English filtr bubble ) nebo informační bublina je termín z mediálních studií , podle internetového aktivistu Pariser Eli se používá ve své knize o 2011. Podle Parisera filtrační bublina vzniká proto, že se webové stránky snaží algoritmicky předpovídat, jaké informace chce uživatel najít - na základě dostupných informací o uživateli (například poloha uživatele , historie vyhledávání a chování při kliknutí). Výsledkem je izolace od informací, které neodpovídají pohledu uživatele. Izolační účinek filtračních bublin je předmětem vědeckého výzkumu a není obecně považován za prokázaný.

pojem

Díky použití těchto algoritmů mají internetové stránky tendenci zobrazovat uživateli pouze informace, které odpovídají předchozímu zobrazení uživatele. Tímto způsobem je uživatel velmi efektivně izolován v „bublině“, která má tendenci vylučovat informace, které jsou v rozporu s předchozími názory uživatele.

Typickým příkladem jsou personalizované výsledky vyhledávání Google a personalizovaný stream zpráv na Facebooku . Podle Pariserova názoru je uživatel méně „zatížen“ protichůdnými názory, a tedy intelektuálně izolován v informační bublině.

Pariser uvádí příklad, kdy jeden uživatel vyhledával na Googlu s klíčovým slovem „BP“ a obdržel zprávy o investičních příležitostech od British Petroleum , zatímco jiný uživatel se stejným vyhledávacím dotazem získal informace o úniku ropy způsobeném Deepwater Horizon - tedy o dvou vyhledávacích dotazech přineslo tedy úplně jiné výsledky. Tato izolace bublinkový efekt může mít negativní důsledky pro pojednání o občanskou společnost , věří Pariser. Existují však i protichůdné názory, které říkají, že efekt je minimální a zvládnutelný.

Eli Pariser, 2012

Koncept využití amplifikačních algoritmů k upoutání pozornosti uživatelů prostřednictvím selektivně filtrovaných informací, které potvrzují jejich názory, je posílen posílením informací, které kromě potvrzení vzbuzují strach a hněv. Příkladem jsou projevy nenávisti nebo konspirační teorie .

personalizace

Personalizace lze definovat následovně:

Díky webové personalizaci jsou obsah a struktura webové aplikace přizpůsobeny zvláštním potřebám, cílům, zájmům a preferencím každého uživatele. Za tímto účelem je vytvořen uživatelský model (anglický uživatelský model ), který zachycuje předpoklady a informace, které systém o uživateli má. Systém tak může předvídat, co bude pro uživatele relevantní. Filtruje nepodstatné informace a zvyšuje tak jeho osobní relevanci pro uživatele.

Podle Parisera například Google používá různé „signály“ (předchozí klíčová slova pro vyhledávání, umístění, aktualizace stavu kontaktů na stránkách sociálních sítí atd.) K přizpůsobení výsledků vyhledávání a inzerátů umístěných ( cílená reklama ) uživateli . Facebook naproti tomu sleduje interakce uživatele s ostatními uživateli a filtruje příspěvky od určitých uživatelů. To znamená, že aktivity uživatelů (historie kliknutí) jsou přeloženy do jedné identity uživatele a určité informace jsou odfiltrovány na základě této identity. Do roku 2011 byl na Facebooku používán takzvaný EdgeRank algoritmus, který byl následně nahrazen mnohem komplexnějším systémem strojového učení .

Paris popisuje svůj koncept filtrační bubliny o něco formálnějším popisem: ". Ekosystém osobních informací, který je vytvořen těmito algoritmy" K popisu tohoto jevu byly použity jiné termíny jako "ideologický rámec" (anglicky. Ideologické rámce ) nebo "obrazová sféra" který vás obklopuje při vyhledávání na internetu “.

Nedávná historie vyhledávání se časem hromadí, protože uživatel internetu projevuje zájem o určitá témata kliknutím na příslušné odkazy , navštívením stránek přátel, zařazením určitých filmů do fronty, čtením vybraných titulků atd. Provozovatelé webových stránek často používají ke sledování a shromažďování těchto údajů sledovací služby. B. Google Analytics . Internetové společnosti pak tyto informace používají k přizpůsobení reklamy potřebám a vkusu konkrétního uživatele nebo k umístění vhodné reklamy na prominentnější místo ve výsledku vyhledávání.

Pariserova obava je podobná obavám, které vyjádřil Tim Berners-Lee v roce 2010 ohledně efektu hotelu California (např. Můžete vstoupit, ale nikdy neodejít), ke kterému dochází, když online sociální sítě zablokují a uzamknou obsah z jiných konkurenčních webů, aby větší část síťové komunity ve své síti. Čím více zadáte, tím více budou informace na konkrétním webu uzamčeny a vázány. Stane se uzavřeným „betonovým bunkrem“ a existuje riziko fragmentace World Wide Web , říká Tim Berners-Lee.

Například uživatelé Facebooku jsou tam v jistém smyslu „uvězněni“ navždy. Pokud byste se někdy rozhodli opustit síť, váš uživatelský profil bude deaktivován, ale nebude odstraněn. Všechny vaše osobní údaje a protokol všech vašich aktivit na Facebooku zůstanou navždy na serverech Facebooku. Facebookovou stránku tedy nikdy nemůžete úplně opustit.

Pariser ve své knize Filtrační bublina varuje, že potenciální nevýhodou filtrovaného vyhledávání je, že „nás vylučuje z nových myšlenek, témat a důležitých informací“ a „vytváří dojem, že existují pouze ty věci, které jsou známy našemu blízkému já- zájem “. To je podle jeho názoru potenciálně škodlivé jak pro jednotlivce, tak pro společnost . Kritizuje Google a Facebook za to, že obsahově nabízejí „příliš mnoho sladkostí a málo mrkve“. Varuje, že jsme „novým informacím vystaveni pouze v omezené míře“ a že náš úhel pohledu je zúžen, protože „neviditelné algoritmy upravují web pro redakční účely“. Pariser si myslí, že škodlivé účinky filtrační bubliny také způsobují zmatek na společnost obecně v tom smyslu, že může „podkopat občanský diskurz“ a učinit lidi vnímavějšími a náchylnějšími k „ propagandě a manipulaci “.

Napsal:

"Svět vytvořený ze známého je svět, ve kterém se není co učit ... [protože] existuje neviditelná automobilová propaganda, která nás indoktrinuje našimi vlastními nápady ."

- Eli Pariser, The Economist, 2011

Měření

Různorodost dostupných zpráv a informací, které tvoří velikost filtrační bubliny, je obtížné zaznamenat a kvantifikovat kvůli individuálním rozdílům v množství spotřeby zpráv. Proto je nejprve důležité definovat, který kontext mediální rozmanitosti je třeba blíže zvážit. Podle Webstera a Ksiazka (2012) se zde můžeme zaměřit na jednu ze tří oblastí:

  1. Média, d. H. na rozmanitost nabízeného obsahu
  2. Jednotlivci a jejich osobní výběr informací
  3. Struktura a rozmanitost čtenářů nebo publika

Je také důležité objasnit, které metody se používají ke zkoumání rozmanitosti zpráv. Kromě sebehodnocení se sbírky dat používají zejména proto, že se předpokládá, že jednotlivci nemohou plně porozumět plnému rozsahu novinek, které mají teoreticky k dispozici. Tyto kolekce dat obsahují kromě vybraných informací také teoreticky dostupné informace. Tyto informace musí být nejprve rozděleny do kategorií pro další analýzu, protože jednotlivé odkazy, obrázky nebo soubory nemají smysl. Po této klasifikaci lze vyvodit závěry o existující rozmanitosti informací pomocí sémantické analýzy. Je třeba poznamenat, že algoritmy, které jsou skutečným důvodem pro personalizované informace, často nejsou k dispozici pro přímou analýzu, protože je online společnosti nezveřejňují.

diskuse

Existují konfliktní zprávy o tom, do jaké míry se používá přizpůsobené filtrování a zda je filtrování pro uživatele výhodné nebo nevýhodné.

Analytik Jacob Weisberg, který píše pro online časopis Slate , provedl v roce 2011 malý, nereprezentativní experiment, aby otestoval Pariserovu teorii: Pět lidí s různými politickými postoji hledalo na internetu přesně stejné vyhledávací dotazy. Výsledek hledání byl téměř stejný u čtyř vyhledávání u všech pěti lidí. Z toho usuzuje, že neexistuje žádný efekt filtrační bubliny a že v důsledku toho je tato teorie filtrační bubliny přehnaná, podle níž jsme všichni „ krmeni v krmném žlabu Daily Me “. Paul Boutin podnikl pro svou recenzi knihy podobný experiment s lidmi s odlišnou historií vyhledávání. Jeho výsledek byl podobný jako u Weisberga: téměř identické výsledky vyhledávání. Profesor počítačových věd a práva z Harvardu Jonathan Zittrain pochybuje o míře zaujatosti ve výsledcích vyhledávání, které Google dosahuje pomocí svého přizpůsobeného filtru. Říká, že dopad personalizovaného vyhledávání na výsledek vyhledávání je jen malý. Existují také zprávy, že uživatel na Googlu může obejít přizpůsobené vyhledávání, pokud chce, odstraněním historie vyhledávání nebo použitím jiných metod. Mluvčí společnosti Google uvádí, že do vyhledávače Google byly integrovány další algoritmy, které „omezují personalizaci a zvyšují rozmanitost výsledků vyhledávání“. Aby bylo možné zásadně chránit před sledováním ze strany provozovatelů webových stránek, může si uživatel do prohlížeče nainstalovat doplňky . B. Lze použít uBlock Origin .

V jedné z nejslavnějších vědeckých studií o filtračních bublinách Bakshy et al. (2015) efekty personalizace algoritmy na rozmanitost informací prezentovaných uživateli Facebooku. Díky spolupráci s Facebookem měli přístup k velkému množství anonymních dat. Výsledky jejich šetření ukazují, že výběr informací prezentovaných uživateli Facebooku je algoritmy ovlivněn pouze v malé míře. Zdá se, že zde funguje spíše sociální homofilie: Lidé online i offline se proto rádi obklopují lidmi, kteří jsou jim podobní. Vzniká tak sociální síť složená z jedinců s podobnými názory, postoji a postoji. Velký vliv má také zřejmě efekt selektivní expozice, podle kterého lidé vědomě i nevědomě filtrují informace, které vůbec vnímají a čtou.

Přesto se objevily zprávy, že Google a další provozovatelé vyhledávačů disponují velkým množstvím informací, které by jim v budoucnu mohly umožnit další personalizaci „internetového zážitku“ uživatele, pokud by se tak rozhodli. Zpráva naznačuje, že Google může sledovat předchozí chování uživatele při procházení, i když nemá osobní účet Google nebo není přihlášen ke svému účtu Google. Další zpráva říká, že Google má spoustu shromážděných dat - pokrývajících deset let - z různých zdrojů, jako je Gmail , Mapy Google a další služby nabízené společností Google kromě skutečného vyhledávače. To však odporuje zprávě, podle které je pokus o přizpůsobení internetu pro každého uživatele velkou technickou výzvou pro internetovou společnost - navzdory obrovskému množství dostupných webových dat o uživateli. Analytik CNN Doug Gross říká, že filtrované vyhledávání se zdá být užitečnější pro spotřebitele než pro občany . Pomáhá spotřebitelům, kteří hledají „pizzu“, najít místní možnosti rozvozu a vhodně odfiltrovat poskytovatele pizzových služeb, kteří jsou daleko . Existují konzistentní zprávy, že weby jako Washington Post , New York Times a další usilují o vytváření personalizovaných informačních služeb. Ty fungují na principu přizpůsobení výsledků vyhledávání uživateli tak, aby se jim pravděpodobně líbil nebo s nimi alespoň souhlasil.

Článek se blíže zabývá problémem elektronických filtrů. Poté nemá uživatel žádný vliv na kritéria použitá k filtrování. Totéž platí pro signály vyhodnocené Googlem během vyhledávání: Uživatel nezjistí, která z těchto dat se používají, ani jak je může změnit. Navíc zde není žádná transparentnost . Uživatel ani neví, jak filtrovat, ani že se filtruje vůbec. Vzhledem k velkému množství informací na internetu jsou však filtrační mechanismy nepostradatelné. Přizpůsobení je považováno za hlavní problém elektronického filtru: Vážení informací je individuálně přizpůsobeno uživateli. Toto nemá možnost filtry zapnout nebo vypnout a ovládat je podle kritérií, která si sami určili. Na závěr Pariser požaduje transparentnost a uživatelskou kontrolu od velkých filtrů, jako jsou Google a Facebook. Výzkumná skupina z University of Delft doporučuje, aby vývojáři filtračních technologií věnovali větší pozornost autonomii a transparentnosti pro uživatele.

Papír publikoval v roce 2020 by se složitost Science Hub Vídeň hovoří jasně o existenci filtračních bublin a najde náznaky tendence k destruktivní sociální fragmentace , pro které je podle Stefan Thurner, tam nejsou žádné reálné preventivní opatření tak daleko.

Kritici považují tezi o filtrační bublině za tvrzení ze špatné perspektivy. Vzhledem k záplavě informací neexistuje žádná alternativa k filtračním technikám. Výběr informací vždy probíhal a je nevyhnutelné, aby nebyly vybrány jiné informace. Jinak by zejména internet umožnil snadno přístupné diskuse mimo cestu otevřením digitálních prostor pro ně. Tato teorie je navíc naivní, protože obsah není jednoduše filtrován nebo nefiltrován, ale je zpracováván, obohacen nebo přesunován mnoha aktéry různými způsoby.

Lepší personalizace

Paul Resnick, profesor na University of Michigan , shrnuje diskusi o filtrační bublině následovně: Personalizace by neměla být hodnocena jako špatná sama o sobě. Podle jeho názoru je přesná personalizace méně starostí než nepřizpůsobení nebo personalizace méněcenných. Filtry mají moc a tedy i odpovědnost vůči veřejnosti. Jednou z povinností filtrů je zejména neprovádět žádnou skrytou personalizaci a nemanipulovat s personalizací jednostranně.

Resnick navrhuje následující návrhy pro lepší přizpůsobení:

Multidimenzionální preference
Téma, umístění, úhel pohledu / ideologie, publikum atd.
Optimalizujte vztah mezi výzkumem zájmů a preferencí uživatelů a komerčním využíváním.
Předvolby portfolia
Umožněte kombinaci náročných a potvrzujících informací.
Indikátor zpožděné preference
Rozlišovat mezi krátkodobými a dlouhodobými preferencemi.
Impuls k dlouhodobým preferencím
Zábava (krátkodobý zájem) vs. vzdělávání (dlouhodobý zájem).
Společná funkce referenčního bodu
Integrace oblíbených témat, která uživatele jinak tolik nezajímají.
Funkce, které berou perspektivu
Abychom snáze porozuměli názorům ostatních.

Vědci z University of Delft se zabývají etickými otázkami personalizace a na toto téma předložili následující nezávazný návrh:

Průvodce návrhem filtračních algoritmů pro přizpůsobení
  1. Ujistěte se, že jsou pro každého uživatele možné různé identity, které se mohou lišit v závislosti na kontextu.
  2. Navrhněte [algoritmus filtru] pro autonomii, aby si uživatel mohl přizpůsobit filtr svým potřebám a změnit identitu na základě svých předchozích interakcí.
  3. Navrhněte [algoritmus filtrování] pro průhlednost, aby si uživatel byl vědom, že k filtrování dochází. Uživatel musí být schopen vidět, která kritéria se používají pro filtrování a jakou identitu uživatele systém používá.

Podobné koncepty

Relevantní paradox

Pojem filtrační bubliny je podobný jinému jevu, který bude popsán jako paradox relevance (anglická paradoxní relevance ). Výsledkem je, že jednotlivci a organizace hledají informace, které jsou považovány za relevantní od samého začátku, ale pak se ukáží jako zbytečné nebo mají částečný zájem. To znamená, že informace, které jsou považovány za irelevantní, ale jsou skutečně užitečné, nejsou brány v úvahu. Problém nastává, protože skutečná relevance konkrétní skutečnosti nebo konceptu v takových případech se projeví poté, co je tato skutečnost dokonce známá. Předtím byla myšlenka dokonce zažít určitou skutečnost zavržena kvůli falešnému vnímání její irelevantnosti. Výsledkem je, že hledač informací je uvězněn v paradoxu a nedokáže se naučit věci, které opravdu potřebuje. Tímto způsobem se stává obětí svého „intelektuálního mrtvého úhlu“. Fenomén paradoxu relevance se objevil v mnoha situacích během intelektuálního vývoje člověka, a je proto důležitým tématem vědy a vzdělávání. Kniha s názvem Řešení IRG z roku 1984 se tímto problémem zabývala a navrhovala obecná řešení.

Echo komorový efekt

Souvisejícím konceptem je efekt echo komory (také echo komora s názvem English Echo Chamber Effect ) v komunikačních studiích , který popisuje, jak naznačuje zvýšená virtuální práce s podobně smýšlejícími lidmi v sociálních sítích, vede ke zúžení pohledu na svět k potvrzení může dojít k chybám . Na rozdíl od filtračních bublin, ve kterých je personalizace způsobena hlavně algoritmy (předem zvolená personalizace), s efektem echo komory personalizaci provádí jedinec sám (self-selected personalization). To znamená, že potenciální zúžení světonázoru je dáno skutečností, že určitý mediální obsah je konzumován a jiný ne, tj. Že spotřeba zpráv je selektivní. Vzhledem k tomu, že u tohoto typu personalizace hrají hlavní roli jednotlivá rozhodnutí, a nikoli například algoritmy, diskutuje se o tomto fenoménu déle než u filtračních bublin a není nutně omezen na online kontext. I v offline kontextu mohou jevy, jako je sociální homofilie, vést k vytváření politicky homogenních skupin, ve kterých členové sdílejí hlavně souhláskové a potvrzující informace a navzájem se dále posilují. To by zase znamenalo nejen to, že by již neexistoval otevřený diskurz mezi různými lidmi s různými myšlenkami, ale také to, že by se veřejnost dále polarizovala a fragmentovala .

Spirála ticha

Elisabeth Noelle-Neumann zformulovala koncept spirály ticha pro politickou arénu . To je chápáno jako dobrovolné zadržování vlastního názoru, pokud je toho názoru, že je v rozporu s většinovým názorem - což v důsledku tlačí menšinové názory stále více zpět. Tento efekt je posílen rolí médií jako strážců brány , protože mohou předstírat většinový názor na základě svých vlastních politických názorů (viz také Politický přístup novinářů ).

Propagandistický model

Propaganda Model navržený podle Noam Chomsky a Edward S. Herman v 1988 pózách tezi, že občanská společnost konsensus ve skutečnosti vzniká prostřednictvím svých organizovaných částí, jako jsou nevládní organizace a sdružení, stejně jako klíčové postavení v hromadných sdělovacích prostředků , a tudíž neodráží skutečná rozmanitost stávajících názorů v populaci. Byl přesněji specifikován Chomským v roce 1991 a následně popsán jako mnohokrát empiricky potvrzen.

Drobnosti

V roce 2016 byla v německy mluvícím Švýcarsku vybrána jako slovo roku „Filter Bubble“ .

literatura

webové odkazy

Wikislovník: filtrační bublina  - vysvětlení významů, původ slov, synonyma, překlady

Individuální důkazy

  1. ^ Eli Pariser: Filtrační bublina: Co vám internet tají. Penguin Press, New York, 2011, ISBN 978-1-59420-300-8 .
  2. ^ Judith Moeller, Natali Helberger: Za filtrační bublinou: koncepty, mýty, důkazy a problémy pro budoucí debaty , zpráva Univerzity v Amsterdamu, 25. června 2018.
  3. a b c Lynn Parramore: Filtrační bublina. In: Atlantik . Citát: „Google byl přizpůsoben pro každého. Takže když jsem letos na jaře měl dva přátele Google „BP“, jeden z nich dostal sadu odkazů, které se týkaly investičních příležitostí v BP. Ten druhý dostal informace o ropné skvrně. “
  4. a b c d e f g h Jacob Weisberg: Bubble Trouble: Přeměňuje nás personalizace webu na solipsistická twits?
  5. ^ A b c Doug Gross: Co vám internet tají. In: CNN. Citát: „Měl jsem přátele Google BP, když došlo k úniku ropy. Jedná se o dvě ženy, které si byly v mnoha ohledech velmi podobné. Jeden získal spoustu výsledků o environmentálních důsledcích toho, co se děje, a o úniku. Ten druhý právě dostal investiční informace a vůbec nic o tom úniku. “
  6. a b c d e Paul Boutin: Vaše výsledky se mohou lišit: Změní se informační dálnice na slepou ulici kvůli automatizovaným filtrům? In: The Wall Street Journal. Citát: „Díky sledování jednotlivých webových prohlížečů pomocí souborů cookie dokáže Google personalizovat výsledky i uživatelům, kteří si nevytvoří osobní účet Google nebo do něj nejsou přihlášeni. ... "
  7. ^ Zhang Yuan Cao, Diarmuid Ó Séaghdha, Daniele Quercia, Tamas Jambor: Auralist: Introduction Serendipity into Music Recommended. (PDF; 645 kB)
  8. a b c d e Engin Bozdag, Job Timmermans: Hodnoty ve filtrační bublině. Algoritmy etiky přizpůsobení v cloudových počítačích. In: C. Detweiler, A. Pommeranz, J. van den Hoven, H. Nissenbaum (Eds.): Proceedings of the 1st International Workshop on Values ​​in Design. Budování mostů mezi RE, HCI a etikou. 6. září 2011, str. 7–15, přístup 4. září 2011.
  9. Rene Pickhardt: Jakých 57 signálů Google používá k filtrování výsledků vyhledávání? ( Upomínka na originál ze dne 13. dubna 2013 v internetovém archivu ) Info: Odkaz na archiv byl vložen automaticky a dosud nebyl zkontrolován. Zkontrolujte původní a archivační odkaz podle pokynů a poté toto oznámení odeberte. Citováno 30. září 2011. @1@ 2Šablona: Webachiv / IABot / www.rene-pickhardt.de
  10. Dirk von Gehlen: Jak nám Google and Co. zamlčují jiné úhly pohledu. Svět bez protichůdného názoru. In: Süddeutsche. 28. června 2011, přístup 14. září 2011.
  11. Jörg Wittkewitz: Intuiční pumpa „Filtrační bublina“. In: netzpiloten.de , přístup 14. září 2011.
  12. a b c d Peter Sennhauser: „Filtrační bublina“. Nová hrozba tajných vrátných. In: netzwertig.com , přístup 14. září 2011.
  13. Jeff Widman : EdgeRank. Průvodce algoritmem Facebooku pro podávání zpráv. In: edgerank.net , přístup 19. března 2013.
  14. Roman Tschiedl: Nejsilnější kanál - sociální pro (algoritmické) vládní média s odkazem na zpravodajský kanál Facebooku. Vídeňská univerzita , 2015, s. 102. přístupné 15. května 2015.
  15. a b c Shira Lazar: Algoritmy a filtrační bublina ničí vaše online zážitky? In: Huffington Post. Citát: „Filtrační bublina je obrazová sféra, která vás obklopuje při hledání na internetu.“
  16. Peter Neugebauer: Ochrana před sledovacími službami, které analyzují chování uživatelů. In: knowhow.ngbonline.de , přístupné 5. února 2021.
  17. Bianca Bosker: Tim Berners-Lee: Facebook ohrožuje web, pozor. In: The Guardian. Citát: „Sociální sítě ohrožují základní principy webu ...“ argumentoval Berners-Lee. „Každé místo je silo, zazděné od ostatních,“ vysvětlil. „Čím víc vstoupíš, tím víc se zamkneš ...“
  18. a b První pondělí: Co se chystá tento měsíc v televizi a ve filmech a knihách: Filtrační bublina od Eli Pariser. In: USA Today. Citát: „Pariser vysvětluje, že krmení nás pouze tím, co je nám známé a pohodlné, nás zavírá před novými nápady, předměty a důležitými informacemi.“
  19. Poznámka: v Engl. Původní text „cukroví a mrkev“, například „sladkosti a mrkev“ jako symbol „vyvážené informační diety“: „Nejlepší úpravy nám dávají trochu obojí. Trochu nám to dá Justina Biebera a trochu Afghánistánu. ... nějaká informační zelenina a ... nějaký informační dezert. "
  20. Bianca Bosker: Facebook, Google nám poskytuje informace o nezdravém jídle, varuje Eli Pariser. In: Huffington Post. Citát: „Pokud jde o obsah, Google a Facebook nám nabízejí příliš mnoho sladkostí a málo mrkve.“
  21. Eli Pariser: Neviditelné síto: Skryté, speciálně pro vás. In: Ekonom . 30. června 2011; Citát: „Kniha pana Parisera poskytuje průzkum vývoje internetu směrem k personalizaci, zkoumá, jak prezentace informací mění způsob, jakým jsou vnímány, a končí recepty na prasknutí filtrační bubliny, která obklopuje každého uživatele.“
  22. Dimitar Nikolov, Diego FM Oliveira, Alessandro Flammini, Filippo Menczer: Měření online sociálních bublin . In: PeerJ Computer Science . páska 1 , 2. prosince 2015, ISSN  2376-5992 , s. e38 , doi : 10,7717 / peerj-cs.38 ( peerj.com [přístup 23. března 2020]).
  23. a b James G. Webster, Thomas B. Ksiazek: Dynamika fragmentace publika: Pozornost veřejnosti ve věku digitálních médií . In: Journal of Communication . páska 62 , č. 1 , 1. února 2012, ISSN  0021-9916 , s. 39–56 , doi : 10.1111 / j.1460-2466.2011.01616.x ( oup.com [přístup 23. března 2020]).
  24. a b E. Bakshy, S. Messing, LA Adamic: Expozice ideologicky různorodým zprávám a názorům na Facebooku . In: Věda . páska 348 , č. 6239 , 5. června 2015, ISSN  0036-8075 , s. 1130–1132 , doi : 10,1126 / science.aaa1160 ( sciencemag.org [přístup 23. března 2020]).
  25. ^ Pablo Barberá, John T. Jost, Jonathan Nagler, Joshua A. Tucker, Richard Bonneau: Tweeting zleva doprava . In: Psychologické vědy . páska 26 , č. 10 , 21. srpna 2015, ISSN  0956-7976 , s. 1531–1542 , doi : 10,1177 / 0956797615594620 (DOI = 10,1177 / 0956797615594620 [přístup 23. března 2020]).
  26. a b Tanja Messingschlager, Peter Holtz: Filtrujte bubliny a ozvěny . In: Markus Appel (ed.): Psychologie post-faktické: O falešných zprávách, „Lügenpresse“, Clickbait & Co. Springer, Berlin, Heidelberg 2020, ISBN 978-3-662-58695-2 , s. 91-102 , doi : 10,1007 / 978-3-662-58695-2_9 (DOI = 10,1007 / 978-3-662-58695-2_9 [přístup 23. března 2020]).
  27. Eli Pariser: Filtrační bublina: Jak jsme na internetu neschopní . Hanser, Mnichov 2012, ISBN 978-3-446-43034-1 .
  28. Poznámka: v původním anglickém textu „Daily Me“ tento termín použili Nicholas Negroponte in Being Digital (Alfred A. Knopf, 1995, ISBN 0-679-43919-6 ) a Cass Sunstein na Republic.com (Princeton University Press, 2002) ražené.
  29. Google Personalizace na Váš výsledek hledaného Plus, jak jej vypnout ( Memento na originálu z 17. srpna 2011 v Internet Archive ) Info: archiv odkaz se automaticky vloží a dosud nebyl zkontrolován. Zkontrolujte původní a archivační odkaz podle pokynů a poté toto oznámení odeberte. ; NGNG; Citát: „Přizpůsobení výsledků vyhledávání Google je automatická funkce, ale tuto funkci můžete vypnout.“ @1@ 2Šablona: Webachiv / IABot / insightfuldevelopment.com
  30. Daniel Berger: Firefox: uBlock Origin chrání před skrytými sledovači. heise online , 26. listopadu 2019, přístup 18. října 2020 (Jedná se zejména o „trackery první strany“, které dosud nebyly sledovány).
  31. Andrei Boutyline, Robb Willer: The Social Structure of Political Echo Chambers: Variation in Ideological homophily in Online Networks . In: Politická psychologie . páska 38 , č. 3 , 2017, ISSN  1467-9221 , s. 551-569 , doi : 10,1111 / pops.12337 ( wiley.com [přístup 23. března 2020]).
  32. ^ Tuan Minh Pham, Imre Kondor, Rudolf Hanel, Stefan Thurner: Vliv sociální rovnováhy na sociální fragmentaci . In: Journal of The Royal Society Interface . páska 17 , č. 172 , listopad 2020, ISSN  1742-5689 , s. 20200752 , doi : 10,1098 / rsif.2020.0752 ( royalsocietypublishing.org [přístup 2. prosince 2020]).
  33. ^ Nová teorie sociální fragmentace. In: Complexity Science Hub Vídeň. 19. listopadu 2020, přístup 2. prosince 2020 .
  34. Christoph Kappes: Lidé, média a stroje - Proč jsou nebezpečí »filtrační bubliny« přeceňována. In: Merkur. 03/2012, text v autorově blogu
  35. ^ A b Paul Resnick: Personalizované filtry Ano: Bubbles No. UMAP snímky s poznámkami. In: presnick.people.si.umich.edu , zpřístupněno 9. září 2011.
  36. ^ Paul Resnick: Personalizované filtry Ano; Bubliny č. In: presnick.livejournal.com , přístup 9. září 2011.
  37. ^ David Andrews: Řešení IRG - hierarchická nekompetentnost a jak ji překonat. Souvenir Press, London, 1984, ISBN 0-285-62662-0 .
  38. Vítejte v Echo komoře - politické debaty ve věku internetu. In: NachDenkSeiten , 5. listopadu 2015, přístup 2. listopadu 2016
  39. Hannah Lühmann : Tajemství ozvěny. In: FAZ . 06.05.2013, přístup 2. listopadu 2016.
  40. Frederik J. Zuiderveen Borgesius, Damian Trilling, Judith Möller, Balázs Bodó, Claes H. de Vreese: Měli bychom si dělat starosti s filtračními bublinami? In: Internet Policy Review . 31. března 2016, ISSN  2197-6775 ( policyreview.info [přístup 17. května 2021]).
  41. ^ Natalie Jomini Stroud: Teorie selektivní expozice . páska 1 . Oxford University Press, 1. května 2014, doi : 10.1093 / oxfordhb / 9780199793471.013.009_update_001 ( oxfordhandbooks.com [přístup 17. května 2021]).
  42. Hypotéza echo komory: roztříštěnost veřejné a politické polarizace prostřednictvím digitálních médií? Získaný 17. května 2021 .
  43. Julia Bähr: Kdo je většina? In: faz.net , přístup 12. července 2015.