Пређи на садржај

Корисник:Ми22235/песак

С Википедије, слободне енциклопедије
Графичка репрезентација филтрирања информација у филтер мехуру.

Филтер мехур или идеолошки оквир представља стање интелектуалне изолације[1] која може произаћи из персонализованих претрага, система препорука и алгоритамског курирања. Резултати претраге заснивају се на информацијама о кориснику, попут њихове локације, претходног кликтања и историје претраге.[2] Као последица, корисници се удаљавају од информација које се не слажу са њиховим ставовима, ефективно их изолујући у сопствене културне или идеолошке мехуре, што резултује ограниченим и прилагођеним погледом на свет. Одлуке које доносе ови алгоритми понекад су само делимично транспарентне. Примећи примери укључују Гуглове персонализоване резултате претраге и персонализовани „неwс-феед” на Фацебооку.

Међутим, постоје супротстављена извештавања о обиму персонализованог филтрирања и о томе да ли таква активност доноси користи или штету, при чему различите студије производе неодређене резултате.

Израз „филтер мехур” је смислио интернет активиста Ели Парисер око 2010. године. У књизи истог назива, Тхе Филтер Буббле из 2011., Парисер је предвидео да ће индивидуализована персонализација путем алгоритамског филтрирања довести до интелектуалне изолованости и социјалне фрагментације.[3] Према Парисеровим речима ефекат мехура може имати негативне импликације за грађанске односе, али ставови супротни његовим сматрају да је ефекат минималан и да се може решити.[4] Према Парисеру, корисници мање долазе у контакт са супротним ставовима и интелектуално су изоловани у свом информационом мехуру.[5] Он је навео пример у којем је један корисник претраживао Гугл за „БП” и добио вести о инвестицијама у Бритисх Петролеум-у, док је други корисник добио информације о хаварији на платформи Деепwатер Хоризон, примећујући да су две странице резултата претраге биле доста различите упркос коришћењу истих кључних речи. Резултати председничких избора у Сједињеним Америчким Државама 2016. године повезани су са утицајем друштвених медија попут Тwиттера и Фацебоока[6], што је довело у питање ефекте феномена филтер мехура на изложеност корисника лажним вестима и ехо коморама.[7] Ово је потстакло ново интересовање за термин[8] јер су многи постали забринутим да би феномен могао да штети демократији и благостању тако што би погоршао ефекте дезинформација.[9]

Концепт[уреди | уреди извор]

Ели Парисер, активиста који је први употребио термин филтер мехур, на свом Тед говору 2011. говори о опасностима филтер мехура.

Паризер је свој концепт филтер мехура дефинисао у формалнијим терминима попут: „лични екосистем информација, прилагођен од стране алгоритама”.[5] Историја прегледа и претраживања интернет корисника се временом гради када корисници показују интересовање за теме кликом на линкове, прегледом садражаја који објављују њихови пријатељи, додавањем филмова у своју листу за гледање, читањем вести и слично.[10] Интернет фирма затим користи ове информације како би креирала персонализоване огласе, или како би одређене врсте информација биле више приказиване на страницама резултата претраге.[10]

Према Парисеру, овај процес није случајан јер функционише по тростепеном процесу: „Прво утврдите ко су људи и шта воле. Затим им пружите садржај и услуге које им највише одговарају. На крају, прилагодите како бисте добили савршено уклапање. Ваш идентитет обликује ваше медије”.[11] Паризер такође извештава:

Према једном истраживању Wалл Стреет Јоурнал-а, топ педесет интернет страница, укључујући ЦНН, Yахоо и МСН, инсталира, у просеку, 64 колачића и личних ознака за праћење. Ако претражујете реч као што је „депресија” на Дицтионарy.цом, страница инсталира до 223 пратећих колачића и ознака на вашем рачунару како би друге веб странице могле да вас „циљају” са антидепресивима. Поделите чланак о кувању на АБЦ Неwс-у, и можете бити прогоњени путем друштвених мрежа огласима за лонце са тефлонским премазом. Чак и ако само на тренутак отворите страницу која наводи знаке да вас партнер можда вара, припремите се да будете прогоњени огласима за ДНК тестове очинства.[12]

Приступање подацима о кликовима на линкове приказаним кроз мерење саобраћаја на сајту одређује да филтер мехури могу бити колективни или индивидуални.[13]

Како је наведено 2011. године, један инжењер је рекао Паризеру да Гугл посматра 57 различитих података како би персонализовао резултате претраге корисника, укључујући и податке који нису у колачићима, попут врсте рачунара који се користи и физичке локације корисника.[14] Парисерова идеја филтер мехура постала је популарна након ТЕД говора у мају 2011. године, у којем је дао примере како филтер мехури функционишу и где се могу видети. У тесту који је спроведен како би се демонстрирали ефекти филтер мехура, Паризер је замолио неколико пријатеља да претраже реч "Египат" на Гуглу и пошаљу му резултате. Иако је било преклапања између њих по питању тема попут вести и путовања, резултати једног пријатеља су проминентно укључивали линкове ка информацијама о тада актуелним протестима у Египту 2011. године, док прва страница резултата другог пријатеља није укључивала такве линкове.[14]

У књизи Тхе Филтер Буббле, Паризер упозорава да потенцијална негативна страна филтрираног претраживања јесте да нас искључује од нових идеја, тема и важних информација, и ствара утисак да су наша уска интересовања све што постоји.[15] По његовом мишљењу, филтер мехури су потенцијално штетни како за појединце тако и за друштво. Критиковао је Гугл и Фесјбук због тога што корисницима нуде „превише слаткиша а премало шаргарепа”.[16] Упозорио је да „невидљиво алгоритамско уређивање веба” може да ограничи нашу изложеност новим информацијама и да нам сузи поглед.[16] Према Паризеру, штетни ефекти филтер мехура укључују штету по опште друштво у смислу да имају могућност поткопавања грађанског благостања и чине људе рањивијим на пропаганду и манипулацију.[15] Написао је:

„Свет који је конструисан из познатог је свет у којем нема шта да се научи ... (јер постоји) невидљива аутопропаганда која нас индоктринира нашим властитим идејама.”, изјавио је Ели Парисер 2011. за часопис Тхе Ецономист.[17]

Многи људи нису свесни постојања филтер мехура. То се може видети у чланку у Тхе Гуардиан-а, који помиње чињеницу да више од 60% корисника Фацебоок-а уопште није свесно било каквог „намештања” на Фејсбуку, већ верују да се свака прича њихових пријатеља и пратилаца појављује на њиховој почетној страници.[18] Кратко објашњење како Фацебоок одлучује шта иде на почетну страницу је путем алгоритма који узима у обзир вашу интеракцију са сличним објавама у прошлости.[18]

Проширења концепта[уреди | уреди извор]

Филтер мехур је описан као погоршавање феномена названог „сплинтернет” или „сајбербалканизација”, што је појава која се дешава када интернет постане подељен на подгрупе слично настројених људи који постају изоловани унутар своје сопствене интернет заједнице и не долазе у додир са различитим ставовима. Ова забринутост датира још од раног периода јавно доступног интернета, при чему је израз „сајбербалканизација” смишљен 1996. године.[19][20] За опис овог феномена коришћени су и други изрази, укључујући и „идеолошки оквири”[15] и „фигуративна сфера која вас окружује док претражујете интернет”.[10]

Концепт филтер мехура је проширен и на друге сфере, како би описао друштва која се самоизолују према политичким ставовима и економским, друштвеним и културним ситуацијама.[21] Та изолација доводи до губитка шире заједнице и ствара осећај да, на пример, деца не припадају друштвеним догађајима осим ако ти догађаји нису посебно планирани да буду привлачни за децу и непривлачни за одрасле без деце.[21]

У свом опроштајном говору, Барак Обама је идентификовао концепт сличан филтер мехуру као претњу демократији, односно „повлачење у своје сопствене мехуре, посебно на друштвеним мрежама, окружени нама сличним људима који деле исте политичке ставове и никада не изазивају наше. I све више постајемо сигурни у наше мехуре да почињемо да прихватамо само информације које одговарају нашим ставовима без обзира да ли су истините или не, уместо да заснивамо своја мишљења на доказима који постоје.”[22]

Поређење са ехо коморама[уреди | уреди извор]

Као што је већ поменуто, ехо коморе и филтер мехури описују ситуације у којима су појединци изложени уском распону мишљења и перспектива које ојачавају њихова постојећа уверења и пристрасности, али постоје неке суптилне разлике између ова два концепта, посебно у праксама везаним за друштвене мреже.[23][24]

Када је реч о вестима, ехо комора је метафорички опис ситуације у којој се веровања појачавају или потврђују комуникацијом и понављањем унутар затвореног система.[25][26] Овај термин потиче из социолошког концепта теорије селективне изложености и метафора је заснована на акустичној ехо комори, где звукови одјекују у празном затвореном простору. Што се друштвених мрежа тиче, оваква ситуација се уклапа у експлицитне механизме самоперсонализације, који описују све процесе у којима корисници одређене платформе могу активно да изаберу укључивање и искључивање из конзумирања информација, као што је способност корисника да прати друге кориснике или да се учлањава у групе.[27]

У ехо коморама, људи су способни да траже информације које потврђују њихове постојеће ставове, потенцијално као несвесно вежбање потврђивања пристрасности. Овај тип повратне информације може да повећа политичку и друштвену поларизацију и екстремизам. То може довести до тога да се корисници групишу у хомофилне групе унутар друштвених мрежа, што доприноси групној поларизацији.[28] Ехо коморе ојачавају веровања појединца без подршке чињеница. Индивидуе су окружене другим индивидуама које прихватају и следе исте ставове, али које такође имају способност да изађу из ехо комора.[29]

С друге стране, филтер мехури су имплицитни механизми персонализације, где се корисникова интернет конзумација креира персонализованим алгоритмима. Садржај који корисник види филтрира се кроз алгоритам покретан од стране вештачке интелигенције који ојачава корисникова постојећа веровања и преференце, потенцијално искључујући супротне или различите ставове. У овом случају, корисници имају пасивнију улогу и постављају се као жртве технологије која аутоматски ограничава њихову изложеност информацијама које би изазвале њихове ставове.[27] Ипак, неки истраживачи тврде да зато што корисници и даље играју активну улогу у креирању својих страница и извора информација кроз њихове интеракције са претраживачима и друштвеним мрежама, они директно помажу у процесу филтрирања од стране алгоритама, чиме ефективно учествују у формирању својих филтер мехура у које се сами изолују.[30]

Иако се разликују, употреба ова два термина иде руку под руку како у академским истраживањима тако и у платформским студијама. Често је тешко разликовати ова два концепта у студијама друштвених мрежа, због ограниченог приступа алгоритмима филтрирања, што би можда омогућило истраживачима да упореде деловања ова два концепта.[31] Овакве врсте истраживања постају све теже за спровођење, с обзиром на то да су многе друштвене мреже такође почеле да ограничавају приступ АПИ-ју потребним за академска истраживања.[32]

Реакције и истраживања[уреди | уреди извор]

Реакције медија[уреди | уреди извор]

Извештаји о томе у којој мери се персонализовано филтрирање дешава и да ли је оно корисно или штетно су међусобно супротстављени. Аналитичар Џејкоб Вајсберг је желео да тестира Паризерову теорију малим ненаучним експериментом у ком је учествовало петоро сарадника са различитим идеолошким профилом. Сарадници су спроводили серију претрага: „Џон Бејнер”, „Барни Френк”, „Рајанов план”, и „Обамакер” и слали Вајсбергу снимке екрана њихових резултата. Њихови резултати су се разликовали у мањим аспектима који нису били идеолошки, што је навело Вајсберга да напише за магазин Слејт да филтер мехур није на снази.[15] Вајсберг је тражио од Гугла да да коментар, на шта је њихов потпарол одговорио да алгоритми намерно „ограничавају персонализацију и промовишу разноликост”.[15] Пол Бутин, рецензент књиге, је урадио експеримент сличан Вајсберговом у којем су учествовали људи са различитим претраживачким навикама и такође закључио да су испитаници добили скоро идентичне резултате.[33] Новинар Пер Гранквист је, незванично интервјуишући програмере из Гугла, открио да су кориснички подаци некада имали већу улогу у одређивању резултата претраге, али да је Гугл тестирањем схватио да поље за претрагу даје убедљиво најбоље одреднице о томе које резултате треба приказати.

Постоје извештаји да Гугл и друге компаније поседују огромне „досијее” података о својим корисницима који им омогућавају да још више персоанлизују садржај који им пласирају ако то желе. На пример, Гугл има начин да прати корисникову историју чак и кад он нема Гугл налог или није улогован на њега.[33] Један извештај наводи да је Гугл прикупио информације „у вредности од 10 година” са различитих извора као што су „Гмаил”, „Гоогле Мапс” и друге услуге осим претраживача[34], иако се у супротном извештају наводи да персонализовање садржаја за сваког корисника представља технички изазов великим интернет фирмама, упркос поседавању огромне количине података. Аналитичар Даг Грос са ЦНН-а је сугерисао да је филтрирано претраживање корисније за потрошаче него за обичне грађане, јер, како он тврди, би то помогло потрошачима који желе да купе пицу да пронађу локалне опције испоруке на основу персонализоване претраге и да филтрирају удаљене пицерије.[34] Организације као што су Тхе Wасхингтон пост, Тхе Неw Yорк Тимес и сличне су експериментисали са прављењем нових информативних услуга које би резултате претраге прилагођавали корисницима тако да би се они слагали са њима или да би им се свидели.[15]

Академска истраживања и реакције[уреди | уреди извор]

Научна студија из Вартона која је анализирала персонализоване препоруке, такође, је открила да филтери могу да створе заједништво, а не раздвојеност, у контексту музичког укуса.[35] Потрошачи наводно користе филтере да прошире свој укус, а не да га ограниче.[35] Џонатан Зитрејн, професор права на Харварду, оспорио је тврдње о томе колико филтери за персонализацију мењају резултате Гугл претраге рекавши да су „ефекти персонализације претраге били благи”.[15] Гугл, такође, омогућава корисницима да искључе опцију персонализоване претраге тако што ће избрисати Гуглов запис о историји њихових претрага и тако што ће подесити Гугл да не памти кључне речи претраге, као ни посећене линкове.[36][33]

Истраживање из Интернет полицy ревиеw је истакло недостатак јасне дефиниције за филтер мехур у различитим дисциплинама. Овај недостатак доводи до тога да истраживачи често дефинишу и проучавај филтер мехур на различите начине.[37] Студија је такође објаснила недостатак емпиријских података за постојање филтер мехура у различитим дисциплинама и сугерисала да ефекти који им се приписују могу више да потичу од већ постојећих идеолишких предрасуда него из алгоритама. Сличне ставове имају и други академски пројекти који се такође баве дефиницијом филтер мехура и односа технолошких и идеолошких факора који су са њима повезани.[38] Један критички преглед филтер мехура сугерише да „теза о филтер мехуру често поставља посебну врсту људи који имају чврсте политичке ставове, али у исто време и веома савитљиве” и да је „парадокс да људи имају активну вољу када они бирају садржај, али су пасивни примаоци када су изложени алгоритамски креираном садржају који им се препоручује.”[39]

Студија истраживача из Оксфорда, Станфорда и Мајкрософта је испитивала историју прегледа 1,2 милиона америчка корисника Бинг-а, између марта и маја 2013. године. Одабрали су 50000 корисника који су били активни читаоци вести, затим су класификовали новине које су читали у зависности од тога да ли су више лево или десно на политичком спектру, у односу на то да ли су окрузи са којима су ИП адресе корисника повезани гласали за Обаму или Ромнија на председничким изборима 2012. године. Затим су утврдили да ли су вести прочитане директним приступом сајту издавача, услуге Гугл вести, веб претраге или друштвених мрежа. Истраживачи су открили да, иако друштвене мреже и веб претраге доприносе идеолошкој сегрегацији, огромна већина читања онлајн вести се састојала од корисника који су директно посећивали мејнстрим сајтове са вестима орјентисаним лево или десно и сходно томе били изложени искључиво погледима једне стране политичког спектра. Ограничења са којима се студија сусрела су била то што су корисници Интернет Еxплорер-а били старији у односу на општу интернет популацију, коришћење Бинг траке са алаткама и добровољно (или несвесно) дељење историје прегледа корисника који су мање забринути за приватност, претпоставка да су све приче објављене на лево орјенисаним сајтовима лево орјентисане и на десно орјентисаним сајтовима десно орјентисане и могућности да се корисници који нису активни читаоци вести већински обавештавају преко друштвених мрежа и тако осете јаче ефекте друштвене и алгоритамске пристрасности од корисника који сами бирају своју пристрасност преко избора сајтова које посећују (под претпоставком да су сами свесни пристрасности сајтова).[40]

Студија истраживача са Универзитета Пристон и Универзитета у Њујорку имала је циљ да проучи утицај филтер мехура и алгоритамског филтрирања на поларизацију дурштвених мрежа. Користили су математички модел под именом „стохастички блок модел” да би тестирали своју хипотезу на окружењима Реддит-а и Тwиттер-а. Истраживачи су процењивали промене у поларизацији на окружењима друштвених мрежа са регулацијом и без регулације, посебно мерећи проценте промене на Реддит-у и Тwиттер-у. Открили су да се поларизација знатно повећала за 400% на мрежама без регулације, док се на мрежама са регулацијом повећала за 4%, а неслагање се повећало за 5%.[41]

Истраживања на друштвеним мрежама[уреди | уреди извор]

Иако алгоритми ограничавају политичку разноликост, неки од филтер мехура су резултат избора корисника.[42] Студија групе стручњака за податке на Фејсбуку је показала да корисници имају једног пријатеља са супротним ставовима на свака четири пријатеља са сличном идеологијом.[43][44] Без обзира на то какав је Фејсбуков алгоритам, људи ће најчешће пратити или додавати за пријатеље људе који деле слична уверења.[43] Природа алгоритама је таква да рангира приче на основу историје корисника, што доводи до смањења „политички унакрсног садржаја за 5% за конзервативце и 8% за либерале”.[43] Међутим, чак и када је корисницима дата опција да се кликне на линк који нуди супротне погледе, они се и даље одлучују за вести које најчешће читају.[43] „Избор корисника смањује вероватноћу да ће кликнути на линк супротне орјентације за 17% за конзервативце и 6% за либерале”.[43] Линк супротне орјенације је линк за који се претпоставља да има супротну политичку орјентацију од корисника или оно што је вебсајт означио као корисникова уверења.[45] Недавна студија Левија Боксела, Метјуа Генцкова и Џесија M. Шапира сугерише да онлајн медији нису покретачка снага политичке поларизацјие.[46] Студија тврди да су поларизацију покренуле демографске групе које проводе најмање времена на интернету. Највећа идеолошка подела постоји међу Американцима који имају више од 75 година, од којих је само 20% изјавило да користи друштвене мреже 2012. године. Насупрот томе 80% Американаца старости од 18 до 39 година изјавило је да користи друштвене мреже исте године. Подаци сугеришу да млађа популација није ништа више поларизована у 2012-ој него што је била 1996. када интернет медији једва да су постојали. Студија наглашава разлике међу старосним групама и како читање вести остаје поларизовано јер људи траже информације које се поклапају са њиховим предрасудама. Старији Американци обично стагнирају са својим политичким ставовима јер су им традиционални медији и даље примарни извор информација, док су интернет медији примарни извори млађој популацији. Иако алгоритми и филтер мехури слабе разноликост садржаја, ова студија показује да политичку поларизацију покрећу примарно већ постојећи ставови и неуспешност у препознавању спољних извора. Немачка студија из 2020-е је користила психолошки модел пет великих црта личности за тестирање ефеката индивидуалне личности, демографије и идеологије на избор вести.[47] Студија је заснована на идеји да количина различитих извора вести које корисници читају утиче на вероватноћу да буду ухваћени у филтер мехуру (већа разноликост, мања шанса). Резултати сугеришу да су одређене демографије (старији и мушкарци) заједно са одређеним цртама личности (отворенији) у позитивној корелацији са количином извора које појединци бирају. Студија је такође открила да је мања медијска разноликост повезана са високим степеном усклађености са десничарским ауторитаризмом. Осим што нуди различите индивидуалне факторе који могу да утичу на избор корисника, ова студија такође поставља питања и везе између вероватноће да корисник буде ухваћен у филтер мехуру и корисникових навика гласања.[47]

Фејсбук студија је открила да се не може закључити да ли алгоритам игра толику улогу у филтрирању садржаја као што људи претпостављају. Студија је такође открила да индивидуални избор или пристрасност потврђивања такође утиче на оно што се филтрира из вести.[48] Неки стручњаци из области друштвених наука су критиковали овај закључак јер је поента протеста против филтер мехура тај да алгоритми и индивидуални избор раде заједно како би филтрирали садржај.[48][45] Предмет критике је био и мали узорак Фејсбука, који износи око 9% стварних корисника, као и чињеница да се резултати студије не могу поновити због чињенице да су студију спровели „Фејсбукови научници” који су имали приступ подацима које Фејсбук не чини доступним истраживачима ван компаније.[49]

Иако је студија открила да само око 15-20% пријатеља просечног корисника Фејсбука има супротсављене политичке ставове, Јулија Каман из Воx-а је имала теорију да би то могло имати потенцијално позитивне импликације на разноликост ставова. Ови „пријатељи” су вероватно само познаници са којима не бисмо вероватно ни делили наше ставове без интернета. Фејсбук може да подстакне окружење у којем корисник види и евентуално ступа у интеракцију са садржајем који су поставили ти пријатељи „другог реда”. Студија је открила да је „24% садржаја које су либерали видели конзервативне природе и 38% садржаја које су конзервативци видели либералне природе”.[50] „Либерали имају тенденцију да буду повезани са мањим бројем пријатеља који деле информације супротне стране, у поређењу са конзервативцима”.[44] Оваква интеракција има могућност да пружи различитије информације и изворе који би могли да ублаже ставове корисника.

Слично томе, студија Твитерових филтер мехура спроведена од стране Универзитета у Њујорку закључила је да појединци сада имају приступ ширем спектру гледишта о догађајима, а већина ових информација не долази са традиционалних извора, већ директно од самих политичара или њихових пријатеља или рођака. Штавише, интерактивна природа друштвених мрежа даје могућност појединцима да дискутују о политичким догађајима са својим вршњацима, чак и са онима са којим имају слабију друштвену повезаност. Према овим студијама друштвене мреже могу да повећају различитост информација и мишљења које корисници виде, иако постоји много спекулација како филтер мехури могу да продубе политичку поларизацију.

Један покретач и могуће решење проблема јер улога коју емоције играју у интернет садржајима. Студија из 2018-е је показала да раличите емоције у порукама могу да доведу до поларизације или ковергенције, радост преовладава у емоционалној поларизацији, док туга и страх играју велику улогу у емоционалној конвергенцији.[51] Пошто је релативно лако открити емоционални садржај порука, ова открића могу помоћи у стварању друштвено одговорнијих алгоритама тако што би се фокусирали на емоционални садржај алгоритамских препорука.

Графички приказ ботова коришћених у Wеибо студији 2019. Дијаграми претстављају структуру филтер мехура, односно, велике концентрације корисника око појединачних тема.

Различити истраживачи су користили друштвене ботове да би тестирали поларизацију и сличне ефекте који се приписују филтер мехурима и ехо коморама.[52][53] Студија из 2018. је користила друштвене ботове на Твитеру да би тестирала намерно излагање корисника страначким ставовима.[52] Студија је тврдила да показује пристрасне разлике између излагања различитим ставовима, иако је упозорила да би налази требало да буду ограничени на америчке Твитер кориснике који су припадници неке странке. Једно од главних открића је да су након излагања различитим ставовима (које су ботови изнели), је било да су саморегистровани републиканци постали конзервативнији, док су саморегистровани либерали показали минималне идеолошке промене ако их је уопште и било. Друга студија из Кине је користила друштвене ботове на Wеибо-у, највећој друштвеној мрежи у Кини, да би испитала утицај филтер мехура на поларизацију.[53] Студија прави разлику између две врсте поларизације. Једна у којој људи са сличним ставовима формирају групе, деле слична мишљења и блокирају се од другачијих ставова (поларизација мишљења), и друга у којој људи немају приступ различитим садржајима и информацијама (поларизација информација). Користећи ботове умести добровољаца и фокусирајући се више на поларизацију информација, истраживачи су закључили да постоје два суштинска елемента филтера: велика концентрација корисника око једне теме и једносмерна структура налик звезди која утиче на кључне токове информација.

Платформа ДуцкДуцкГо је у јуну 2018. спровела истраживање на Гугл веб претраживачкој платформи. За ову студију је 87 одраслих особа са различитих локација у Сједињеним Америчким Државама претраживало три различита појма у исто време: имиграција, контрола оружја и вакцинација. Чак и у режиму приватног прегледања, већина људи је видела резултате јединствене за њих. Гугл је приказао једнима линкове које другима није, а „Неwс анд Видеос” инфокутије су показале значајне варијације. Гугл је јавно оспорио ове резултате рекавши да је персонализација странице са резултатима претраживања углавном мит. Дени Саливан, гуглов званичник, изјавио је да се током година развио мит да се Гугл претрага толико персонализује да за исти упит различити људи могу добити различите резултате и да то није случај, да се резултати могу разликовати, али обично из разлога који немају везе са персонализацијом.[54]

Када су филтер мехури присутни они могу да створе појаву коју научници називају „Вау” тренуци. „Вау” тренутак претставља појаву када се на вашем компјутеру појави чланак, оглас, објава или слично који има везе са вашом тренутном радњом или тренутном употребом објекта. Научници су овај израз открили након што је млада жена у оквиру своје рутине пила кафу, када на свом компјутеру наишла на рекламу за исту марку кафе коју је пила. „Села сам и отворила Фејсбук јутрос док сам испијала јутарњу кафицу и наишла на две рекламе за Неспрессо. То је заиста „Вау” тренутак када производ који пијете искочи на екрану испред вас.” „Вау” тренуци се дешавају када алгоритам „пронађе” људе, што значи да алгоритми за огласе циљају одређене кориснике на основу њихове навике претраживања како би повећали продајне приходе.

Неколико дизајнера је развило алате за сузбијање ефеката филтер мехура који су наведени у даљем тексту.[55] Швајцарска радио станица СРФ је изгласала реч „филтербласе” (немачки превод речи филтер мехура) за реч 2016. године.[56]

Противмере[уреди | уреди извор]

Од појединаца[уреди | уреди извор]

У књизи Тхе Филтер Буббле: Wхат тхе Интернет Ис Хидинг фром Yоу, интернет активиста, Ели Парисер, истиче како све чешћа појава филтер мехура додатно наглашава вредност „повезујућег друштвеног капитала” како га дефинише Роберт Путмен. Парисер тврди да филтер мехури ојачавају осећај „социјалне хомогености”, што слаби везе између људи са потенцијално различитим интересима и ставовима. У том смислу, високи ниво „повезујућег друштвеног капитала” може промовисати социјалну инклузију повећавањем нашег излагања простору који превазилази личне интересе. Развијање „повезујућег капитала”, као што је повезивање са различитим људима у неформалном окружењу, може бити ефикасан начин да се смањи појава филтер мехура.

Корисници могу да предузму многе мере како би пробили своје филтер мехуре, на пример, тако што ће свесно проценити којим информацијама се излажу, и критички размислити о томе да ли су у контакту са широким спектром садржаја.[57] Корисници могу свесно избегавати изворе вести који су неверификовани или слаби. Крис Глушко, потпредседник маркетинга у ИАБ-у, заговара коришћење сајтова за проверу чињеница како би се идентификовале лажне вести.[58] Технологија такође може да игра важну улогу у борби против филтер мехура.[59]

Неки додаци за претраживаче циљају да помогну људима да изађу из својих филтер мехурова и да их учине свесним својих личних погледа тако што приказује медијске садржаје који су супротстављени њиховим веровањима и мишљењима. Поред додатака, постоје и апликације креиране са циљем да подстакну кориснике да отворе своје ехо коморе. Апликације за вести попут Реад Ацросс тхе Аисле гурају кориснике да читају из различитих углова ако је њихов образац читања пристрасан једној идеологији.[60] Иако су апликације и додаци алати које људи могу користити, Ели Парисер је изјавио да свакако, постоји одређена индивидуална одговорност за тражењем нових изворе и људи који нису као ви.[42]

Будући да интернет огласи могу додатно да појачају ефекат филтер мехура излажући кориснике истом садржају, корисници могу да блокирају велики део огласа брисањем своје историје претраге, искључивањем циљаних огласа и преузимањем додатака за претраживаче. Неке особе користе анонимне претраживаче као што су YаЦy, ДуцкДуцкГо, Qwант, Стартпаге.цом, Дисцоннецт и Сеарx како би спречили компаније да прикупљају њихове податке о претрагама. Швајцарски дневни лист Неуе Зüрцхер Зеитунг тестира бета верзију персонализоване апликације за вести која користи машинско учење како би погодила који садржај корисника интересује, док укључује „елемент изненађења”. Идеја је да се убаце приче које корисник вероватно није пратио у прошлости.[61]

Европска унија предузима мере како би се умањио ефекат филтер мехура. Европски парламент спонзорише истраживања о томе како филтер мехури утичу на способност људи да приступе разноврсним вестима.[62] Такође, уведен је програм који има циљ да едукује грађане о друштвеним мрежама.[63] У Сједињеним Америчким Државама, ЦСЦW панел сугерише коришћење апликација за „агрегирање” вести како би се проширила конзумација вести од стране медијских потрошача. Апликације за „агрегирање” вести скенирају све актуелне вести и усмеравају вас ка различитим гледиштима одређене теме. Корисници такође могу користити и „балансер” вести који је свестан разноликости, а који визуелно показује медијском потрошачу да ли се нагиње лево или десно на политичком спектру док чита вести, при чему већи црвени штап означава нагињање на десну страну, а већи плави штап нагињање на леву страну. Студија која је проценила овај „балансер” вести открила је мало, али приметно промену у понашању читалаца, ка више балансираном излагању, код корисника који су добили повратну информацију, у поређењу са контролном групом".[64]

Од медијских компанија[уреди | уреди извор]

У светлу недавних забринутости због филтрирања информација на друштвеним мрежама, Фејсбук је признао присуство филтер мехурова и предузео кораке ка њиховом уклањању.[65] У јануару 2017. године, Фејсбук је уклонио персонализацију са своје листе „тренутних тема” као одговор на проблеме неких корисника који ту нису видели догађаје о којима се доста говорило.[66] Стратегија Фејбука је да поништи функцију „повезаних чланака” која је имплементирана 2013. године, која би објављивала сродне вести након што корисник прочита одређени чланак. Сада, нова стратегија би обрнула овај процес и објавила чланке из различитих перспектива на исту тему. Фејсбук такође покушава да прође кроз процес провере где ће бити приказани само чланци поузданих извора. Фацебоок је, заједно са оснивачем Цраигслист-а и неколико других, инвестирао 14 милиона долара у напоре за повећање поверења у новинарство широм света, и боље информисање јавне расправе.[65] Идеја је да постови буду веродостојни, чак и ако људи читају само постове које су поделили њихови пријатељи.

Слично томе, Гугл је 30. јануара 2018. године такође признао постојање потешкоћа са филтер мехурима унутар своје платформе. Будући да тренутне Гоогле претраге извлаче резултате рангиране алгоритамски на основу „ауторитета” и „релевантности” које приказују и скривају одређене резултате претраге, Гоогле настоји да се избори с тим. Обучавањем свог претраживача да препозна намеру претраге уместо дословне синтаксе питања, Гугл покушава да ограничи величину филтер мехура. Тренутно, почетна фаза овог обучавања биће уведена у другом кварталу 2018. године. Питања која укључују пристрасност или контроверзне ставове неће бити адресирана до даљњег, што доводи до већег проблема који још увек постоји: да ли претраживач делује као судија истине или као обавештени водич за доношење одлука.[67]

У априлу 2017. године појавиле су се вести да су Фејсбук, Мозилла и Цраигслист допринели већем делу донације од 14 милиона долара ЦУНY-овој Иницијативи за интегритет вести, с намером да елиминишу лажне вести и створе поштеније медијске извештаје.[68]

Касније, у августу, Мозилла, творац интернет прегледача Фирефоx, најавили су формирање Мозиллине иницијативе за поверење у информације (МИТИ). МИТИ би служио као заједнички напор развоја производа, истраживања и решења заснованих на заједници како би се борили против ефеката филтер мехура и ширења лажних вести. Тим за отворене иновације у Мозилли води ову иницијативу, с намером да се боре против дезинформација, с посебним фокусом на производ у вези с писменошћу, истраживањем и креативним интервенцијама.[69]

Етицке импликације[уреди | уреди извор]

Са порастом популарности цлоуд услуга, персонализовани алгоритми који се користе за креирање филтер мехура ће постајати све бољи, према очекивањима.[70] Стручњаци су почели да разматрају ефекат филтер мехура на кориснике друштвених мрежа са етичке тачке гледишта, посебно у вези са областима личне слободе, безбедности и пристрасности информација.[71] Филтер мехури на популарним друштвеним мрежама и персонализованим претраживачким сајтовима могу одредити одређени садржај који корисници виде, често без њиховог директног пристанка или свести о томе, због алгоритама који креирају тај садржај.[70] Самостворени садржај који произилази из образаца понашања може довести до парцијалне слепила за информације.[72] Критичари употребе филтер мехура спекулишу да би појединци могли да изгубе аутономију над стварима које виде на друштвеним мрежама и да би њихови идентитети могли бити социјално конструисани као резултат присутности филтер мехура.[70]

Технолози, инжењери друштвених мрежа и стручњаци за рачунаре такође су испитали преваленцију филтер мехура.[73] Марк Закерберг, оснивач Фејсбука, и Ели Парисер, аутор књиге Тхе Филтер Буббле, изразили су забринутост у вези са ризицима приватности и поларизације информација.[74][75] Информације корисника персонализованих претраживача и друштвених мрежа нису приватне, иако неки људи сматрају да би требало да буду.[74] Брига око приватности довела је до дебате о томе да ли је морално да информатичари узмају у обзир корисничку онлајн активност и манипулишу будућим излагањем сродним информацијама.[75]

Неки стручнаци су изразили забринутост због ефеката филтер мехура на индивидуално и друштвено благостање, тј. ширење здравствених информација јавности и потенцијалне ефекте промене понашања интернет претраживача везаним за здравље.[76][77][78][79] Интердисциплинарна књига из 2019. године извештава о истраживањима и перспективама улоге филтер мехура у вези са дезинформацијама о здрављу.[78] Користећи различита поља као што су новинарство, право, медицина и здравствена психологија, књига се бави различитим контроверзним здравственим уверењима (нпр. алтернативна медицина и псеудонаука), као и потенцијалним решењима за негативне ефекте филтер мехура и ехо комора на различите теме у дискурсу о здрављу. Студија из 2016. године о потенцијалним ефектима филтер мехура на резултате претраге везане за самоубиство је утврдила да алгоритми играју важну улогу у томе да ли корисницима приказују телефонске линије за помоћ и сличне резултате претраге.[77] Друга студија из 2016. године из хрватског медицинског часописа предложила је неке стратегије за ублажавање потенцијално штетних ефеката филтер мехура на здравствене информације, као што су: информисање јавности о филтер мехурима и њиховим повезаним ефектима, сугестије корисницима да бирају Гуглу алтернативне претраживае, информисање о процесима које претраживачи користе како би одредили приказане резултате.[76]

Пошто на садржај који виде појединачни корисници друштвених мрежа утичу алгоритми који производе филтер мехуре, корисници друштвених мрежа су подложнији потврђивању својих предрасуда и могу бити изложени пристрасним и заваравајућим информацијама.[9][80] Такође се очекује да ће персонализовано филтрирање довести до социјалног сортирања и других ненамерних дискриминаторних пракса.[81]

У светлу председничких избора у Сједињеним Америчким Државама 2016. године, стручњаци су такође изразили забринутост због ефекта филтер мехура на демократију и демократске процесе, као и због раста „идеолошких медија”.[6] Ови стручњаци страхују да корисници неће бити способни да размишљају изван својих уских интересовања јер филтер мехурови стварају персонализоване друштвене садржаје, изоловајући их од различитих тачака гледишта и њихових околних заједница. Из овог разлога, све више се расправља о могућности дизајнирања друштвених мрежа с више случајности, тј. проактивног препоручивања садржаја који се налази изван нечијег филтер мехура, укључујући изазовне политичке информације и, на крају, пружање оснажујућих филтера и алата корисницима.[82][83][84] Повезана забринутост је заправо како филтер мехури доприносе ширењу лажних вести и како то може утицати на политичку оријентацију, укључујући начин на који корисници гласају.[6][85][86]

Открића из марта 2018. о сакупљању и коришћењу корисничких података од стране Цамбридге Аналyтица-е за најмање 87 милиона профила на Фејсбуку током председничких избора 2016. године наглашавају етичке импликације филтер мехура.[87] Суоснивач Цамбридге Аналyтица-е, Кристофер Вили, детаљно је описао како је фирма имала способност да развије "психографске" профиле тих корисника и користи информације како би обликовала њихово гласачко понашање.[88] Приступ корисничким подацима од стране трећих страна попут Цамбридге Аналyтица може погоршати и појачати постојеће филтер мехуре које су корисници створили, вештачки повећавајући постојеће пристрасности и додатно делујући на поделе у друштву.

Опасности[уреди | уреди извор]

Филтер мехури су настали као последица наглог пораста персонализације мрежа, што може заробити кориснике. Коришћење вештачке интелигенције за персонализацију понуда може довести до тога да корисници виде само садржај који потврђује њихова сопствена гледишта, без изазивања истих. Друштвене мреже странице попут Фејсбука такође могу представљати садржај на начин који корисницима отежава одређивање извора садржаја, терајући их да сами одлуче да ли је извор поуздан или лажан.[89] То може довести до тога да се људи навикну на то да чују оно што желе да чују, што их може натерати да реагују радикалније када виде супротан став. Филтер мехур може довести особу да види све супротне ставове као нетачне и тако омогућити медијима да наметну ставове потрошачима.[89][12][5]

Истраживања објашњавају да филтер мехур потврђује оно што већ мислимо.[90] Због тога је изузетно важно користити ресурсе који нуде различите тачке гледишта.[90]

Референце[уреди | уреди извор]

  1. ^ „Филтер Буббле”. 
  2. ^ Боздаг, Енгин (2013-09-01). „Биас ин алгоритхмиц филтеринг анд персонализатион”. Етхицс анд Информатион Тецхнологy (на језику: енглески). 15 (3): 209—227. ИССН 1572-8439. дои:10.1007/с10676-013-9321-6. 
  3. ^ „Ундерстандинг Ецхо Цхамберс анд Филтер Бубблес: Тхе Импацт оф Социал Медиа он Диверсифицатион анд Партисан Схифтс ин Неwс Цонсумптион”. мисq.умн.еду (на језику: енглески). Приступљено 2024-05-12. 
  4. ^ Боутин, Бy Паул. „Боок Ревиеw: Тхе Филтер Буббле”. WСЈ (на језику: енглески). Приступљено 2024-05-12. 
  5. ^ а б в Дисх, Тхе Даилy (2010-10-10). „Тхе Филтер Буббле”. Тхе Атлантиц (на језику: енглески). Приступљено 2024-05-12. 
  6. ^ а б в Баер, Драке (2016-11-09). „Тхе ‘Филтер Буббле’ Еxплаинс Wхy Трумп Wон анд Yоу Дидн’т Сее Ит Цоминг”. Тхе Цут (на језику: енглески). Приступљено 2024-05-12. 
  7. ^ ДиФранзо, Доминиц; Глориа-Гарциа, Кристине (2017-04-05). „Филтер бубблес анд факе неwс”. XРДС: Цроссроадс, Тхе АЦМ Магазине фор Студентс. 23 (3): 32—35. ИССН 1528-4972. дои:10.1145/3055153. 
  8. ^ Јацксон, Јаспер (2017-01-08). „Ели Парисер: ацтивист wхосе филтер буббле wарнингс пресагед Трумп анд Бреxит”. Тхе Гуардиан (на језику: енглески). ИССН 0261-3077. Приступљено 2024-05-12. 
  9. ^ а б Ел-Бермаwy, Мостафа M. „Yоур Филтер Буббле ис Дестроyинг Демоцрацy”. Wиред (на језику: енглески). ИССН 1059-1028. Приступљено 2024-05-12. 
  10. ^ а б в „Алгоритхмс анд тхе Филтер Буббле Руининг Yоур Онлине Еxпериенце?”. ХуффПост (на језику: енглески). 2011-06-01. Приступљено 2024-05-12. 
  11. ^ Парисер, Ели (2011-05-12). Тхе Филтер Буббле: Хоw тхе Неw Персонализед Wеб Ис Цхангинг Wхат Wе Реад анд Хоw Wе Тхинк (на језику: енглески). Пенгуин. ИСБН 978-1-101-51512-9. 
  12. ^ а б „Хоw Филтер Бубблес Дисторт Реалитy: Еверyтхинг Yоу Неед то Кноw”. 
  13. ^ Николов, Димитар; Оливеира, Диего Ф. M.; Фламмини, Алессандро; Менцзер, Филиппо (2015-12-02). „Меасуринг онлине социал бубблес”. ПеерЈ Цомпутер Сциенце (на језику: енглески). 1: е38. ИССН 2376-5992. дои:10.7717/пеерј-цс.38. 
  14. ^ а б Парисер, Ели (2011-05-02), Беwаре онлине "филтер бубблес", Приступљено 2024-05-12 
  15. ^ а б в г д ђ е Wеисберг, Јацоб (2011-06-10). „Буббле Троубле”. Слате (на језику: енглески). ИССН 1091-2339. Приступљено 2024-05-12. 
  16. ^ а б „Фацебоок, Гоогле Гивинг Ус Информатион Јунк Фоод?”. ХуффПост (на језику: енглески). 2011-03-07. Приступљено 2024-05-12. 
  17. ^ „Инвисибле сиеве”. Тхе Ецономист. ИССН 0013-0613. Приступљено 2024-05-12. 
  18. ^ а б Херн, Алеx (2017-05-22). „Хоw социал медиа филтер бубблес анд алгоритхмс инфлуенце тхе елецтион”. Тхе Гуардиан (на језику: енглески). ИССН 0261-3077. Приступљено 2024-05-12. 
  19. ^ „Елецтрониц Цоммунитиес: Глобал Виллаге ор Цyбербалканс?” (ПДФ). 
  20. ^ ван Алстyне, Марсхалл; Брyњолфссон, Ерик (1996-11-01). „Цоулд тхе Интернет Балканизе Сциенце?”. Сциенце. 274: 1479—1480. ИССН 0036-8075. дои:10.1126/сциенце.274.5292.1479. 
  21. ^ а б „Wхy аре Америцан кидс треатед ас а дифферент специес фром адултс? | Аеон Ессаyс”. Аеон (на језику: енглески). Приступљено 2024-05-12. 
  22. ^ „Пресидент Обама’с Фареwелл Аддресс: Фулл Видео анд Теxт”. Тхе Неw Yорк Тимес (на језику: енглески). 2017-01-11. ИССН 0362-4331. Приступљено 2024-05-12. 
  23. ^ Хосанагар, Картик. „Бламе тхе Ецхо Цхамбер он Фацебоок. Бут Бламе Yоурселф, Тоо”. Wиред (на језику: енглески). ИССН 1059-1028. Приступљено 2024-05-12. 
  24. ^ „Тхе Ецхо-Цхамбер Еффецт”. www.нyтимес.цом (на језику: енглески). Приступљено 2024-05-12. 
  25. ^ „Волусиа цоунтy : Преацхерс, ветс анд тхе хомелесс”. Даилy Кос (на језику: енглески). Приступљено 2024-05-12. 
  26. ^ Катхлеен Халл Јамиесон (2008). Ецхо цхамбер. Интернет Арцхиве. Оxфорд Университy Пресс. ИСБН 978-0-19-536682-2. 
  27. ^ а б „Wхат аре Филтер Бубблес анд Дигитал Ецхо Цхамберс? | Хеинрицх-Бöлл-Стифтунг | Тел Авив - Исраел”. ил.боелл.орг (на језику: енглески). Приступљено 2024-05-12. 
  28. ^ „Тхе ецхо цхамбер еффецт он социал медиа”. 
  29. ^ ацадемиц.оуп.цом https://academic.oup.com/joc/article-abstract/64/2/317/4085994?redirectedFrom=fulltext&login=false. Приступљено 2024-05-12.  Недостаје или је празан параметар |титле= (помоћ)
  30. ^ „Селф-импосед филтер бубблес: Селецтиве аттентион анд еxпосуре ин онлине сеарцх”. 
  31. ^ Ревиглио, Урбано; Агости, Цлаудио (2020-04). „Тхинкинг Оутсиде тхе Блацк-Боx: Тхе Цасе фор “Алгоритхмиц Совереигнтy” ин Социал Медиа”. Социал Медиа + Социетy (на језику: енглески). 6 (2): 205630512091561. ИССН 2056-3051. дои:10.1177/2056305120915613.  Проверите вредност парамет(а)ра за датум: |дате= (помоћ)
  32. ^ „Тwиттер'с план то цут офф фрее дата аццесс евокес 'фаир амоунт оф паниц' амонг сциентистс”. 
  33. ^ а б в Боутин, Бy Паул. „Боок Ревиеw: Тхе Филтер Буббле”. WСЈ (на језику: енглески). Приступљено 2024-05-12. 
  34. ^ а б Wхат тхе Интернет ис хидинг фром yоу | ЦНН Бусинесс (на језику: енглески), 2011-11-01, Приступљено 2024-05-12 
  35. ^ а б „Wилл тхе Глобал Виллаге Фрацтуре инто Трибес: Рецоммендер Сyстемс анд тхеир Еффецтс он Цонсумерс”. 
  36. ^ „Гоогле Персонализатион он Yоур Сеацх Ресултс Плус Хоw то Турн ит Офф”. wеб.арцхиве.орг. 2011-08-17. Приступљено 2024-05-12. 
  37. ^ Брунс, Аxел (2019-11-29). „Филтер буббле”. Интернет Полицy Ревиеw. 8 (4). ИССН 2197-6775. 
  38. ^ Давиес, Х. (2018). „Редефининг филтер бубблес ас (есцапабле) социо-тецхницал рецурсион”. Социологицал Ресеарцх Онлине (на језику: енглески). 23 (3). 
  39. ^ Дахлгрен, Петер M. (2021-01-01). „А цритицал ревиеw оф филтер бубблес анд а цомпарисон wитх селецтиве еxпосуре”. Нордицом Ревиеw (на језику: енглески). 42 (1): 15—33. дои:10.2478/нор-2021-0002. 
  40. ^ Флаxман, Сетх; Гоел, Схарад; Рао, Јустин M. (2013). „Идеологицал Сегрегатион анд тхе Еффецтс оф Социал Медиа он Неwс Цонсумптион”. ССРН Елецтрониц Јоурнал (на језику: енглески). ИССН 1556-5068. дои:10.2139/ссрн.2363701. 
  41. ^ Цхитра, Утхсав; Мусцо, Цхристопхер (2020-01-22). „Аналyзинг тхе Импацт оф Филтер Бубблес он Социал Нетwорк Поларизатион”. Процеедингс оф тхе 13тх Интернатионал Цонференце он Wеб Сеарцх анд Дата Мининг. WСДМ '20. Неw Yорк, НY, УСА: Ассоциатион фор Цомпутинг Мацхинерy: 115—123. ИСБН 978-1-4503-6822-3. дои:10.1145/3336191.3371825. 
  42. ^ а б Аутхор, Гуест (2011-05-16). „5 Qуестионс wитх Ели Парисер, Аутхор оф ‘Тхе Филтер Буббле. Тиме (на језику: енглески). ИССН 0040-781X. Приступљено 2024-05-12. 
  43. ^ а б в г д „Политицал поларизатион он Фацебоок”. Броокингс (на језику: енглески). Приступљено 2024-05-12. 
  44. ^ а б Баксхy, Еyтан; Мессинг, Соломон; Адамиц, Лада А. (2015-06-05). „Еxпосуре то идеологицаллy диверсе неwс анд опинион он Фацебоок”. Сциенце (на језику: енглески). 348 (6239): 1130—1132. ИССН 0036-8075. дои:10.1126/сциенце.ааа1160. 
  45. ^ а б „Wхy Сциентистс Аре Упсет Абоут Тхе Фацебоок Филтер Буббле Студy”. 
  46. ^ Оремус, Wилл (2017-04-05). „Тхе Филтер Буббле Ревиситед”. Слате (на језику: енглески). ИССН 1091-2339. Приступљено 2024-05-12. 
  47. ^ а б „Аге, гендер, персоналитy, идеологицал аттитудес анд индивидуал дифференцес ин а персон'с неwс спецтрум: хоw манy анд wхо мигхт бе проне то 'филтер бубблес' анд 'ецхо цхамберс' онлине?”. 
  48. ^ а б елипарисер (2015-05-07). „Фун фацтс фром тхе неw Фацебоок филтер буббле студy”. Медиум (на језику: енглески). Приступљено 2024-05-12. 
  49. ^ елипарисер. „Дид Фацебоок’с Биг Студy Килл Мy Филтер Буббле Тхесис?”. Wиред (на језику: енглески). ИССН 1059-1028. Приступљено 2024-05-12. 
  50. ^ Камин, Јулиа (2016-12-28). „Цонтрарy то wхат yоу’ве хеард, Фацебоок цан хелп пунцтуре оур политицал "бубблес". Воx (на језику: енглески). Приступљено 2024-05-12. 
  51. ^ Хилберт, Мартин; Ахмед, Саифуддин; Цхо, Јаехо; Лиу, Биллy; Луу, Јонатхан (2018-10-02). „Цоммуницатинг wитх Алгоритхмс: А Трансфер Ентропy Аналyсис оф Емотионс-басед Есцапес фром Онлине Ецхо Цхамберс”. Цоммуницатион Метходс анд Меасурес (на језику: енглески). 12 (4): 260—275. ИССН 1931-2458. дои:10.1080/19312458.2018.1479843. 
  52. ^ а б Баил, Цхристопхер А.; Аргyле, Лиса П.; Броwн, Таyлор W.; Бумпус, Јохн П.; Цхен, Хаохан; Хунзакер, M. Б. Фаллин; Лее, Јаемин; Манн, Марцус; Мерхоут, Фриедолин (2018-09-11). „Еxпосуре то оппосинг виеwс он социал медиа цан инцреасе политицал поларизатион”. Процеедингс оф тхе Натионал Ацадемy оф Сциенцес (на језику: енглески). 115 (37): 9216—9221. ИССН 0027-8424. ПМЦ 6140520Слободан приступ. ПМИД 30154168. дои:10.1073/пнас.1804840115. 
  53. ^ а б „Ендогенетиц струцтуре оф филтер буббле ин социал нетwоркс”. 
  54. ^ Статт, Ницк (2018-12-04). „Гоогле персонализес сеарцх ресултс евен wхен yоу’ре логгед оут, неw студy цлаимс”. Тхе Верге (на језику: енглески). Приступљено 2024-05-12. 
  55. ^ „Хоw до wе бреак филтер буббле анд десигн фор демоцрацy?”. 
  56. ^ „Актуелл - «Филтербласе» ист дас Wорт дес Јахрес 2016”. Сцхwеизер Радио унд Фернсехен (СРФ) (на језику: немачки). 2016-11-28. Приступљено 2024-05-12. 
  57. ^ „Аре wе стуцк ин филтер бубблес? Хере аре фиве потентиал патхс оут”. Ниеман Лаб. Приступљено 2024-05-12. 
  58. ^ Глусхко, Цхрис (2017-02-08). „Поп тхе персонализатион филтер бубблес анд пресерве онлине диверситy”. МарТецх (на језику: енглески). Приступљено 2024-05-12. 
  59. ^ „Блоомберг - Аре yоу а робот?”. www.блоомберг.цом. Приступљено 2024-05-12. 
  60. ^ „А неwс апп аимс то бурст филтер бубблес бy нудгинг реадерс тоwард а море “баланцед” медиа диет”. Ниеман Лаб. Приступљено 2024-05-12. 
  61. ^ „НЗЗ ис девелопинг ан апп тхат гивес реадерс персоналисед неwс wитхоут цреатинг а филтер буббле | Медиа неwс”. www.јоурналисм.цо.ук. 2017-03-03. Приступљено 2024-05-12. 
  62. ^ „Бурстинг тхе филтер буббле афтер тхе УС елецтион: Ис тхе медиа доомед то фаил? | Медиа неwс”. www.јоурналисм.цо.ук. 2016-11-17. Приступљено 2024-05-12. 
  63. ^ „Пресс цорнер”. Еуропеан Цоммиссион - Еуропеан Цоммиссион. Приступљено 2024-05-12. 
  64. ^ Ресницк, Паул; Гарретт, Р. Келлy; Криплеан, Травис; Мунсон, Сеан А.; Строуд, Наталие Јомини (2013-02-23). „Бурстинг yоур (филтер) буббле: стратегиес фор промотинг диверсе еxпосуре”. Процеедингс оф тхе 2013 цонференце он Цомпутер суппортед цооперативе wорк цомпанион. ЦСЦW '13. Неw Yорк, НY, УСА: Ассоциатион фор Цомпутинг Мацхинерy: 95—100. ИСБН 978-1-4503-1332-2. дои:10.1145/2441955.2441981. 
  65. ^ а б „Фацебоок Ис Тестинг Тхис Неw Феатуре то Фигхт 'Филтер Бубблес'. Фортуне (на језику: енглески). Приступљено 2024-05-12. 
  66. ^ „Фацебоок Тwеакс Итс 'Трендинг Топицс' Алгоритхм То Беттер Рефлецт Реал Неwс”. 
  67. ^ „Гоогле ис финаллy адмиттинг ит хас а филтер-буббле проблем”. Qуартз (на језику: енглески). 2018-02-01. Приступљено 2024-05-12. 
  68. ^ Схарwоод, Симон. „Фацебоок, Мозилла анд Цраигслист Цраиг фунд факе неwс фирефигхтер”. www.тхерегистер.цом (на језику: енглески). Приступљено 2024-05-12. 
  69. ^ „Тхе Мозилла Информатион Труст Инитиативе: Буилдинг а мовемент то фигхт мисинформатион онлине | Тхе Мозилла Блог”. блог.мозилла.орг (на језику: енглески). Приступљено 2024-05-12. 
  70. ^ а б в „Валуес ин тхе филтер буббле Етхицс оф Персонализатион Алгоритхмс ин Цлоуд Цомпутинг”. 
  71. ^ Ал-Родхан, Наyеф. „Тхе Манy Етхицал Имплицатионс оф Емергинг Тецхнологиес”. Сциентифиц Америцан (на језику: енглески). Приступљено 2024-05-12. 
  72. ^ Хаим, Марио; Граефе, Андреас; Бросиус, Ханс-Бернд (2018-03-16). „Бурст оф тхе Филтер Буббле?: Еффецтс оф персонализатион он тхе диверситy оф Гоогле Неwс”. Дигитал Јоурналисм (на језику: енглески). 6 (3): 330—343. ИССН 2167-0811. дои:10.1080/21670811.2017.1338145. 
  73. ^ „Тхе Филтер Буббле Раисес Импортант Иссуес – Yоу Јуст Неед То Филтер Тхем Оут Фор Yоурселф - Тхе Ундерсторy”. Раинфорест Ацтион Нетwорк (на језику: енглески). Приступљено 2024-05-12. 
  74. ^ а б Стерлинг, Грег (2017-02-20). „Марк Зуцкерберг'с манифесто: Хоw Фацебоок wилл цоннецт тхе wорлд, беат факе неwс анд поп тхе филтер буббле”. МарТецх (на језику: енглески). Приступљено 2024-05-12. 
  75. ^ а б Морозов, Евгенy (2011-06-10). „Yоур Оwн Фацтс”. Тхе Неw Yорк Тимес (на језику: енглески). ИССН 0362-4331. Приступљено 2024-05-12. 
  76. ^ а б „Тхе филтер буббле анд итс еффецт он онлине персонал хеалтх информатион”. 
  77. ^ а б Хаим, Марио; Арендт, Флориан; Сцхерр, Себастиан (2017-02). „Абyсс ор Схелтер? Он тхе Релеванце оф Wеб Сеарцх Енгинес’ Сеарцх Ресултс Wхен Пеопле Гоогле фор Суициде”. Хеалтх Цоммуницатион (на језику: енглески). 32 (2): 253—258. ИССН 1041-0236. дои:10.1080/10410236.2015.1113484.  Проверите вредност парамет(а)ра за датум: |дате= (помоћ)
  78. ^ а б „Медицал Мисинформатион анд Социал Харм ин Нон-Сциенце Басед Хеалтх Працтицес: А Мултидисциплинарy Перспецтиве”. Роутледге & ЦРЦ Пресс (на језику: енглески). Приступљено 2024-05-12. 
  79. ^ Хессе, Брадфорд W.; Нелсон, Давид Е.; Крепс, Гарy L.; Цроyле, Роберт Т.; Арора, Неерај К.; Ример, Барбара К.; Висwанатх, Касисомаyајула (2005-12-12). „Труст анд Соурцес оф Хеалтх Информатион: Тхе Импацт оф тхе Интернет анд Итс Имплицатионс фор Хеалтх Царе Провидерс: Финдингс Фром тхе Фирст Хеалтх Информатион Натионал Трендс Сурвеy”. Арцхивес оф Интернал Медицине. 165 (22): 2618—2624. ИССН 0003-9926. дои:10.1001/арцхинте.165.22.2618. 
  80. ^ „Хоw то Бурст тхе "Филтер Буббле" тхат Протецтс Ус фром Оппосинг Виеwс”. МИТ Тецхнологy Ревиеw (на језику: енглески). Приступљено 2024-05-12. 
  81. ^ Боргесиус, Фредерик Ј. Зуидервеен; Триллинг, Дамиан; Мöллер, Јудитх; Бодó, Балáзс; Вреесе, Цлаес Х. де; Хелбергер, Натали (2016-03-31). „Схоулд wе wоррy абоут филтер бубблес?”. Интернет Полицy Ревиеw. ИССН 2197-6775. 
  82. ^ „Ин праисе оф серендипитy”. Тхе Ецономист. ИССН 0013-0613. Приступљено 2024-05-12. 
  83. ^ Ревиглио, Урбано (2019-06-01). „Серендипитy ас ан емергинг десигн принципле оф тхе инфоспхере: цхалленгес анд оппортунитиес”. Етхицс анд Информатион Тецхнологy (на језику: енглески). 21 (2): 151—166. ИССН 1572-8439. дои:10.1007/с10676-018-9496-y. 
  84. ^ „Демоцратизинг алгоритхмиц неwс рецоммендерс: хоw то материализе воице ин а тецхнологицаллy сатуратед медиа ецосyстем”. 
  85. ^ Херрман, Јохн (2016-08-24). „Инсиде Фацебоок’с (Тоталлy Инсане, Унинтентионаллy Гигантиц, Хyперпартисан) Политицал-Медиа Мацхине”. Тхе Неw Yорк Тимес (на језику: енглески). ИССН 0362-4331. Приступљено 2024-05-12. 
  86. ^ „Тхе спреадинг оф мисинформатион онлине”. 
  87. ^ Гранвилле, Кевин (2018-03-19). „Фацебоок анд Цамбридге Аналyтица: Wхат Yоу Неед то Кноw ас Фаллоут Wиденс”. Тхе Неw Yорк Тимес (на језику: енглески). ИССН 0362-4331. Приступљено 2024-05-12. 
  88. ^ Мередитх, Сам (2018-04-10). „Фацебоок-Цамбридге Аналyтица: А тимелине оф тхе дата хијацкинг сцандал”. ЦНБЦ (на језику: енглески). Приступљено 2024-05-12. 
  89. ^ а б „Тхе дангерс оф а пост-трутх wорлд”. 
  90. ^ а б Саxтон, Јеннy. „ЛибГуидес: Факе Неwс (анд хоw то фигхт ит): Филтер Бубблес & Цонфирматион Биас”. либрарyгуидес.мдц.еду (на језику: енглески). Приступљено 2024-05-12.