過濾氣泡
過濾氣泡(英語:filter bubble),又稱為同溫層、個人化資料過濾[1]、篩選小圈圈、資訊繭房、信息繭房 (information coccons)等[2][3],是一種網站針對個人化搜尋、推薦系統和算法管理篩選後內容的結果所造成的現象。搜尋結果根據用戶信息,例如其位置、過去的點擊行為和搜索歷史記錄。 [4]因此,這種結果可能會導致使用者越來越看不到他們不同意的觀點或資訊,使得認知過於單向,並處於他們的文化、意識形態氣泡之中,最終形成一種有限的、個人化的世界觀。 [5]這些算法做出的選擇只有有時是透明的。 [6]主要的例子包括Google搜尋的個人化搜尋結果以及Facebook的個人化動態消息、亞馬遜與Netflix的過濾性推薦系統。這個詞彙被網絡活動家艾利·帕里澤(英語:Eli Pariser)提出。
然而,關於個性化過濾的發生程度以及此類活動是否有益或有害,存在相互矛盾的報告,且各項研究的結果並未得出明確結論。
「過濾氣泡」一詞由網絡活動家艾利·帕里澤於2010年左右提出。在帕里澤於2011年出版的書籍《搜尋引擎沒告訴你的事》中預測 ,透過算法過濾進行的個性化定製的內容將導致智力孤立與社會分化。 [7]帕里澤認為,過濾氣泡效應可能對公民討論產生負面影響,但也有觀點認為其影響有限且可解決。 [8][9]根據帕里澤的觀點,使用者接觸到的對立觀點較少,思想被孤立在自己的過濾氣泡中。 [10]他舉例說明,一位使用者在Google搜尋「BP」時,獲得的內容是關於英國石油公司的投資新聞,而另一位搜尋者則得到了有關深水地平線漏油事件的資訊,並指出儘管使用相同關鍵字,兩個搜尋結果頁面「截然不同」。 [10] [11] [12] [8] 2016 年美國總統大選的結果與社交媒體平台如Twitter和Facebook的影響有關, 這引發了對「過濾泡泡」現象是否會影響用戶接觸假新聞和回音室效應的質疑, 並引起了對該術語的新興關注, [13]許多人擔心這一現象可能通過加劇錯誤信息的影響來損害民主與福祉。 [14] [15] [13] [16] [17] [18]
概念
編輯帕里澤(Pariser)將「過濾氣泡」的概念正式定義為「由這些算法所構建的個人資訊生態系統」。 [10]網絡使用者的過去瀏覽與搜尋紀錄,會隨着時間累積,當他們透過「點擊連結、查看朋友、將電影加入觀片清單、閱讀新聞報導」等行為表達對特定議題的興趣時,這些資訊會被收集。 [19] 隨後,網絡公司會利用這些資料針對使用者投放目標式廣告,或使某些類型的資訊在搜尋結果頁面中更加突出地顯示。 [19]
這個過程並非隨機,而是遵循帕里澤的三個步驟進行的,他表示:「首先,你需要了解使用者是誰以及他們的興趣。接着,你提供最適合他們的內容和服務。最後,進行調整,你需要確保適配更為精確。使用者的身份會影響他們接觸到的媒體。」 [20] 帕里澤報告道:
根據《華爾街日報》的一項研究,從CNN到Yahoo,再到MSN,前50大網站平均安裝64個含有大量數據的Cookie和個人追蹤信標。在Dictionary.com搜尋「抑鬱」這個詞時,該網站會在你的電腦上安裝多達223個追蹤Cookie和信標,讓其他網站可以針對你推送抗抑鬱藥物的廣告。若在ABC News分享一篇關於烹飪的文章,你可能會在網絡上被特氟龍鍋具的廣告所追蹤。即使只是短暫打開一個顯示配偶可能作弊徵兆的頁面,你也可能會被DNA親子鑑定廣告困擾。 [21]
根據網站流量測量顯示的連結點擊數據,過濾氣泡可以是集體的,也可以是個人化的。 [22]
2011年,一位工程師告訴帕里澤,Google會根據57個不同的數據項目來個性化使用者的搜尋結果,其中包括非Cookie類型的資訊,例如使用的電腦類型及使用者的實際位置。 [23]
帕里澤的過濾氣泡概念在2011年5月的TED 演講後廣為流傳。在演講中,他舉例說明了過濾氣泡的運作方式以及其可見的地方。在一項旨在展示過濾氣泡效應的實驗中,帕里澤要求幾位朋友在Google搜尋「埃及」一詞並將結果發送給他。比較其中兩位朋友的搜尋結果頁面時,雖然他們在新聞和旅遊等主題上有重疊,但其中一位朋友的結果頁面顯示了有關當時進行中的2011 年埃及革命的資訊連結,而另一位朋友的結果頁面則未顯示這些連結。[24]
在《搜尋引擎沒告訴你的事》一書中,帕里澤警告過濾搜尋可能帶來的負面影響,指出它使我們遠離新的想法、議題和重要資訊, [25]並創造出一種錯覺,讓我們認為狹隘的自我利益即是唯一存在的事物。 [11]他認為,過濾氣泡可能對個人及社會造成傷害。他批評 Google和Facebook為使用者提供「過多的糖果而不足夠的胡蘿蔔」。 [26]他還警告,「無形的算法編輯」可能會限制我們接觸新資訊的機會,並縮小我們的視野。[26]根據帕里澤的觀點,過濾氣泡的負面影響之一是可能對社會造成危害,因為它們有可能「削弱公民話語」,並使人們更易受到「宣傳與操控」的影響。 [11]他寫道:
一個由熟悉事物構成的世界,是一個無法學到新知的世界……(因為)存在着無形的自動宣傳,讓我們被自己的思想所洗腦。
許多人並未察覺過濾氣泡的存在。這可以從《衛報》的一篇文章中得知,文章提到「超過60%的Facebook使用者完全不知Facebook存在任何內容策展,而是認為每一則來自朋友和關注頁面的故事都會出現在他們的新聞動態中。」[28] 簡單來說,Facebook會決定哪些內容應該出現在使用者的新聞動態中,依賴的是一種演算法,該算法會考量「使用者過去如何與類似的帖子互動」。 [28]
概念的延伸
編輯過濾氣泡被形容為加劇了一種現象,稱為「網絡分裂」或「網絡巴爾幹化」, 這種現象發生於互聯網被劃分為由志同道合的人組成的子群體時,這些群體在自己的線上社群中相互隔離,無法接觸到不同的觀點。這一擔憂可追溯至互聯網的早期,「網絡巴爾幹化」這一術語於1996年首次提出 [29] [30] [31]其他術語也被用來描述此現象,包括「意識形態框架」 [11]和「你在搜尋網絡上時所處的比喻性領域」。 [19]
過濾氣泡的概念已被擴展至其他領域,用來描述那些根據政治觀點、經濟、社會和文化情況而自我隔離的社會。 [32]這種現象導致了廣泛社群的喪失,並創造出一種感覺,例如,孩子們似乎不適合參加社交活動,除非這些活動特別為孩子設計,且對沒有孩子的成年人缺乏吸引力 [32]
奧巴馬在告別演說中提到了一個與過濾氣泡相似的概念,並將其視為對「美國民主的威脅」,即「我們退縮進自己的氣泡中,...特別是在我們的社交媒體動態中,周圍都是與我們相似的人,擁有相同的政治觀點,並且從不挑戰我們的假設...而且,隨着時間推移,我們變得如此安於自己的氣泡,以至於只接受符合我們觀點的信息,無論其真偽,而不是根據現有的證據來形成我們的看法。」[33]
與回音室效應的比較
編輯「回音室」與「過濾氣泡」都描述了個體暴露於狹窄範圍的觀點和立場,這些觀點和立場加強了他們既有的信念與偏見,但兩者之間存在一些微妙的區別,特別是在社交媒體的使用方式上[34] [35]
在新聞媒體中,回音室是用來比喻一種情況,其中信念在封閉系統內通過溝通和重複而被放大或強化。[36] [37]該這個術語源自社會學中的選擇性接觸理論,並以聲音在空心回音室中反射的現象作為比喻。關於社交媒體,這種情況促進了自我選擇的個性化機制,該機制指的是用戶在特定平台上可以主動選擇進入或退出資訊消費的過程,例如用戶能夠關注其他用戶或加入群組。 [38]
在回音室中,人們可以尋找強化自己既有觀點的信息,這可能無意中成為確認偏差的一種表現。這種反饋機制可能會加劇政治與社會的兩極分化和極端主義。並促使用戶在社交網絡中形成同質性群體,進而加劇群體極化。 [39] 「回音室」強化了個人的信念,卻缺乏事實支持。個體被認同並遵循相同觀點的人圍繞,但他們同時也有能力突破回音室的限制。 [40]
另一方面,過濾氣泡是隱性預設的個性化機制,使用者的媒體消費由個性化算法所塑造;用戶看到的內容會經由人工智能驅動的算法過濾,進一步強化他們既有的信念和偏好,並可能排除相對或多元的觀點。在在這種情況下,使用者扮演的是較為被動的角色,被視為技術的受害者,因為這項技術自動限制了他們接觸那些可能挑戰其世界觀的信息。 [38]然而,部分研究者認為,因為使用者仍然透過與搜尋引擎和社交媒體網絡的互動,積極選擇性地策劃自己的新聞源和資訊來源,這使得他們實際上直接協助了由人工智能驅動的過濾過程,進而有效參與了自我隔離的過濾氣泡[41]
儘管這些術語有所不同,但在學術界與平台研究中,它們的使用是密切相關的。在社交網絡研究中,由於過濾算法的可存取性有限,往往難以區分這兩個概念,這可能會限制研究者比較和對比這兩個概念的作用 [42]隨着許多社交媒體平台也開始限制學術研究所需的API存取,這類研究將變得越來越難以進行。 [43]
反應和研究
編輯媒體反應
編輯有關個性化過濾的發生程度以及這種行為是否有益或有害,存在相互矛盾的報告。分析師雅各布·韋斯伯格(Jacob Weisberg)於2011年6月為Slate撰文,撰文,進行了一項小型非科學實驗來測試帕里澤的理論,實驗中五名具有不同意識形態背景的同事進行了一系列搜尋,「約翰·博納」、「巴尼·弗蘭克」、「瑞安計劃」和「 患者保護與平價醫療法案 」,並將他們的搜尋結果截圖發送給韋斯伯格。結果顯示,從人到人之間的差異僅限於些微之處,且任何差異似乎與意識形態無關,這讓韋斯伯格得出結論,過濾氣泡並未生效,並表示,大多數網絡使用者「在每日的資訊流中餵食自己」的說法被過度誇大。 [11]韋斯伯格向Google詢問回應,Google的發言人表示,該公司設有算法故意「限制個性化,並促進多樣性」 [11]書評人保羅·布廷(Paul Boutin)對擁有不同搜尋歷史的人進行了類似的實驗,結果發現不同的搜尋者幾乎得到了相同的搜尋結果 [8]記者佩爾·格蘭克維斯特(Per Grankvist )私下訪問了Google的程序員,發現用戶數據對決定搜尋結果的作用較大,但經過測試,Google認為搜尋查詢無疑是決定顯示結果的最佳依據 [44]
有報導指出,Google 和其他網站會維護龐大的「檔案」,這些檔案包含用戶的資訊,並且如果選擇這麼做,這些資訊可能會讓它們進一步個性化使用者的網絡體驗。例如,Google 具備追蹤用戶歷史紀錄的技術,即使使用者沒有 Google 帳號或未登入,仍然能夠實現。 [8]有報導提到,Google 收集了來自各種來源的「10 年資料」,例如Gmail 、Google地圖以及搜尋引擎等服務, [12]美國有線電視新聞網 (CNN)分析師道格·格羅斯(Doug Gross)認為,過濾搜尋對消費者的幫助大於對公民的影響,並指出它能幫助尋找「披薩」的消費者根據個性化搜尋找到當地的外送選項,並過濾掉遙遠的披薩店 [12]《華盛頓郵報》、 《紐約時報》等媒體機構也曾試驗創建新的個性化資訊服務,旨在量身定製搜尋結果,以符合使用者的喜好或立場[11]
平台研究
編輯對策
編輯個人層面
編輯在《搜尋引擎沒告訴你的事》一書中,[45] 互聯網活動家Eli Pariser指出,過濾氣泡的普及更加凸顯了個人橋接社會資本的重要性,這一概念由羅伯特·普特南(Robert Putnam)所提出。Pariser認為,過濾氣泡會加強社會同質化,使得不同利益和觀點之間的聯繫逐漸削弱。[46] 從這個角度來看,高水平的橋接資本有助於通過擴大我們接觸超越個人利益的社會空間來促進社會包容。提升橋接資本,例如通過在非正式場合與更多人建立聯繫,可能是減少過濾氣泡效應的有效途徑。
用戶可以採取許多行動來突破過濾氣泡,例如有意識地評估自己接觸到的信息,並批判性地思考自己是否正在接觸各種不同的內容。[47] 用戶可以有意識地避開那些無法驗證或資訊薄弱的新聞來源。IAB行銷副總裁Chris Glushko建議使用事實查證網站來辨別假新聞。[48] 技術也可以在對抗過濾氣泡方面發揮重要作用。[49]
一些瀏覽器插件旨在幫助用戶走出過濾氣泡,並讓他們意識到自己偏向的觀點;這些插件會顯示與他們的信仰和觀點相矛盾的內容。除了插件之外,還有一些應用程式專門設計來鼓勵用戶打破回音室效應。例如,像《Read Across the Aisle》這樣的新聞應用會提示用戶閱讀不同的觀點,特別是當他們的閱讀習慣過於偏向某一方或意識形態時。[50] 儘管這些應用程式和插件為用戶提供了工具,但Eli Pariser指出:「當然,這裏也有個人責任,必須主動尋找那些與自己不同的來源和人群。」[51]
由於網絡廣告會加劇過濾氣泡的影響,通過向用戶展示更多相似的內容,用戶可以通過刪除搜尋歷史、關閉定向廣告或下載瀏覽器擴展來屏蔽大部分廣告。部分用戶會選擇使用匿名或非個性化的搜尋引擎,例如YaCy、DuckDuckGo、Qwant、Startpage.com、Disconnect和Searx,以避免公司收集他們的搜尋數據。《瑞士日報》《Neue Zürcher Zeitung》正在測試一款個性化新聞應用,該應用利用機器學習推測用戶的興趣,同時「始終包含驚喜元素」;其目的是將一些用戶過去不太可能關注的故事加入到他們的新聞流中。[52]
歐盟已經開始採取措施,旨在減少過濾氣泡的影響。歐洲議會正在資助對過濾氣泡如何影響人們獲取多元新聞的調查。[53] 同時,歐盟還推出了一項計劃,旨在幫助市民提高對社交媒體的認識與使用方式。[54] 在美國,CSCW小組建議媒體消費者使用新聞聚合應用程式,以拓寬他們的新聞視野。這些新聞聚合應用會掃描當前的所有新聞文章,並引導用戶閱讀不同觀點的內容。用戶也可以使用一種視覺化的新聞平衡器,顯示自己在閱讀新聞時是否有偏向。若偏向右派,則顯示紅色條形增大;若偏向左派,則顯示藍色條形增大。針對這款新聞平衡器的研究結果表明,「在看到反饋的用戶中,閱讀行為有了小幅但明顯的變化,向更加均衡的曝光轉變,相較於對照組有所不同」。[55]
媒體公司方面
編輯由於近期對社交媒體信息過濾的關注,Facebook已經承認了過濾氣泡的存在,並開始採取措施來消除這一現象。[56] 2017年1月,Facebook因為一些用戶未能看到熱門事件,決定從「熱門話題」列表中去除個性化設定。[57] Facebook的策略是推翻2013年推出的「相關文章」功能,該功能會在用戶閱讀完共享的文章後,展示相關新聞。如今,改進後的策略將顛倒這一過程,展示來自不同觀點的文章,而非僅僅是相同觀點的報導。此外,Facebook也在進行篩選過程,保證只有來自可信來源的文章會被展示。與Craigslist創始人及其他合作夥伴一起,Facebook已經投入1400萬美元,旨在「提高全球對新聞的信任,並促進更有建設性的公共對話」。[56] 其理念是,即使人們只閱讀來自朋友分享的帖子,這些帖子也應該是可信的。
同樣地,Google於2018年1月30日也承認其平台存在過濾氣泡的問題。由於目前的Google搜尋結果會根據「權威性」和「相關性」的算法排名,這使得某些搜尋結果會被隱藏或顯示出來,Google正在努力解決這一問題。為了限制過濾氣泡的範圍,Google正在訓練其搜尋引擎識別搜尋查詢的用戶意圖,而不僅僅依據字面語法。這一訓練的初步階段將於2018年第二季度推出。然而,涉及偏見或爭議性意見的問題將推遲處理,這引發了目前仍然存在的一個更大問題:搜尋引擎究竟應該充當真理的裁決者,還是作為一個指導決策的知識性工具?[58]
2017年4月,報導指出,Facebook、Mozilla和Craigslist共同出資1400萬美元,支持CUNY的「新聞誠信計劃」,該計劃旨在對抗假新聞並促進更誠實的新聞媒體。[59]
隨後在8月,Mozilla(Firefox瀏覽器的開發者)宣佈成立Mozilla信息信任計劃(MITI)。此計劃旨在作為一項集體努力,開發產品、進行研究,並提出基於社群的解決方案,以應對過濾氣泡的影響以及假新聞的蔓延。Mozilla的開放創新團隊負責領導此計劃,專注於對抗虛假信息,並特別關注與信息素養、研究及創意干預相關的產品。[60]
倫理影響
編輯隨着雲端服務的普及,構建過濾氣泡的個人化演算法預期將變得更加普遍。[61] 學者已開始從倫理學角度考量過濾氣泡對社群媒體使用者的影響,尤其是在個人自由、安全性和資訊偏見等方面。[62] 社群媒體與個人化搜尋網站的過濾氣泡,經常透過演算法決定使用者看到的特定內容,且多數情況下未經使用者的直接同意或知悉,[61]因為內容的策展是由演算法自動完成的。根據行為模式生成的個人化內容可能導致部分資訊盲區。[63] 批評者認為,由於過濾氣泡的普遍存在,個人可能會失去對其社群媒體體驗的控制權,且其身份有可能因此被社會建構。[61]
科技專家、社群媒體工程師與電腦專家也探討了過濾氣泡的廣泛存在。[64] Facebook創辦人馬克·祖克伯與《過濾氣泡》的作者伊萊·帕里澤都曾表達對私隱風險及資訊極化的擔憂。[65][66] 個人化搜尋引擎與社群媒體平台的使用者資訊並非完全保密,儘管一些人認為這些資料應該受到保護。[65] 對私隱的擔憂引發了討論,即資訊技術人員是否有道德責任在不操控用戶未來資訊暴露的情況下,利用用戶的線上活動數據。[66]
一些學者對過濾氣泡對個人和社會福祉的影響表示關切,特別是在健康資訊向大眾傳播以及網絡搜尋引擎可能改變健康相關行為方面的潛在影響。[16][17][18][67] 一本2019年的跨學科書籍探討了過濾氣泡在健康錯誤資訊中的角色,並提供了相關的研究與觀點。[18] 這本書結合了新聞學、法律、醫學與健康心理學等不同領域,探討了各種爭議性健康信念(如替代醫學和偽科學)以及應對過濾氣泡和回音室對健康議題負面影響的潛在解決方案。2016年一項關於過濾氣泡對自殺相關搜尋結果潛在影響的研究發現,演算法在是否顯示幫助熱線和相關搜尋結果方面起著關鍵作用,並討論了該研究對健康政策的潛在啟示。[17] 另一項2016年克羅地亞醫學期刊的研究則提出了一些減少過濾氣泡對健康資訊有害影響的策略,例如:加強公眾對過濾氣泡及其影響的認識,鼓勵用戶選擇其他[非Google]搜尋引擎,並更多地解釋搜尋引擎如何決定顯示結果的過程。[16]
由於個別社群媒體用戶所見的內容會受到產生過濾氣泡的演算法影響,因此,使用社群媒體平台的用戶更容易受到確認偏誤的影響,[68] 並可能接觸到有偏見和誤導性的資訊。[69] 社會分類和其他無意的歧視性行為也預計會由個人化過濾所引發。[70]
鑑於2016年美國總統選舉,學者們同樣對過濾氣泡對民主和民主過程的影響表示關切,以及「意識形態媒體」的興起。[71] 這些學者擔心,隨着過濾氣泡創建了個人化的社交媒體動態,用戶將無法「超越自己狹隘的自我利益」,從而使他們與多元觀點及周圍社群隔離開來。[72] 因此,越來越多的討論開始提到,應該設計更多隨機性元素的社交媒體,亦即主動推薦超出用戶過濾氣泡的內容,包括具有挑戰性的政治信息,並最終向用戶提供賦能過濾器和工具。[73][74][75] 另一項相關的關切是,過濾氣泡如何促進假新聞的蔓延,並且這可能會影響政治傾向,包括用戶的投票行為。[71][76][77]
2018年3月,揭露了劍橋分析公司(Cambridge Analytica)在2016年總統選舉期間,為至少8700萬個Facebook用戶收集並利用資料的事件,這突顯了過濾氣泡所帶來的倫理問題。[78] 劍橋分析公司的聯合創始人兼吹哨人Christopher Wylie詳細說明了該公司如何通過這些用戶資料建立「心理檔案」,並利用這些資料來影響用戶的投票行為。[79] 第三方如劍橋分析公司訪問用戶資料,可能加劇並放大已經存在的過濾氣泡,人工強化現有的偏見,進一步加深社會的分裂。
過濾氣泡的危害
編輯過濾氣泡源自於媒體個性化的興起,這種現象可能會將使用者困在其中。人工智能用於個性化推送的方式,可能會導致使用者只看到強化其既有觀點的內容,而不會挑戰這些觀點。像是 Facebook 等社交媒體網站,也可能以使使用者難以判斷內容來源的方式呈現內容,迫使他們自行決定該來源是否可靠或是否為假訊息。 [80]這可能使人們習慣聽取自己想聽的內容,進而在看到相對立的觀點時反應更為激烈。過濾氣泡可能會使個人將任何反對的觀點視為錯誤,從而使媒體能夠將觀點強加於消費者。 [81] [80] [82]
參見
編輯- 帕里瑟.伊萊。 《搜尋引擎沒告訴你的事》 ,企鵝出版社(紐約,2011 年)ISBN 978-1-59420-300-8
外部連結
編輯- 當心網絡上的過濾氣泡。 TED 演講,2011 年 3 月
參考資料
編輯- ^ Filter Bubble是甚麼?. 台灣搜尋引擎優化與行銷研究院:SEO:SEM. 2012-05-29 [2017-07-04]. (原始內容存檔於2016-11-22) (中文(臺灣)).
- ^ 許竹. 微博的“信息繭房”效應及其思考. 人民網. 2018-09-27 [2022-04-23]. (原始內容存檔於2022-04-23).
- ^ Technopedia, Definition – What does Filter Bubble mean? 互聯網檔案館的存檔,存檔日期2017-10-10., Retrieved October 10, 2017, "....A filter bubble is the intellectual isolation, that can occur when websites make use of algorithms to selectively assume the information a user would want to see, and then give information to the user according to this assumption ... A filter bubble, therefore, can cause users to get significantly less contact with contradicting viewpoints, causing the user to become intellectually isolated...."
- ^ Bozdag, Engin. Bias in algorithmic filtering and personalization. Ethics and Information Technology. September 2013, 15 (3): 209–227. S2CID 14970635. doi:10.1007/s10676-013-9321-6.
- ^ Huffington Post, The Huffington Post "Are Filter-bubbles Shrinking Our Minds?" 互聯網檔案館的存檔,存檔日期2016-11-03.
- ^ Encrypt, Search. What Are Filter Bubbles & How To Avoid Them. Search Encrypt Blog. 2019-02-26 [2019-03-19]. (原始內容存檔於2019-02-25).
- ^ Kitchens, Brent; Johnson, Steve L.; Gray, Peter. Understanding Echo Chambers and Filter Bubbles: The Impact of Social Media on Diversification and Partisan Shifts in News Consumption. MIS Quarterly. 2020-12-01, 44 (4): 1619–1649. S2CID 229294134. doi:10.25300/MISQ/2020/16371.
- ^ 8.0 8.1 8.2 8.3 Boutin, Paul. Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters?. The Wall Street Journal. May 20, 2011 [August 15, 2011]. (原始內容存檔於April 5, 2015).
By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don't create a personal Google account or are not logged into one. ...
引用錯誤:帶有name屬性「twsO13」的<ref>
標籤用不同內容定義了多次 - ^ Zhang, Yuan Cao; Séaghdha, Diarmuid Ó; Quercia, Daniele; Jambor, Tamas. Auralist: Introducing serendipity into music recommendation. 2012: 13–22. ISBN 9781450307475. doi:10.1145/2124295.2124300.
- ^ 10.0 10.1 10.2 Parramore, Lynn. The Filter Bubble. The Atlantic. October 10, 2010 [April 20, 2011]. (原始內容存檔於August 22, 2017).
Since December 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....
- ^ 11.0 11.1 11.2 11.3 11.4 11.5 11.6 Weisberg, Jacob. Bubble Trouble: Is Web personalization turning us into solipsistic twits?. Slate. June 10, 2011 [August 15, 2011]. (原始內容存檔於June 12, 2011). 引用錯誤:帶有name屬性「twsO11」的
<ref>
標籤用不同內容定義了多次 - ^ 12.0 12.1 12.2 Gross, Doug. What the Internet is hiding from you. CNN. May 19, 2011 [August 15, 2011]. (原始內容存檔於April 9, 2016).
I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.
引用錯誤:帶有name屬性「twsO14」的<ref>
標籤用不同內容定義了多次 - ^ 13.0 13.1 Jasper Jackson. Eli Pariser: activist whose filter bubble warnings presaged Trump and Brexit: Upworthy chief warned about dangers of the internet's echo chambers five years before 2016's votes. The Guardian. 8 January 2017 [March 3, 2017]. (原始內容存檔於7 March 2017).
..."If you only see posts from folks who are like you, you're going to be surprised when someone very unlike you wins the presidency," Pariser tells The Guardian....
- ^ Mostafa M. El-Bermawy. Your Filter Bubble is Destroying Democracy. Wired. November 18, 2016 [March 3, 2017]. (原始內容存檔於March 9, 2017).
...The global village that was once the internet ... digital islands of isolation that are drifting further apart each day ... your experience online grows increasingly personalized ...
- ^ Drake Baer. The 'Filter Bubble' Explains Why Trump Won and You Didn't See It Coming. New York Magazine. November 9, 2016 [March 3, 2017]. (原始內容存檔於February 26, 2017).
...Trump's victory is blindsiding ... because, as media scholars understand it, we increasingly live in a "filter bubble": The information we take in is so personalized that we're blind to other perspectives....
- ^ 16.0 16.1 16.2 Holone, Harald. The filter bubble and its effect on online personal health information. Croatian Medical Journal. June 2016, 57 (3): 298–301. PMC 4937233 . PMID 27374832. doi:10.3325/cmj.2016.57.298.
- ^ 17.0 17.1 17.2 Haim, Mario; Arendt, Florian; Scherr, Sebastian. Abyss or Shelter? On the Relevance of Web Search Engines' Search Results When People Google for Suicide. Health Communication. February 2017, 32 (2): 253–258. PMID 27196394. S2CID 3399012. doi:10.1080/10410236.2015.1113484.
- ^ 18.0 18.1 18.2 Medical Misinformation and Social Harm in Non-Science Based Health Practices: A Multidisciplinary Perspective. CRC Press. [2020-04-22]. (原始內容存檔於2020-08-04) (英語).
- ^ 19.0 19.1 19.2 Lazar, Shira. Algorithms and the Filter Bubble Ruining Your Online Experience?. Huffington Post. June 1, 2011 [August 15, 2011]. (原始內容存檔於April 13, 2016).
a filter bubble is the figurative sphere surrounding you as you search the Internet.
引用錯誤:帶有name屬性「twsO15」的<ref>
標籤用不同內容定義了多次 - ^ Pariser, Eli. The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. Penguin. 2011-05-12 [2020-10-11]. ISBN 9781101515129. (原始內容存檔於2021-01-19).
- ^ How Filter Bubbles Distort Reality: Everything You Need to Know. 2017-07-31 [2019-06-23]. (原始內容存檔於2019-07-03).
- ^ Nikolov, Dimitar; Oliveira, Diego F.M.; Flammini, Alessandro; Menczer, Filippo. Measuring online social bubbles. PeerJ Computer Science. 2 December 2015, 1: e38. Bibcode:2015arXiv150207162N. arXiv:1502.07162 . doi:10.7717/peerj-cs.38 .
- ^ Pariser, Eli. Beware online "filter bubbles". March 2011 [2018-05-30]. (原始內容存檔於2018-05-28).
- ^ Pariser, Eli. Beware online 'filter bubbles'. TED.com. March 2011 [2017-09-24]. (原始內容存檔於2017-09-22).
- ^ First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser. USA Today. 2011 [April 20, 2011]. (原始內容存檔於2011-05-03).
Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.
- ^ 26.0 26.1 Bosker, Bianca. Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns. Huffington Post. March 7, 2011 [April 20, 2011]. (原始內容存檔於March 13, 2011).
When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.
- ^ Invisible sieve: Hidden, specially for you. The Economist. 30 June 2011 [June 27, 2011]. (原始內容存檔於3 July 2011).
Mr Pariser's book provides a survey of the internet's evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user.
- ^ 28.0 28.1 Hern. How social media filter bubbles and algorithms influence the election. The Guardian. 2017-05-22 [2018-05-30]. (原始內容存檔於2018-05-31).
- ^ Van Alstyne, Marshall; Brynjolfsson, Erik. Electronic Communities: Global Village or Cyberbalkans? (PDF). March 1997 [Copyright 1996] [2017-09-24]. (原始內容存檔 (PDF)於2016-04-05).
- ^ Van Alstyne, Marshall; Brynjolfsson, Erik. Could the Internet Balkanize Science?. Science. November 1996, 274 (5292): 1479–1480. Bibcode:1996Sci...274.1479V. S2CID 62546078. doi:10.1126/science.274.5292.1479.
- ^ Alex Pham; Jon Healey. Systems hope to tell you what you'd like: 'Preference engines' guide users through the flood of content. Chicago Tribune. September 24, 2005 [December 4, 2015]. (原始內容存檔於December 8, 2015).
...if recommenders were perfect, I can have the option of talking to only people who are just like me....Cyber-balkanization, as Brynjolfsson coined the scenario, is not an inevitable effect of recommendation tools.
- ^ 32.0 32.1 Menkedick, Sarah. Why are American kids treated as a different species from adults?. Aeon. 14 May 2020 [2020-05-15]. (原始內容存檔於2020-05-15) (英語).
- ^ Obama, Barack. President Obama's Farewell Address (演講). Washington, D.C. 10 January 2017 [24 January 2017]. (原始內容存檔於24 January 2017).
- ^ Hosanagar, Kartik. Blame the Echo Chamber on Facebook. But Blame Yourself, Too. Wired. 2016-11-25 [2017-09-24]. (原始內容存檔於2017-09-25).
- ^ DiFonzo, Nicholas. The Echo-Chamber Effect. The New York Times. 2011-04-21 [2017-09-24]. (原始內容存檔於2017-06-13).
- ^ sdf. John Gorenfeld, Moon the Messiah, and the Media Echo Chamber. Daily Kos. 2004-06-23 [2017-09-24]. (原始內容存檔於2016-05-02).
- ^ Jamieson, Kathleen Hall; Cappella, Joseph N. Echo Chamber: Rush Limbaugh and the Conservative Media Establishment . Oxford University Press. 2008-07-22 [2017-09-24]. ISBN 978-0-19-536682-2.
- ^ 38.0 38.1 What are Filter Bubbles and Digital Echo Chambers? | Heinrich-Böll-Stiftung | Tel Aviv - Israel. Heinrich-Böll-Stiftung. [2023-03-08] (英語). 引用錯誤:帶有name屬性「il.boell.org」的
<ref>
標籤用不同內容定義了多次 - ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Galeazzi, Alessandro; Quattrociocchi, Walter; Starnini, Michele. The echo chamber effect on social media. Proceedings of the National Academy of Sciences. 2021-03-02, 118 (9): e2023301118. Bibcode:2021PNAS..11823301C. ISSN 0027-8424. PMC 7936330 . PMID 33622786. doi:10.1073/pnas.2023301118 (英語).
- ^ Elanor Colleoni; Alessandro Rozza; Adam Arvidsson. Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data. Journal of Communication. April 2014, 64 (2): 317–332. doi:10.1111/jcom.12084. hdl:10281/66011 .
- ^ Ekström, Axel G.; Niehorster, Diederick C.; Olsson, Erik J. Self-imposed filter bubbles: Selective attention and exposure in online search. Computers in Human Behavior Reports. 2022-08-01, 7: 100226. ISSN 2451-9588. S2CID 251434172. doi:10.1016/j.chbr.2022.100226 (英語).
- ^ Reviglio, Urbano; Agosti, Claudio. Thinking Outside the Black-Box: The Case for "Algorithmic Sovereignty" in Social Media. Social Media + Society. April 2020, 6 (2): 205630512091561. ISSN 2056-3051. S2CID 219019544. doi:10.1177/2056305120915613. hdl:2434/840214 (英語).
- ^ Twitter's plan to cut off free data access evokes 'fair amount of panic' among scientists. www.science.org. [2023-03-08] (英語).
- ^ Grankvist, Per. The Big Bubble: How Technology Makes It Harder to Understand the World. United Stories Publishing. 2018-02-08: 179. ISBN 978-91-639-5990-5.
- ^ Eli Pariser. The Filter Bubble: What the Internet Is Hiding from You . New York: Penguin Press. May 2011: 17. ISBN 978-1-59420-300-8.
- ^ Stephen Baron; John Field; Tom Schuller. Social capital: A review and critique.. Social Capital: Critical perspectives. Oxford University Press. November 30, 2000. ISBN 9780199243679.
- ^ Are we stuck in filter bubbles? Here are five potential paths out. Nieman Lab. [2017-03-03]. (原始內容存檔於2017-03-04).
- ^ Glushko, Chris. Pop the Personalization Filter Bubbles and Preserve Online Diversity. Marketing Land. 2017-02-08 [22 May 2017]. (原始內容存檔於2017-03-15).
- ^ Ritholtz, Barry. Try Breaking Your Media Filter Bubble. Bloomberg. 2 February 2017 [22 May 2017]. (原始內容存檔於2017-08-21).
- ^ A news app aims to burst filter bubbles by nudging readers toward a more "balanced" media diet. Nieman Lab. [2017-05-24]. (原始內容存檔於2017-05-15).
- ^ 引用錯誤:沒有為名為
:0
的參考文獻提供內容 - ^ Mădălina Ciobanu. NZZ is developing an app that gives readers personalised news without creating a filter bubble: The app uses machine learning to give readers a stream of 25 stories they might be interested in based on their preferences, but 'always including an element of surprise'. Journalism.co.uk. 3 March 2017 [March 3, 2017]. (原始內容存檔於3 March 2017).
... if, based on their consumption history, someone has not expressed an interest in sports, their stream will include news about big, important stories related to sports,...
- ^ Catalina Albeanu. Bursting the filter bubble after the US election: Is the media doomed to fail? At an event in Brussels this week, media and politicians discussed echo chambers on social media and the fight against fake news. Journalism.co.uk. 17 November 2016 [March 3, 2017]. (原始內容存檔於10 March 2017).
... EU referendum in the UK on a panel at the "Politicians in a communication storm" event... On top of the filter bubble, partisan Facebook pages also served up a diet heavy in fake news....
- ^ European Commission. [2017-03-03]. (原始內容存檔於2017-03-04).
- ^ Resnick, Paul; Garrett, R. Kelly; Kriplean, Travis; Munson, Sean A.; Stroud, Natalie Jomini. Bursting your (Filter) bubble. Proceedings of the 2013 conference on Computer supported cooperative work companion - CSCW '13. 2013: 95. ISBN 978-1-4503-1332-2. S2CID 20865375. doi:10.1145/2441955.2441981.
- ^ 56.0 56.1 Vanian, Jonathan. Facebook Tests Related Articles Feature to Fight Filter Bubbles. Fortune.com. 2017-04-25 [2017-09-24]. (原始內容存檔於2017-09-25).
- ^ Sydell, Laura. Facebook Tweaks its 'Trending Topics' Algorithm to Better Reflect Real News. KQED Public Media. NPR. 25 January 2017 [5 April 2018]. (原始內容存檔於26 February 2018).
- ^ Hao, Karen. Google is finally admitting it has a filter-bubble problem. Quartz. [2018-05-30]. (原始內容存檔於2018-05-04).
- ^ Facebook, Mozilla and Craigslist Craig fund fake news firefighter. [2019-01-14]. (原始內容存檔於2018-11-23).
- ^ The Mozilla Information Trust Initiative: Building a movement to fight misinformation online. The Mozilla Blog. [2019-01-14]. (原始內容存檔於2019-01-14).
- ^ 61.0 61.1 61.2 Bozdag, Engin; Timmerman, Job. Values in the filter bubble Ethics of Personalization Algorithms in Cloud Computing. ResearchGate. [6 March 2017]. (原始內容存檔於14 December 2020).
- ^ Al-Rodhan, Nayef. The Many Ethical Implications of Emerging Technologies. Scientific American. [6 March 2017]. (原始內容存檔於8 April 2017).
- ^ Haim, Mario; Graefe, Andreas; Brosius, Hans-Bernd. Burst of the Filter Bubble?. Digital Journalism. 16 March 2018, 6 (3): 330–343. S2CID 168906316. doi:10.1080/21670811.2017.1338145 .
- ^ 過濾氣泡提出了重要議題——你只需自行過濾. Rainforest Action Network. [6 March 2017]. (原始內容存檔於8 April 2017).
- ^ 65.0 65.1 Sterling, Greg. 馬克·祖克伯的宣言:Facebook 如何連結世界、打擊假新聞並突破過濾氣泡. Marketing Land. 2017-02-20 [6 March 2017]. (原始內容存檔於2017-03-08).
- ^ 66.0 66.1 Morozov, Evgeny. 你的事實. 紐約時報. 2011-06-10 [6 March 2017]. (原始內容存檔於2017-03-04).
- ^ Hesse, Bradford W.; Nelson, David E.; Kreps, Gary L.; Croyle, Robert T.; Arora, Neeraj K.; Rimer, Barbara K.; Viswanath, Kasisomayajula. 信任與健康資訊來源:網路的影響及其對醫療提供者的啟示:來自第一次健康資訊國家趨勢調查的發現. Archives of Internal Medicine. 12 December 2005, 165 (22): 2618–24. PMID 16344419. doi:10.1001/archinte.165.22.2618.
- ^ El-Bermawy, Mostafa. 過濾氣泡正摧毀民主. Wired. 2016-11-18 [6 March 2017]. (原始內容存檔於2017-03-09).
- ^ 如何突破保護我們免受對立觀點的“過濾氣泡”. MIT Technology Review. [6 March 2017]. (原始內容存檔於19 January 2021).
- ^ Borgesius, Frederik; Trilling, Damian; Möller, Judith; Bodó, Balázs; de Vreese, Claes; Helberger, Natali. 我們應該擔心過濾氣泡嗎?. Internet Policy Review. 2016-03-31 [6 March 2017]. (原始內容存檔於2017-03-20).
- ^ 71.0 71.1 引用錯誤:沒有為名為
:4
的參考文獻提供內容 - ^ Pariser, Eli. 過濾氣泡:新個人化網絡如何改變我們閱讀與思考的方式. New York: Penguin Press. 2011. ISBN 978-1-59420-300-8.
- ^ 讚美隨機性. The Economist. 9 March 2017 [14 January 2019]. (原始內容存檔於15 January 2019).
- ^ Reviglio, Urbano. 隨機性作為資訊領域的新興設計原則:挑戰與機會. Ethics and Information Technology. June 2019, 21 (2): 151–166. S2CID 57426650. doi:10.1007/s10676-018-9496-y.
- ^ Harambam, Jaron; Helberger, Natali; van Hoboken, Joris. 讓算法新聞推薦系統實現民主化:如何在技術飽和的媒體生態系統中具體體現公民發聲. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 28 November 2018, 376 (2133): 20180088. Bibcode:2018RSPTA.37680088H. PMC 6191663 . PMID 30323002. doi:10.1098/rsta.2018.0088.
- ^ Herrman, John. 走進Facebook的(完全瘋狂、無意間龐大、極端偏向的)政治媒體機器. The New York Times. August 24, 2016 [October 24, 2017]. (原始內容存檔於October 19, 2017).
- ^ Del Vicario, Michela; Bessi, Alessandro; Zollo, Fabiana; Petroni, Fabio; Scala, Antonio; Caldarelli, Guido; Stanley, H. Eugene; Quattrociocchi, Walter. 線上錯誤信息的傳播. Proceedings of the National Academy of Sciences. 19 January 2016, 113 (3): 554–559. Bibcode:2016PNAS..113..554D. PMC 4725489 . PMID 26729863. doi:10.1073/pnas.1517441113 .
- ^ Granville, Kevin. Facebook與劍橋分析公司:隨著事件擴大,您需要知道的事情. The New York Times. 19 March 2018 [19 October 2018]. (原始內容存檔於19 October 2018).
- ^ Meredith, Sam. Facebook-劍橋分析公司:資料劫持醜聞的時間線. CNBC. 10 April 2018 [19 October 2018]. (原始內容存檔於19 October 2018).
- ^ 80.0 80.1 Gross, Michael. The dangers of a post-truth world. Current Biology. January 2017, 27 (1): R1–R4. Bibcode:2017CBio...27...R1G. doi:10.1016/j.cub.2016.12.034 .
- ^ How Filter Bubbles Distort Reality: Everything You Need to Know. Farnam Street. 2017-07-31 [2019-05-21]. (原始內容存檔於2019-05-20).
- ^ Dish, The Daily. The Filter Bubble. The Atlantic. 2010-10-10 [2019-05-21]. (原始內容存檔於2017-08-22).
- ^ 83.0 83.1 Filter Bubbles & Confirmation Bias - Fake News (And how to fight it) - LibGuides at Miami Dade College Learning Resources. [2020-10-22]. (原始內容存檔於2020-10-23).