算法操控2020美國總統(tǒng)大選登Science封面!Meta首次祭出4篇研究,自證清白,兩極分化無解
你知道,算法究竟是如何影響美國大選的嗎?
今天,「Meta的算法影響2020年美國選舉」研究登上了Science封面。
Meta首次一口氣發(fā)表了4篇具有里程碑意義的研究論文。
目的是為了探討Facebook和Ins在美國2020年選舉中,對關(guān)鍵政治態(tài)度和行為的影響。
研究發(fā)現(xiàn),幾乎沒有證據(jù)表明,Meta平臺會造成有害的 「情感」兩極分化,或?qū)﹃P(guān)鍵政治態(tài)度、信仰或行為產(chǎn)生有實(shí)際意義的影響。
眾所周知,2020年的大選,是拜登勝出。
圖片
如果細(xì)看選票的統(tǒng)計的話,會發(fā)現(xiàn),從全美普選票來看,在計票率為97%時,拜登以50.8%的得票率超過特朗普的47.4%,拜登的優(yōu)勢并不是特別大。
據(jù)稱,特朗普團(tuán)隊和拜登團(tuán)隊僅僅用于Facebook的「政治廣告精準(zhǔn)投放」花費(fèi),分別高達(dá)9770萬美元、8210萬美元。
而事實(shí)真如Meta所說的如此嗎?
Meta自證清白
2020年的美國大選,到今天還是個熱議的話題。
一直以來,F(xiàn)acebook和Ins的算法驅(qū)動著數(shù)十億人在社交網(wǎng)絡(luò)上看到的內(nèi)容,甚至一度成為民主辯論的舞臺。
三年前,Meta便開始著手研究Facebook和Ins對2020年選舉的影響。
圖片
現(xiàn)在,發(fā)表在Science和Nature上的4篇同行評議論文中,Meta首次向公眾展示了研究結(jié)果。
這些研究為Facebook和Ins的算法,如何影響用戶在2020年總統(tǒng)大選前夕看到的內(nèi)容提供了一個有趣的新視角。
布里斯托大學(xué)的心理學(xué)家Stephan Lewandowsky表示,這些實(shí)驗(yàn)很重大。
研究發(fā)現(xiàn),美國保守派人士在Facebook上接觸到的虛假新聞報道比自由派人士多得多。
圖片
但令人驚訝的是,從所有的動態(tài)中刪除一切轉(zhuǎn)發(fā)的內(nèi)容,并沒有影響用戶的政治態(tài)度,或者減少他們觀點(diǎn)的兩極分化。
甚至,不讓大數(shù)據(jù)推內(nèi)容,就讓系統(tǒng)推最新最火的事兒,也沒用。
具體是怎么回事?
四大研究
「回音室」效應(yīng)無效
在許多人看來,Meta的內(nèi)容傳輸算法,會優(yōu)先處理來自志同道合者和團(tuán)體的信息,從而助長政治兩極分化。
人們擔(dān)心這一系統(tǒng)會強(qiáng)化互聯(lián)網(wǎng)「回音室」,助長黨派和虛假信息的傳播。
在Nature的一篇論文中,研究人員主要關(guān)注了社交媒體「回音室」在多大程度上推動政治兩極分化的觀點(diǎn)。
回音室效應(yīng),就是在說用戶接觸到,大量志同道合的信息來源時產(chǎn)生的影響。
圖片
論文地址:https://www.nature.com/articles/s41586-023-06297-w
研究人員證實(shí),大多數(shù)美國用戶看到的大部分內(nèi)容都來自朋友、頁面和群組。但他們指出,所有這些內(nèi)容都不是明確的政治或新聞相關(guān)內(nèi)容。
另外,還發(fā)現(xiàn),減少一致內(nèi)容的數(shù)量會降低參與度,但不會顯著改變用戶的信仰或態(tài)度。
圖片
a. 美國 Facebook 月活躍成年用戶在其 Facebook Feed 中接觸志同道合來源、交叉來源和兩類來源內(nèi)容的分布情況;b. 按來源類型劃分的曝光率累積分布函數(shù)。
「信息流」影響用戶體驗(yàn)
在Science的另一篇研究中,主要著眼于按時間順序排列的信息流,與算法生成的信息流的對比效果。
研究中,23391名Facebook用戶和21373名 Ins用戶被分為兩組:一組接收由Meta常用算法提供的精選內(nèi)容,另一組按時間順序接收新聞和信息。
其理論依據(jù)是,向用戶提供最新的新聞和信息,將擴(kuò)大他們看到的內(nèi)容。
圖片
論文地址:https://www.science.org/doi/10.1126/science.abp9364?adobe_mc=MCMID%3D64243633531002265781381656517959855590%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1690488631
這項(xiàng)研究的出的結(jié)論,Meta平臺的算法信息流影響了用戶的體驗(yàn)。
谷歌操縱大選的揭秘者Frances Haugen稱,這個問題在2021年變得尤為突出,并主張回歸按時間順序排列的信息流。
另外,作者還發(fā)現(xiàn),按時間順序接收內(nèi)容的參與者在Meta社交媒體平臺上花費(fèi)的時間更少,接觸到的內(nèi)容更多樣化(但不一定更可信)。
不過,對兩組參與者的調(diào)查顯示,他們的政治極化程度沒有明顯差異。調(diào)查還顯示,參與者的政治活動(如簽署請愿書)也沒有差異。
在Facebook和Ins上,按時間順序和Algorithmic Feed條件下的用戶體驗(yàn)和行為比較
研究者稱,按時間順序提供的內(nèi)容大大減少了用戶在平臺上花費(fèi)的時間,降低了用戶在平臺上參與內(nèi)容的程度,并改變了他們獲得的內(nèi)容組合。
同時,研究人員表示,按時間順序提供的信息并沒有引起下游政治態(tài)度、知識或離線行為的可察覺變化。
刪除轉(zhuǎn)發(fā)內(nèi)容研究
同樣,另一項(xiàng)同樣發(fā)表在Science上的研究,對2020年大選前「轉(zhuǎn)發(fā)內(nèi)容」的影響進(jìn)行了研究。
圖片
論文地址:https://www.science.org/doi/10.1126/science.add8424?adobe_mc=MCMID%3D64243633531002265781381656517959855590%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1690488631
結(jié)果發(fā)現(xiàn),刪除轉(zhuǎn)發(fā)內(nèi)容大大減少了政治新聞的數(shù)量,包括來自不可信來源的內(nèi)容。
但并沒有顯著影響政治兩極化,或任何個人層面政治態(tài)度的衡量標(biāo)準(zhǔn)。
圖片
無轉(zhuǎn)發(fā)處理和控制條件下的用戶體驗(yàn)和行為比較
用戶訂閱源政治新聞分析
最后,研究人員從自由派還是保守派的角度,分析了用戶訂閱源中出現(xiàn)的政治新聞。
這項(xiàng)研究分析了大約2.08億美國 Facebook用戶的數(shù)據(jù)訪問習(xí)慣,發(fā)現(xiàn)左傾和右傾用戶在分享和消費(fèi)信息方面存在巨大差異。
圖片
論文地址:https://www.science.org/doi/10.1126/science.ade7138?adobe_mc=MCMID%3D64243633531002265781381656517959855590%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1690488631
他們得出的結(jié)論是,F(xiàn)acebook在意識形態(tài)上有實(shí)質(zhì)性的隔離,但意識形態(tài)隔離在頁面和群組發(fā)布的內(nèi)容中的表現(xiàn),遠(yuǎn)遠(yuǎn)多于好友發(fā)布的內(nèi)容。
另外,研究還發(fā)現(xiàn),保守派用戶更有可能看到來自「不可信」來源的內(nèi)容,以及被Meta的第三方事實(shí)核查機(jī)構(gòu)評為虛假的文章。
圖片
總體上看,4項(xiàng)研究的發(fā)現(xiàn),對Meta自身來說很有利,沒有直接證據(jù)去表明算法操縱選舉。
遺憾的是,研究人員稱沒有直接的解決方案,來解決社交媒體上的兩極分化問題。
就像Science中所稱,沒有人愿意說,這意味著社交媒體沒有負(fù)面影響。
圖片
有網(wǎng)友稱,我打賭你不知道Meta付給我300美元,讓我在2020年大選期間停用賬戶。
圖片
Meta在官博表示,未來會發(fā)表更多一系列論文,總共16篇。
谷歌被爆用ML操控選舉
Meta通過發(fā)表研究自撇清白。
不過,Meta之外,谷歌也曾深陷操縱2020大選風(fēng)波中。
2019年8月,谷歌高級工程師Zachary Vorhies泄露了950頁的內(nèi)部文件。
文件內(nèi)容直接披露了谷歌操控大選的證據(jù):
谷歌曾使用黑名單、審查制度和機(jī)器學(xué)習(xí)算法操縱美國大選。
在這個特別的黑名單中,顯示了數(shù)百個在安卓的新聞搜索結(jié)果中被審查的保守派網(wǎng)站,存在明顯的政治偏見。
比如,Daily Caller、Western Journal、RedState、Gateway Pundit、Steven Crowder、Michelle Malkin、Glenn Beck、Rush Limbaugh等都被列入了黑名單。
圖片
緊接著,2021年,Vorhies出版了一本書名為《谷歌泄密: 告密者對大型科技審查制度的揭露》。
他在書中稱,特朗普當(dāng)選對谷歌來說是一個轉(zhuǎn)折點(diǎn)。
2016年大選結(jié)束后,特朗普正式成為總統(tǒng)當(dāng)選人。
無論走到哪里,Vorhies都能聽到谷歌同事談?wù)撨@次選舉有多不公平,并堅稱需要抵制來應(yīng)對特朗普和全球范圍內(nèi)出現(xiàn)的更廣泛的民粹主義運(yùn)動。
谷歌聯(lián)合創(chuàng)始人Sergey Brin在一次公司全體會議上說:
我當(dāng)然覺得這次選舉令人深感不快,我知道你們中的許多人也是如此。然而很多人顯然不認(rèn)同我們所擁有的價值觀。
負(fù)責(zé)谷歌全球事務(wù)的副總裁Kent Walker表示:谷歌必須努力確?!该翊庵髁x」和「民族主義」的崛起只是歷史弧線中的一個暫時現(xiàn)象和小插曲。
這一切證明了,谷歌在2016年大選中確實(shí)輸給了特朗普。
當(dāng)時,谷歌高管和員工采用了各種策略來推選希拉里?克林頓。比如通過谷歌搜索引擎幫助希拉里屏蔽不利信息。
圖片
2019年,Project Veritas公布了谷歌高管Jen Gennai被偷拍的視頻。
在視頻中,Jen Gennai直言不諱說要「防止2016年的事再次發(fā)生」。
之后她補(bǔ)充道,目前谷歌正在嘗試「訓(xùn)練算法」,希望能模擬出一種可能改變特朗普2016年大選勝利結(jié)果的工作方式。
2017年5月31日,特朗普在推特上發(fā)布了一條六個字的短語,盡管有持續(xù)的負(fù)面新聞報道(Despite the constant negative press covfefe.)
其中,Covfefe是特朗普專門將coverage(報道)一詞拼寫錯誤。
在一份被泄露的名為「covfefe Translate Easter egg」文件中,谷歌的工程師們甚至從阿拉伯語詞典中刪除了「covfefe」這個詞以及它的意思「I will stand up」,并用聳肩表情符號取而代之,以推進(jìn)他們的反特朗普政治議程。
圖片
由此看來,谷歌有權(quán)決定美國公民看到什么內(nèi)容,不會看到哪些內(nèi)容。
美國將在2024年再次開啟大選,而這次比以往更加不同。
生成式AI的大爆發(fā), 讓許多媒體預(yù)測,這將成為美國第一場廣泛使用AI工具的選舉。
AI對選舉的影響讓許多人坐立不安,ChatGPT、Midjourney、Gen-2等工具能夠瞬時生成以假亂真的圖片、視頻、音頻等宣傳材料。
這場技術(shù)政治大戰(zhàn),最終的結(jié)果就是利用AI欺騙選民,影響真正的選舉結(jié)果。
參考資料:
https://about.fb.com/news/2023/07/research-social-media-impact-elections/
https://www.science.org/doi/full/10.1126/science.adj7023
https://www.nature.com/articles/d41586-023-02420-z






















