首頁(yè)>資訊 >
從中國(guó)到美國(guó),為什么我們需要禁用算法的權(quán)利 2021-11-15 07:52:37  來(lái)源:36氪

近年來(lái),早前縈繞在互聯(lián)網(wǎng)企業(yè)身上的光環(huán)已經(jīng)開(kāi)始逐漸褪色,并且隨之而來(lái)的,是各國(guó)監(jiān)管機(jī)構(gòu)將其放到了聚光燈之下。就在不久前,國(guó)內(nèi)監(jiān)管部門連續(xù)發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見(jiàn)稿)》與《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》后,海外市場(chǎng)也開(kāi)始關(guān)注互聯(lián)網(wǎng)企業(yè)使用算法所造成的影響了。

日前有消息顯示,美國(guó)眾議院議員提出了一項(xiàng)法案,要求Meta旗下的Facebook和Google等互聯(lián)網(wǎng)平臺(tái)允許用戶查看非算法選擇的內(nèi)容,也就是要求這些平臺(tái)向用戶顯示算法之外的信息。這些議員在聲明中表示,“消費(fèi)者應(yīng)該有權(quán)選擇如何使用互聯(lián)網(wǎng)平臺(tái),而不必受到由特定用戶數(shù)據(jù)驅(qū)動(dòng)的秘密算法操縱?!?/p>

當(dāng)大洋兩岸都開(kāi)始關(guān)注互聯(lián)網(wǎng)企業(yè)用算法來(lái)改變乃至塑造潮流的能力,無(wú)疑是一種好事。畢竟,算法如今已成為了互聯(lián)網(wǎng)世界中幾乎是最為核心的信息推送機(jī)制,并成為了大家日常生活中不可分割的一部分,甚至算法機(jī)制在某種意義上已經(jīng)塑造我們的社會(huì)意識(shí)。

通常,我們所說(shuō)的“算法”指的是推薦算法,本質(zhì)上其實(shí)是一種信息過(guò)濾的手段。早期,互聯(lián)網(wǎng)廠商秉承著原教旨的互聯(lián)網(wǎng)精神,將所有信息一股腦地推給用戶,但用戶卻并沒(méi)有接收海量信息的能力,所以即便是搜索引擎也需要用戶先有一個(gè)“關(guān)鍵詞”。但問(wèn)題是互聯(lián)網(wǎng)上的信息太多,而人的認(rèn)知范圍太小,這就導(dǎo)致了在算法出現(xiàn)前,大量有價(jià)值的信息被浪費(fèi),并沒(méi)有被真正需要的人發(fā)現(xiàn)。

這時(shí)候推薦算法幫助用戶解決了信息過(guò)載的問(wèn)題,是一種信息發(fā)現(xiàn)工具。對(duì)于互聯(lián)網(wǎng)廠商來(lái)說(shuō),推薦算法實(shí)現(xiàn)了挖掘用戶需求并投其所好的作用,它的引入是以內(nèi)容推送代替了用戶的尋找,其設(shè)計(jì)初衷是增加用戶尋找目標(biāo)內(nèi)容的效率。而討好了用戶、滿足了用戶需求,也就意味著互聯(lián)網(wǎng)廠商的商業(yè)利益得到了保證。

那么為什么推薦算法走到今天,卻反過(guò)來(lái)被不少用戶反感,甚至于需要被監(jiān)管呢?一種通俗的解釋,是推薦算法會(huì)讓用戶陷入“信息繭房”或“過(guò)濾氣泡”(Filter Bubble)。因?yàn)樗惴〞?huì)基于用戶的個(gè)人興趣、社交關(guān)系、地理位置等數(shù)據(jù),推薦與用戶偏好高度匹配的個(gè)性化內(nèi)容,但長(zhǎng)期處于單一信息來(lái)源的環(huán)境下則會(huì)形成回音室效應(yīng),將自己桎梏于像蠶繭一般的“信息繭房”中,容易一葉障目不見(jiàn)泰山。

不過(guò)在學(xué)界關(guān)于"算法是否會(huì)將用戶囚禁在信息繭房中”的問(wèn)題,其實(shí)是有一定爭(zhēng)議的。傳播學(xué)中的“選擇性接觸理論”揭示了這樣一個(gè)事實(shí),就是人通常更傾向于接觸與自己既有立場(chǎng)、觀點(diǎn)、態(tài)度一致或接近的媒介和內(nèi)容,而有意無(wú)意地去回避那些與自己既有傾向相左的媒介或內(nèi)容。從這一理論出發(fā),就可以解釋為什么人們更愿意向與自己價(jià)值觀、立場(chǎng)、態(tài)度等相似的人靠近,以此獲得抱團(tuán)取暖、相互支持的可能,并最終形成一個(gè)個(gè)小圈子的原因。

換句話來(lái)說(shuō),基于興趣或價(jià)值觀進(jìn)行信息消費(fèi)其實(shí)是人的天性,陷入“信息繭房”也是某種從人性出發(fā)的必然,所以算法并不是“罪魁禍?zhǔn)住?。而推薦算法真正的問(wèn)題,其實(shí)在于倫理和道德領(lǐng)域,以及它在互聯(lián)網(wǎng)時(shí)代重新建構(gòu)了人與社會(huì)的關(guān)系。

事實(shí)上,推薦算法是在以機(jī)器學(xué)習(xí)為代表的第三次人工智能浪潮興起的背景下出現(xiàn),機(jī)器學(xué)習(xí)算法通過(guò)基于大數(shù)據(jù)的自我訓(xùn)練、自我學(xué)習(xí)過(guò)程,完成參數(shù)調(diào)整與模型構(gòu)建,并實(shí)現(xiàn)自我強(qiáng)化。英國(guó)物理化學(xué)家、哲學(xué)家邁克爾·波蘭尼曾指出,“人類知道的遠(yuǎn)比其能表達(dá)出來(lái)的更多”,這就是經(jīng)典的“波蘭尼悖論”。

在機(jī)器學(xué)習(xí)之前,傳統(tǒng)算法局限于人類對(duì)于自身的表達(dá),需要設(shè)計(jì)者明確計(jì)算機(jī)在給定條件下的給定動(dòng)作,而現(xiàn)在的算法則突破了人類表達(dá)的局限性。固然這帶來(lái)了效率上的飛躍,但算法可以模仿人的思維方式,卻無(wú)法模仿人的倫理自主性,在算法實(shí)現(xiàn)的過(guò)程中排擠了人們對(duì)于倫理邏輯與價(jià)值理性的追求。

這也是為什么會(huì)出現(xiàn)谷歌圖片軟件自動(dòng)將黑人標(biāo)記為“大猩猩”、亞馬遜的招聘軟件在招聘員工時(shí)讀取到帶有女性、女子相關(guān)詞匯時(shí),會(huì)降低簡(jiǎn)歷權(quán)重的現(xiàn)象。又或者說(shuō),在去年秋季引起轟動(dòng)的《外賣騎手,困在系統(tǒng)里》一文中,描述了算法給出的“合理”配送時(shí)間,是需要通過(guò)危險(xiǎn)駕駛、交通違章才能實(shí)現(xiàn)的現(xiàn)象。

當(dāng)然,現(xiàn)階段算法的倫理問(wèn)題其實(shí)是與互聯(lián)網(wǎng)廠商的商業(yè)道德密切相關(guān)的。曾經(jīng)有觀點(diǎn)認(rèn)為,算法只是一個(gè)工具,它公平地對(duì)待平臺(tái)內(nèi)的所有內(nèi)容,并表示“算法沒(méi)有價(jià)值觀”。但遺憾的是,這種說(shuō)法其實(shí)是不科學(xué)的。負(fù)面情緒的激發(fā)在用戶點(diǎn)擊和觀看上有著更為直接且更為有效的作用,并且這已經(jīng)被科學(xué)研究證實(shí),在算法的作用下,負(fù)面信息在內(nèi)容分發(fā)上被給予了遠(yuǎn)超其在傳統(tǒng)媒體中內(nèi)容分發(fā)的權(quán)重。而Facebook為了提高用戶參與度,發(fā)現(xiàn)最好的參與方式便是向用戶灌輸恐懼和憎恨,就其實(shí)是最好的例子。

對(duì)于互聯(lián)網(wǎng)平臺(tái)而言,如果單純以商業(yè)利益為導(dǎo)向,其所采用的推薦算法是必然會(huì)對(duì)負(fù)面信息的分發(fā)推波助瀾。再配搭“過(guò)濾氣泡”的作用,就會(huì)在某一群體內(nèi)促成自我強(qiáng)化的偏見(jiàn)(Self-reinforcing Bias),并最終導(dǎo)致群體極化。

這也是為什么快手聯(lián)合創(chuàng)始人宿華會(huì)說(shuō),“社區(qū)運(yùn)行用到的算法是有價(jià)值觀的,因?yàn)樗惴ǖ谋澈笫侨?,算法的價(jià)值觀就是人的價(jià)值觀,算法的缺陷是價(jià)值觀上的缺陷”。然而,如果算法要契合正向的價(jià)值觀,也就意味著它就是反商業(yè)的,這也是為什么監(jiān)管機(jī)構(gòu)要出手規(guī)制互聯(lián)網(wǎng)廠商算法推薦的原因所在了。

本文來(lái)自微信公眾號(hào) “三易生活”(ID:IT-3eLife),作者:三易菌,36氪經(jīng)授權(quán)發(fā)布。

關(guān)鍵詞: 美國(guó) 中國(guó) 算法

相關(guān)閱讀:
熱點(diǎn)
圖片 圖片