首頁>城市生活 >
馬斯克等全球千名科技人士聯(lián)名呼吁暫停更強(qiáng)大的AI開發(fā) 2023-04-03 09:56:37  來源:中國青年報(bào)

最近,有關(guān)ChatGPT和人工智能,幾乎每天都有新聞。隨著更“聰明”的GPT-4發(fā)布,人們對(duì)技術(shù)的恐慌和對(duì)科技倫理的擔(dān)憂,得到了更多關(guān)注。3月27日,《中國青年報(bào)》以《GPT-4再燃熱點(diǎn) 拷問科技倫理邊界》為題對(duì)該現(xiàn)象進(jìn)行了報(bào)道。

最新的消息是,當(dāng)?shù)貢r(shí)間3月29日,美國非營利組織未來生命研究所(Future of Life Institute)發(fā)布了一封名為“暫停巨型AI實(shí)驗(yàn)”的公開信。上千名人工智能專家和行業(yè)高管在信中呼吁,所有人工智能實(shí)驗(yàn)室應(yīng)當(dāng)暫停對(duì)更強(qiáng)大的人工智能系統(tǒng)的開發(fā)和訓(xùn)練。至少,暫停半年。他們建議,如果不能迅速實(shí)施這種暫停,“政府應(yīng)介入并實(shí)行暫?!?。


(資料圖)

人工智能對(duì)社會(huì)和人類的潛在風(fēng)險(xiǎn),已經(jīng)成為不少科技人士的共識(shí),其中包括“人工智能教父”杰弗里·辛頓、特斯拉和推特CEO埃隆·馬斯克、圖靈獎(jiǎng)得主約書亞·本希奧。為此,他們?cè)谶@封公開信上簽下了自己的名字。

“只有當(dāng)我們能夠確信,AI體系的有利因素都是積極的,且風(fēng)險(xiǎn)都可控,一個(gè)強(qiáng)大的AI體系才能成熟?!惫_信中這樣寫道。

實(shí)際上,這不是未來生命研究所第一次公開呼吁對(duì)人工智能發(fā)展的警惕。2014年,這個(gè)組織在美國成立,成立的初衷一方面是促進(jìn)對(duì)“未來樂觀圖景”的研究,一方面則是“降低人類面臨的現(xiàn)存風(fēng)險(xiǎn)”。而后者一直是其關(guān)注的重點(diǎn)。

2015年,物理學(xué)家斯蒂芬·霍金和埃隆·馬斯克等數(shù)位科學(xué)家、企業(yè)家,與人工智能領(lǐng)域有關(guān)的投資者,聯(lián)名發(fā)出了一封公開信,警告人們必須更多地注意人工智能的安全性及其社會(huì)效益。

那時(shí),AI還沒有像今天這樣,呈現(xiàn)出令人不安的“智能”。但從那時(shí)候開始,馬斯克就已經(jīng)表示,他堅(jiān)信不受控制的人工智能“可能比核武器更危險(xiǎn)”。

8年后,在愈來愈動(dòng)蕩的經(jīng)濟(jì)形勢(shì)中,新一封公開信的簽署者們提出疑問:“我們是否應(yīng)該讓機(jī)器用宣傳和謊言充斥我們的信息渠道?我們是否應(yīng)該自動(dòng)化所有工作,包括令人滿意的工作?我們是否應(yīng)該發(fā)展最終可能比我們更多、更聰明,淘汰并取代我們的非人類思維?我們應(yīng)該冒險(xiǎn)失去對(duì)我們文明的控制嗎?”

歐洲刑警組織3月27日也發(fā)出警告,ChatGPT等人工智能聊天機(jī)器人很可能被犯罪分子濫用:“大型語言模型檢測(cè)和重現(xiàn)語言模式的能力,不僅有助于網(wǎng)絡(luò)釣魚和在線欺詐,還可以用來冒充特定個(gè)人或群體的講話風(fēng)格。”他們的創(chuàng)新實(shí)驗(yàn)室已經(jīng)組織了多次研討會(huì),探討犯罪分子可能會(huì)怎么做,列出了潛在的有害使用方式。

這些簽署者希望,奔向危險(xiǎn)的腳步能夠“暫?!?,先共同開發(fā)出一套用于高級(jí)人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專家進(jìn)行嚴(yán)格審計(jì)和監(jiān)督。AI開發(fā)人員也需要與政策制定者合作,開發(fā)強(qiáng)大的AI治理系統(tǒng)。

至少,建立專門負(fù)責(zé)AI的、有足夠準(zhǔn)備和能力的監(jiān)管機(jī)構(gòu)。

中青報(bào)·中青網(wǎng)記者 張渺

關(guān)鍵詞:

相關(guān)閱讀:
熱點(diǎn)
圖片