首頁>城市生活 >
馬斯克等全球千名科技人士聯(lián)名呼吁暫停更強大的AI開發(fā) 2023-04-03 09:56:37  來源:中國青年報

最近,有關(guān)ChatGPT和人工智能,幾乎每天都有新聞。隨著更“聰明”的GPT-4發(fā)布,人們對技術(shù)的恐慌和對科技倫理的擔憂,得到了更多關(guān)注。3月27日,《中國青年報》以《GPT-4再燃熱點 拷問科技倫理邊界》為題對該現(xiàn)象進行了報道。

最新的消息是,當?shù)貢r間3月29日,美國非營利組織未來生命研究所(Future of Life Institute)發(fā)布了一封名為“暫停巨型AI實驗”的公開信。上千名人工智能專家和行業(yè)高管在信中呼吁,所有人工智能實驗室應(yīng)當暫停對更強大的人工智能系統(tǒng)的開發(fā)和訓(xùn)練。至少,暫停半年。他們建議,如果不能迅速實施這種暫停,“政府應(yīng)介入并實行暫?!薄?/p>


(資料圖)

人工智能對社會和人類的潛在風(fēng)險,已經(jīng)成為不少科技人士的共識,其中包括“人工智能教父”杰弗里·辛頓、特斯拉和推特CEO埃隆·馬斯克、圖靈獎得主約書亞·本希奧。為此,他們在這封公開信上簽下了自己的名字。

“只有當我們能夠確信,AI體系的有利因素都是積極的,且風(fēng)險都可控,一個強大的AI體系才能成熟。”公開信中這樣寫道。

實際上,這不是未來生命研究所第一次公開呼吁對人工智能發(fā)展的警惕。2014年,這個組織在美國成立,成立的初衷一方面是促進對“未來樂觀圖景”的研究,一方面則是“降低人類面臨的現(xiàn)存風(fēng)險”。而后者一直是其關(guān)注的重點。

2015年,物理學(xué)家斯蒂芬·霍金和埃隆·馬斯克等數(shù)位科學(xué)家、企業(yè)家,與人工智能領(lǐng)域有關(guān)的投資者,聯(lián)名發(fā)出了一封公開信,警告人們必須更多地注意人工智能的安全性及其社會效益。

那時,AI還沒有像今天這樣,呈現(xiàn)出令人不安的“智能”。但從那時候開始,馬斯克就已經(jīng)表示,他堅信不受控制的人工智能“可能比核武器更危險”。

8年后,在愈來愈動蕩的經(jīng)濟形勢中,新一封公開信的簽署者們提出疑問:“我們是否應(yīng)該讓機器用宣傳和謊言充斥我們的信息渠道?我們是否應(yīng)該自動化所有工作,包括令人滿意的工作?我們是否應(yīng)該發(fā)展最終可能比我們更多、更聰明,淘汰并取代我們的非人類思維?我們應(yīng)該冒險失去對我們文明的控制嗎?”

歐洲刑警組織3月27日也發(fā)出警告,ChatGPT等人工智能聊天機器人很可能被犯罪分子濫用:“大型語言模型檢測和重現(xiàn)語言模式的能力,不僅有助于網(wǎng)絡(luò)釣魚和在線欺詐,還可以用來冒充特定個人或群體的講話風(fēng)格?!彼麄兊膭?chuàng)新實驗室已經(jīng)組織了多次研討會,探討犯罪分子可能會怎么做,列出了潛在的有害使用方式。

這些簽署者希望,奔向危險的腳步能夠“暫?!?,先共同開發(fā)出一套用于高級人工智能設(shè)計和開發(fā)的共享安全協(xié)議,并由獨立的外部專家進行嚴格審計和監(jiān)督。AI開發(fā)人員也需要與政策制定者合作,開發(fā)強大的AI治理系統(tǒng)。

至少,建立專門負責AI的、有足夠準備和能力的監(jiān)管機構(gòu)。

中青報·中青網(wǎng)記者 張渺

關(guān)鍵詞:

相關(guān)閱讀:
熱點
圖片