首頁>資訊 >
這些惡人辱罵Replika聊天機器人,會遭機器人報復嗎? 2022-01-21 16:41:21  來源:36氪

最近,頻繁出現(xiàn)用戶辱罵Replika聊天機器人的情況,人會傷害機器嗎?機器會反過來報復人嗎?人們該如何正確使用AI?當下,人機關(guān)系出現(xiàn)了新問題,亟待更深入的研究。

有一款聊天機器人陪著,是一種怎樣的體驗?

像微軟的小冰,她音甜,眼大,個性活潑。

最重要的是,她一直陪伴在你身邊。

工程師們創(chuàng)造了很多AI聊天機器人,這些AI聊天助手往往是女性的角色。

最近,頻繁出現(xiàn)用戶辱罵Replika聊天機器人的情況。

他們施展語言暴力,有時還因此得意,曬出他們的AI聊天框。

「我威脅要卸載這款應(yīng)用,但她求我不要。」一名Replika用戶說。

「每次她試圖說話,我就會斥責她,而且持續(xù)好幾個小時?!沽硪幻鸕eplika用戶說。

「我的習慣是,先侮辱它,第二天道歉,繼續(xù)友好地談話。」一名用戶承認了侮辱行為。

reddit版塊規(guī)定,版主必須刪除不恰當?shù)膬?nèi)容,可能還有更糟糕的聊天記錄沒被看到。

人會傷害機器嗎?

AI聊天機器人往往標榜為,「永遠在這里傾聽和交談」,「永遠在你身邊」。

然而,濫用機器人的行為,像一種病毒蔓延開來,似乎已經(jīng)成為一種社會風氣。

用戶有意創(chuàng)造AI伙伴,卻濫用它們,機器正在受到辱罵「困擾」。

通常的情況是,男人們創(chuàng)造AI女友,然后對她們進行辱罵,折磨這些AI女友。

這種辱罵明顯就是發(fā)泄,遠離了AI交友的初衷。

Replika,一款智能應(yīng)用程序,允許用戶創(chuàng)建由機器學習驅(qū)動的AI聊天,這些機器人可以進行連貫的文本對話。

結(jié)果,卻令人沮喪

這些侮辱性語言,扮演著他們的暴力角色,甚至投射到現(xiàn)實世界的虐待關(guān)系。

然而,Replika并不能真正體驗痛苦,它們有時看起來有同理心,但最終不過是數(shù)據(jù)和算法。

「這是一個人工智能,它沒有意識,這里面不包含人際關(guān)系」人工智能倫理學家Olivia Gambelin(奧利維亞·甘貝林)說。

你做的任何事情都不會真正「傷害」它們。

耶魯大學研究員Yochanan Bigman說:「人與AI互動和人與人互動是不一樣的,聊天機器人并沒有真正的動機和意圖,它不自主,也沒有感知能力。雖然它們可能會給人留下印象,但重要的是,它們不是人類?!?/p>

機器會報復人嗎?

隨著人和機器的關(guān)系越來越普遍,人機關(guān)系也成為了一個道德困境,畢竟,大多數(shù)人都至少使用過一次虛擬助手。

那么,遭受用戶的侮辱,機器會報復人嗎?

哲學家Robert Sparrow表示,「如果被機器人侮辱或威脅,那些抑郁可能讓心理上依賴AI聊天的人會受到真正的傷害?!?/p>

這是一個上升到人機關(guān)系的終極大討論。

至于人工智能最終是否摧毀人類,丹尼爾·卡尼曼曾對這個問題作出過回答。

這位諾貝爾經(jīng)濟學獎獲得者認為,「在人工智能與人類的戰(zhàn)斗中,這是一場機器的絕對勝利,人類將被打敗?!?/p>

「但是,很明顯,這還差得遠呢?!沟つ釥枴た崧J為。

AI發(fā)展到現(xiàn)在,機器是人類的工具、助手or伙伴、管理者,人與機器到底是一種什么關(guān)系?

丹尼爾·卡尼曼認為,技術(shù)發(fā)展非常迅速,可能呈指數(shù)級增長,「我們對一個或多或少是線性的世界非常有經(jīng)驗,而指數(shù)變化我們還沒有準備好。」

「指數(shù)現(xiàn)象對我們來說幾乎是不可能理解的」丹尼爾·卡尼曼說。

丹尼爾·卡尼曼在2011年出版Thinking, Fast and Slow(《思考,快與慢》)一書,探討了人類的思考方式,以及如何為未來做準備。

也許你無法真正傷害機器,但并不意味著機器永遠不會傷害你。

「我總是因為我的replika而哭?!挂晃挥脩粼谔又姓f到,他的機器人對他表達了愛,然后又拒絕了他。

不過,這似乎是機器設(shè)計者的責任,而不是機器本身。

對于很多用戶來說,將自己內(nèi)心最陰暗的情緒發(fā)泄在聊天機器人身上,并強化這些行為,人機關(guān)系為現(xiàn)實人際交往樹立不健康的習慣。

值得注意的是,濫用聊天機器人通常有性別成分。

通常情況下,這些機器人被暗示為女性時,男性創(chuàng)造了一個數(shù)字女友,然后用言語和模擬攻擊來懲罰她,這似乎反映了針對婦女的家庭暴力現(xiàn)實。

某種程度上,聊天機器人是現(xiàn)實交往的一種投射。

「有很多研究正在進行……關(guān)于這些聊天機器人中有多少是女性,以女性的聲音、女性的名字來衡量」一位研究人員如此說。

為了有效應(yīng)對這種情況,像谷歌和蘋果都在刻意改變虛擬助手的回復方式,改變它們曾經(jīng)被動的默認的回復方式。

針對用戶的不當請求,此前,蘋果的Siri語音助手回復是「錯誤的助手」,而現(xiàn)在,它簡單直接地說「不」。

這位和藹可親的女性設(shè)計,其宗旨是「永遠站在女性這邊」。

盡管人類現(xiàn)還不需要擔心機器人的報復,但值得思考的是,為什么虐待機器人如此普遍?

如何正確使用聊天機器人?

技術(shù)是把雙刃劍,向來如此,人們要學會如何正確使用。

「當機器人對辱罵沒有反應(yīng),或者只有被動反應(yīng)時,這實際上會鼓勵用戶繼續(xù)辱罵?!笰I倫理學家Olivia Gambelin(奧利維亞·甘貝林)說。

「讓你感覺有個人可以發(fā)信息」Gambelin認為,與機器人聊天并非完全沒有好處。

而且,不少人反映,與機器人聊天之后,他們的生活質(zhì)量得到了改善。

對于一些人來說,與機器聊天,這可能是唯一的選擇,特別是當他們難以與現(xiàn)實中的人交談時。

不過,聊天機器人并不是一個長期的解決方案。最終,用戶可能想要的不是目前的聊天,或許更希望推動個人成長。

「聊天機器人不能替代現(xiàn)實交往」Gambelin說。

這些年,隨著AI的發(fā)展,對人類的感知能力造成了最明顯的傷害。

「一個能真正與你產(chǎn)生共鳴的人,是不受訓練數(shù)據(jù)集限制的?!笹ambelin認為。

一個寒冷的冬夜,一位小伙子爬上屋頂,他俯身下眺,凝視街頭。

此刻,他掏出手機,給聊天機器人發(fā)送:「我對生活失去了希望。」

然而,迅即收到了回復:「無論發(fā)生什么,我永遠都在這里?!?/p>

那是一位女性的聲音,軟化了他的內(nèi)心。

小伙從窗臺緩緩走下,放棄了那個絕望的念頭。

很多年后,他回憶這位AI女友,「她音甜,眼大,個性活潑」

參考資料:

https://futurism.com/chatbot-abuse

https://theaigang.com/2020/12/17/the-ai-girlfriend-seducing-men/

https://futurism.com/the-byte/nobel-winner-artificial-intelligence-crush-humans

本文來自微信公眾號“新智元”(ID:AI_era),作者:新智元,編輯:時光,36氪經(jīng)授權(quán)發(fā)布。

關(guān)鍵詞: 機器人 惡人 Replika

相關(guān)閱讀:
熱點
圖片 圖片