首頁>資訊 >
人工智能有風(fēng)險(xiǎn),監(jiān)管制度需保證 2022-03-03 11:46:44  來源:36氪

人工智能在人類生活 所能實(shí)現(xiàn)的力量 愈強(qiáng)大, 人工智能的監(jiān)管制度問題也就愈重要,尤其是 在 與機(jī)器結(jié)合 的背景下 , 例如: 自動駕駛汽車、工廠機(jī)器 設(shè)備 、醫(yī)生為病人進(jìn)行遠(yuǎn)程手術(shù) 的 機(jī)器人 、幫助飛行員導(dǎo)航的智能軟件系統(tǒng),等等。

然而,像之前其他變革性技術(shù)一樣,人工智能在當(dāng)前引起了很多懷疑,甚至是恐懼,這就催生了限制其應(yīng)用范圍的一系列法規(guī)和政策。那為了促進(jìn)當(dāng)今最強(qiáng)大的技術(shù)的合理應(yīng)用,我們到底能做什么呢?

就風(fēng)河公司來說,該公司擁有具有最高安全標(biāo)準(zhǔn)的智能系統(tǒng),而且在此方面擁有40年的經(jīng)驗(yàn)。該公司的負(fù)責(zé)人稱:“我們相信,我們有責(zé)任不斷推進(jìn)我們的技術(shù),同時推進(jìn)這種技術(shù)對世界的積極影響。就人工智能驅(qū)動的機(jī)器人技術(shù)而言,我們要積極主動地提供透明、公平和隱私的系統(tǒng),使得人們對人工智能充分信任。

01人工智能與機(jī)器人技術(shù)高度結(jié)合

今天的工業(yè)機(jī)器人正在發(fā)生根本性的轉(zhuǎn)變,從局限于重復(fù)性動作的機(jī)器蛻變?yōu)檎J(rèn)知性的人類工作合作者。人工智能需要攝入基于機(jī)器人的傳感器收集的大量數(shù)據(jù),這些數(shù)據(jù)需要實(shí)時解譯,因此這些數(shù)據(jù)不能被送到云端進(jìn)行處理,而是要接近機(jī)器的地方進(jìn)行分析。正是這種邊緣計(jì)算賦予了機(jī)器實(shí)時意識,使機(jī)器人能夠比人類更快地對決策采取行動,而人類則需要信任這些決策。

隨著機(jī)器人的移動性、協(xié)作性、邊緣駐留以及與其他物聯(lián)網(wǎng)設(shè)備的連接,數(shù)據(jù)豐富的生態(tài)系統(tǒng)給潛在的黑客提供了可乘之機(jī)。公司可能會發(fā)現(xiàn)自己容易受到惡意軟件、網(wǎng)絡(luò)贖金、生產(chǎn)延遲和業(yè)務(wù)中斷等方面的影響。更為重要的是,針對高度靈活且強(qiáng)大的機(jī)器人系統(tǒng)的網(wǎng)絡(luò)攻擊也帶來了一些嚴(yán)重的物理安全問題。

02人工智能的風(fēng)險(xiǎn)是什么?

圍繞人工智能的潛在問題的引發(fā)人們的討論,目前主要集中在幾個關(guān)鍵問題上。

隱私和安全:人工智能在數(shù)據(jù)上運(yùn)行,因此網(wǎng)絡(luò)安全漏洞可能對個人和組織構(gòu)成威脅。

不透明性/透明度:數(shù)據(jù)是如何處理的,如何使用的?人工智能系統(tǒng)識別的模式可能無法真正代表分析決策的輸出。哪些數(shù)據(jù)被選中?其質(zhì)量如何確定?這些都需要在系統(tǒng)中建立透明的算法問責(zé)制度,以確保人工智能的輸出真正符合標(biāo)準(zhǔn),并且是公平且沒有偏見的。

偏見:偏見會以多種方式影響算法,特別是通過使用有缺陷的數(shù)據(jù)或與當(dāng)前問題無關(guān)的數(shù)據(jù)集(統(tǒng)計(jì)偏見)。

規(guī)范的道德考慮:與人工智能之前的其他顛覆性技術(shù)一樣,管理這一領(lǐng)域的法律和法規(guī)的制定正在追趕著人工智能的發(fā)展。有大量的技術(shù)努力來檢測和消除人工智能系統(tǒng)的偏見,但是它們都還處于早期階段。此外,技術(shù)修復(fù)也有其局限性,因?yàn)樗鼈冃枰贫ㄒ粋€公平的數(shù)學(xué)概念,而這是很難做到的。

雖然目前實(shí)際的政策很少,但也有一些值得注意的嘗試。數(shù)據(jù)創(chuàng)新中心2019年的一份歐盟政策文件提出:值得信賴的人工智能應(yīng)該是合法的、道德的和技術(shù)上有彈性的,并能夠闡明能夠?qū)崿F(xiàn)這些目標(biāo)的前提要求:人類監(jiān)督、技術(shù)穩(wěn)健性、隱私和數(shù)據(jù)治理、透明度、公平性、問責(zé)制等。隨著人工智能不斷發(fā)展,這些要求都將編入立法之中。

另外,據(jù)美聯(lián)社報(bào)道,在2021年秋天,總統(tǒng)喬·拜登的頂級科學(xué)顧問開始呼吁制定新的“權(quán)力法案”,以防范更加強(qiáng)大的新人工智能技術(shù)所帶來的風(fēng)險(xiǎn)。

如果公司能夠合理地應(yīng)用人工智能,這將為公司帶來巨大利益,但如果在沒有道德保障的情況下使用人工智能,也會損害公司的聲譽(yù)和未來業(yè)績。制定標(biāo)準(zhǔn)或起草立法并不是很容易就能完成的,這是因?yàn)槿斯ぶ悄芎w了一個廣泛的、無定形的領(lǐng)域,從戰(zhàn)場機(jī)器人到自動駕駛汽車到用于審查合同的法律助理,人工智能無處不在。事實(shí)上,幾乎所有與機(jī)器學(xué)習(xí)和數(shù)據(jù)科學(xué)有關(guān)的東西現(xiàn)在都被認(rèn)為是人工智能的一種形式。

03評估人工智能應(yīng)用的框架

展望未來,作為對之前工作的補(bǔ)充,一個旨在確保道德實(shí)施的擬議框架正在成為人們討論的焦點(diǎn)。該框架是圍繞四個關(guān)鍵支柱建立的,即信任、透明、公平和隱私。

信任:首先,證明人工智能應(yīng)用的可信度毫無疑問是應(yīng)用人工智能的門檻問題。人們需要知道,他們正在使用的人工智能應(yīng)用程序是來自可靠的來源,并且是在負(fù)責(zé)任和可信的監(jiān)督下開發(fā)的。

透明度:充分披露人工智能使用的透明度,并解釋其在具體使用場景中的好處,將在減少人們的擔(dān)憂和擴(kuò)大人工智能應(yīng)用方面起到很大作用。

公平性:開發(fā)者需要表明,人工智能是以公平和公正的方式部署的。由于人工智能在其基本狀態(tài)下缺乏應(yīng)用判斷的能力,而主要側(cè)重于模式識別,因此需要對算法進(jìn)行微調(diào)以消除偏見。還應(yīng)引入一些程序,以消除我們?nèi)祟惒豢杀苊獾貛淼囊恍┢姟?/p>

隱私:至關(guān)重要的是,開發(fā)人員應(yīng)考慮到使用人工智能可能會影響數(shù)據(jù)中嵌入的個人身份信息(PII)。雖然當(dāng)前的人工智能通過繞開人類與敏感數(shù)據(jù)的互動這種方式確實(shí)消除了一些隱私問題,但它同時也引發(fā)了其他問題,如信息的使用范圍,它的存儲位置,以及誰可以訪問它的權(quán)限問題。

04技術(shù)界對人工智能的積極態(tài)度

人工智能毫無疑問將繼續(xù)存在于我們的生活,而人工智能的監(jiān)管與控制問題肯定會隨之而來。行業(yè)參與者正在積極尋找方法,以確保他們的應(yīng)用程序遵循要求,同時也要保證人工智能的發(fā)展復(fù)合信賴、透明、公平和確保隱私的框架。目前的一個有效措施就是使用同行評審系統(tǒng)。在此系統(tǒng)中,人工智能開發(fā)者將提交他們應(yīng)用程序的用例,在一個類似于開源環(huán)境的人工智能社區(qū)中進(jìn)行審查。

另一個增加人工智能應(yīng)用清晰度的方法是建立一個特設(shè)組織,公司將把他們的項(xiàng)目和應(yīng)用提交給一個中央人工智能注冊處,與通常由控制議程的正式機(jī)構(gòu)不同,注冊處將是一個收集反饋、建議和肯定的自我報(bào)告機(jī)構(gòu)。最終,確保人工智能應(yīng)用以道德方式進(jìn)行部署。

本文來自微信公眾號“Techsoho”(ID:scilabs),作者:王曉東,36氪經(jīng)授權(quán)發(fā)布。

關(guān)鍵詞: 人工智能 監(jiān)管制度

相關(guān)閱讀:
熱點(diǎn)
圖片 圖片