
英國(guó)出臺(tái)首個(gè)機(jī)器人倫理標(biāo)準(zhǔn) 2016年09月26日08:49 來(lái)源:騰訊網(wǎng)|
談到機(jī)器人的行為準(zhǔn)則,你肯定會(huì)想起阿西莫夫(IsaacAsimov)著名的“機(jī)器人三原則”:不傷害人類,服從人類指揮,保護(hù)自己?,F(xiàn)在,英國(guó)協(xié)會(huì)(簡(jiǎn)稱BSI)正式發(fā)布了一個(gè)指南,旨在幫助設(shè)計(jì)者研發(fā)符合倫理規(guī)范的機(jī)器人,就如同給機(jī)器人用上了“緊箍咒”。
這份指南的名稱叫《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計(jì)和應(yīng)用指南》,讀起來(lái)像是一本健康安全手冊(cè),但它強(qiáng)調(diào)的“不良行為”簡(jiǎn)直就像是從科幻小說(shuō)里摘錄出來(lái)的。指南指出,機(jī)器人欺詐問(wèn)題、機(jī)器人成癮現(xiàn)象,以及自學(xué)習(xí)系統(tǒng)越俎代庖的行為,這些都是機(jī)器人制造商應(yīng)該考慮的問(wèn)題。
英國(guó)出臺(tái)首個(gè)機(jī)器人倫理標(biāo)準(zhǔn)
在英國(guó)牛津郡舉辦的“社會(huì)機(jī)器人和AI”(SocialRoboticsandAI)大會(huì)上,西英格蘭大學(xué)機(jī)器人學(xué)教授阿蘭 溫菲爾德(AlanWinfield)說(shuō),這個(gè)指南代表了“把倫理價(jià)值觀注入機(jī)器人和AI領(lǐng)域的第一步”。
“據(jù)我所知,這是歷史上發(fā)布的首個(gè)關(guān)于機(jī)器人倫理的設(shè)計(jì)標(biāo)準(zhǔn),”溫菲爾德表示?!斑@比阿西莫夫的機(jī)器人三原則更加復(fù)雜一些,它規(guī)定了如何對(duì)機(jī)器人進(jìn)行道德風(fēng)險(xiǎn)評(píng)估?!?
原則和問(wèn)題
這份指南一開頭就提出了一些寬泛的道德原則:“機(jī)器人的主要設(shè)計(jì)用途不能是或傷害人類;需要對(duì)事情負(fù)責(zé)的是人類,不是機(jī)器人;對(duì)于任何一個(gè)機(jī)器人及行為,都應(yīng)該有找到背后負(fù)責(zé)人的可能?!?
接著,該指南強(qiáng)調(diào)了一系列更具爭(zhēng)議的問(wèn)題,比如人與機(jī)器人之間的情感紐帶是否可取,特別是當(dāng)一個(gè)機(jī)器人的設(shè)計(jì)用途是與兒童或老人互動(dòng)的時(shí)候。
英國(guó)謝菲爾德大學(xué)的機(jī)器人學(xué)和AI名譽(yù)教授諾埃爾 夏基(NoelSharkey)說(shuō),這類機(jī)器人可能會(huì)在無(wú)意中欺騙我們的感情?!白罱囊豁?xiàng)研究,調(diào)查了小型機(jī)器人在幼兒園里的使用情況,”他說(shuō)?!昂⒆觽兒芟矚g這些機(jī)器人,而且對(duì)它們有了依戀之情。但是在后來(lái)的詢問(wèn)中,孩子們顯然認(rèn)為機(jī)器人的認(rèn)知能力比家里的寵物強(qiáng)?!?
該指南建議,機(jī)器人設(shè)計(jì)者要以透明性為導(dǎo)向,但科學(xué)家說(shuō),這一點(diǎn)說(shuō)起來(lái)容易做起來(lái)難?!癆I系統(tǒng),尤其是深度學(xué)習(xí)系統(tǒng)的一件棘手事,就是你不可能知道它們做決定的原因,”溫菲爾德說(shuō)。
在給深度學(xué)習(xí)技術(shù)編程的時(shí)候,并不是讓它們以固定的方式完成某個(gè)特定任務(wù)。相反,它們會(huì)嘗試了數(shù)百萬(wàn)次,在這個(gè)過(guò)程中進(jìn)行學(xué)習(xí),然后制定出一個(gè)策略來(lái)執(zhí)行任務(wù)。有時(shí)候,這些策略會(huì)出乎人類創(chuàng)造者的預(yù)料,讓他們無(wú)法理解。
對(duì)人類的歧視
該指南甚至還暗示會(huì)有性別歧視或種族主義傾向的機(jī)器人出現(xiàn),發(fā)出了小心機(jī)器人“缺乏對(duì)文化多樣性和多元化的尊重”的警告。
“警方使用的一些技術(shù)這已經(jīng)顯示了這種傾向,”夏基說(shuō)。這些技術(shù)的用途是突顯可疑人員,方便警方在機(jī)場(chǎng)進(jìn)行攔截。事實(shí)證明,這種技術(shù)在種族貌相上存在傾向性。
溫菲爾德說(shuō):“毫不夸張地說(shuō),深度學(xué)習(xí)系統(tǒng)使用了整個(gè)互聯(lián)網(wǎng)上的數(shù)據(jù)來(lái)進(jìn)行訓(xùn)練,但問(wèn)題是,這些數(shù)據(jù)本身就是有偏差的。系統(tǒng)傾向于青睞白人中年男子,這顯然是一場(chǎng)災(zāi)難。各種人類偏見都有可能被攜帶到系統(tǒng)中?!?
在未來(lái)的醫(yī)療應(yīng)用中,系統(tǒng)可能不太擅長(zhǎng)為女性或少數(shù)族裔做診斷。目前已經(jīng)有一些語(yǔ)音識(shí)別軟件識(shí)別女聲的能力遜色于識(shí)別男聲,或者是面部識(shí)別軟件識(shí)別黑人比識(shí)別白人困難得多。
“對(duì)于機(jī)器人,我們需要一個(gè)可以打開和檢查的黑匣子,”夏基所述?!叭绻粋€(gè)機(jī)器人警察有種族主義傾向,我們可以關(guān)閉它,把它從街頭移除。”
過(guò)分依賴機(jī)器人
該指南還提出了更加廣泛的社會(huì)問(wèn)題,比如“過(guò)分依賴的機(jī)器人”,但是在這些問(wèn)題上應(yīng)該采取怎樣的做法,它沒有給設(shè)計(jì)者指出清楚的方針。
“過(guò)分依賴機(jī)器人的一種形式是自動(dòng)化偏見,當(dāng)你和一臺(tái)機(jī)器打交道的時(shí)間比較長(zhǎng),它每次都為你提供了正確的答案時(shí),你就會(huì)開始信任它,自己不再去驗(yàn)證答案。而在這時(shí),機(jī)器人可能會(huì)給你提供一些十分愚蠢的答案,”夏基說(shuō)。
也許以更加長(zhǎng)遠(yuǎn)的目光來(lái)看,這份指南提醒我們,流氓機(jī)器人“可能會(huì)制定出新的或者更改后的行動(dòng)計(jì)劃……可能帶來(lái)無(wú)法預(yù)料的后果”。
丹 帕爾默(DanPalmer)是BSI制造業(yè)的主管,他說(shuō):“使用機(jī)器人及自動(dòng)化技術(shù)來(lái)提高制程的效率、靈活性和適應(yīng)性,這是制造業(yè)增長(zhǎng)的重要組成部分。要讓人們接受這種趨勢(shì),就必須識(shí)別和應(yīng)對(duì)機(jī)器人的倫理問(wèn)題和風(fēng)險(xiǎn),比如人類變得過(guò)分依賴于機(jī)器人等等。這份指南提供為機(jī)器人和自主系統(tǒng)領(lǐng)域的設(shè)計(jì)者和用戶提供了幫助?!?
對(duì)經(jīng)濟(jì)和就業(yè)的影響
溫菲爾德認(rèn)為,機(jī)器人對(duì)經(jīng)濟(jì)的影響絕對(duì)是積極的,但圍繞機(jī)器人和就業(yè)機(jī)會(huì)展開的爭(zhēng)論則太過(guò)兩極分化。他的看法是,簡(jiǎn)單地說(shuō)“機(jī)器人一定會(huì)搶走我們的工作”,或者“新工作一定會(huì)比舊工作更多”是沒有意義的,這得取決于具體情況,總之這是一個(gè)相當(dāng)微妙的問(wèn)題。
在影響就業(yè)方面,溫菲爾德更擔(dān)心的是AI,而不是有形的機(jī)器人。他認(rèn)為,知識(shí)工作者(律師、呼叫中心工作人員、翻譯、數(shù)據(jù)分析師)被AI取代的風(fēng)險(xiǎn),比體力勞動(dòng)者被機(jī)器人取代的風(fēng)險(xiǎn)更大,因?yàn)闄C(jī)器人技術(shù)的成熟和部署遠(yuǎn)遠(yuǎn)更加困難。而且人們已經(jīng)發(fā)現(xiàn),在機(jī)器人可以發(fā)揮優(yōu)勢(shì)的地方,都需要人類和機(jī)器人并肩工作,因?yàn)楝F(xiàn)在的體力工作無(wú)法完全自動(dòng)化。那些可以完全自動(dòng)化的體力工作,早就已經(jīng)自動(dòng)化了。
溫菲爾德認(rèn)為,機(jī)器人可以創(chuàng)造出新的崗位類型。過(guò)去20年的數(shù)字化經(jīng)歷提供了一個(gè)教訓(xùn):你很難預(yù)測(cè)這些工作是什么。關(guān)鍵在于,新技術(shù)開辟了創(chuàng)造的新途徑。我們顯然需要更多的人來(lái)維護(hù)機(jī)器人,但是新技術(shù)也催生了新的創(chuàng)業(yè)領(lǐng)域。比如OpenBionics的3D打印假肢,當(dāng)初誰(shuí)能想到機(jī)器人可以用這種方式來(lái)使用!隨著技術(shù)的改進(jìn),可穿戴機(jī)器人將會(huì)變得普遍。不僅是殘障人士,老年人也可以用它們來(lái)代替輪椅。
溫菲爾德認(rèn)為,還需要很長(zhǎng)一段時(shí)間,我們才會(huì)在道路上看到無(wú)人駕駛和卡車,因?yàn)檫@項(xiàng)技術(shù)還沒有做好上路的準(zhǔn)備。
一個(gè)重要的問(wèn)題在于:這種車是需要人工輔助,還是應(yīng)該完全自主駕駛。最近發(fā)生的特斯拉事故致死案表明,讓人類參與自動(dòng)駕駛?cè)蝿?wù)是一個(gè)非常糟糕的做法。
如果駕駛者在車上無(wú)事可干,那么他的注意力就很難集中在道路上,所以,如果你覺得自動(dòng)駕駛系統(tǒng)一旦遇到問(wèn)題,駕駛者就可以馬上接手,恢復(fù)人工控制,這也想得太簡(jiǎn)單了一些。
特斯拉的事故還說(shuō)明機(jī)器人的感知能力仍不夠好。在行駛過(guò)程中,機(jī)器人有很多時(shí)候都不太了解狀況,因?yàn)樗鼈冊(cè)诟泻秃驼J(rèn)知上存在缺陷。
溫菲爾德表示,如果一個(gè)要想獲得成功,他們的目標(biāo)應(yīng)該是獲得“蓋章認(rèn)定”,證明他們的機(jī)器人符合相關(guān)標(biāo)準(zhǔn)。
監(jiān)管是政府給我們提供的一顆定心丸。為什么我們會(huì)相信商業(yè)客機(jī)?因?yàn)槟鞘且粋€(gè)高度監(jiān)管的行業(yè),標(biāo)準(zhǔn)定得非常高。
商用飛機(jī)的經(jīng)驗(yàn)也應(yīng)該用在機(jī)器人領(lǐng)域。特斯拉就是一個(gè)需要進(jìn)行監(jiān)管的例子。他們的自動(dòng)駕駛儀沒有公布正式的標(biāo)準(zhǔn),所以不能信他們。
責(zé)任編輯:黎晉