国产AV中文字幕乱码,人妻少妇无码精品专区,日产一区二区三区精品视频 ,亚洲中文字幕精品不卡一本,在线观看欧美高清国产成人,欧美国产日本高清不卡

英國出臺首個機器人倫理標準

英國出臺首個機器人倫理標準 2016年09月26日08:49 來源:騰訊網|

  談到機器人的行為準則,你肯定會想起阿西莫夫(IsaacAsimov)著名的“機器人三原則”:不傷害人類,服從人類指揮,保護自己。現(xiàn)在,英國協(xié)會(簡稱BSI)正式發(fā)布了一個指南,旨在幫助設計者研發(fā)符合倫理規(guī)范的機器人,就如同給機器人用上了“緊箍咒”。

 這份指南的名稱叫《機器人和機器系統(tǒng)的倫理設計和應用指南》,讀起來像是一本健康安全手冊,但它強調的“不良行為”簡直就像是從科幻小說里摘錄出來的。指南指出,機器人欺詐問題、機器人成癮現(xiàn)象,以及自學習系統(tǒng)越俎代庖的行為,這些都是機器人制造商應該考慮的問題。

英國出臺首個機器人倫理標準

 在英國牛津郡舉辦的“社會機器人和AI”(SocialRoboticsandAI)大會上,西英格蘭大學機器人學教授阿蘭 溫菲爾德(AlanWinfield)說,這個指南代表了“把倫理價值觀注入機器人和AI領域的第一步”。

 “據我所知,這是歷史上發(fā)布的首個關于機器人倫理的設計標準,”溫菲爾德表示?!斑@比阿西莫夫的機器人三原則更加復雜一些,它規(guī)定了如何對機器人進行道德風險評估。”

 原則和問題

 這份指南一開頭就提出了一些寬泛的道德原則:“機器人的主要設計用途不能是或傷害人類;需要對事情負責的是人類,不是機器人;對于任何一個機器人及行為,都應該有找到背后負責人的可能?!?

 接著,該指南強調了一系列更具爭議的問題,比如人與機器人之間的情感紐帶是否可取,特別是當一個機器人的設計用途是與兒童或老人互動的時候。

 英國謝菲爾德大學的機器人學和AI名譽教授諾埃爾 夏基(NoelSharkey)說,這類機器人可能會在無意中欺騙我們的感情。“最近的一項研究,調查了小型機器人在幼兒園里的使用情況,”他說?!昂⒆觽兒芟矚g這些機器人,而且對它們有了依戀之情。但是在后來的詢問中,孩子們顯然認為機器人的認知能力比家里的寵物強?!?

 該指南建議,機器人設計者要以透明性為導向,但科學家說,這一點說起來容易做起來難。“AI系統(tǒng),尤其是深度學習系統(tǒng)的一件棘手事,就是你不可能知道它們做決定的原因,”溫菲爾德說。

 在給深度學習技術編程的時候,并不是讓它們以固定的方式完成某個特定任務。相反,它們會嘗試了數百萬次,在這個過程中進行學習,然后制定出一個策略來執(zhí)行任務。有時候,這些策略會出乎人類創(chuàng)造者的預料,讓他們無法理解。

 對人類的歧視

 該指南甚至還暗示會有性別歧視或種族主義傾向的機器人出現(xiàn),發(fā)出了小心機器人“缺乏對文化多樣性和多元化的尊重”的警告。

 “警方使用的一些技術這已經顯示了這種傾向,”夏基說。這些技術的用途是突顯可疑人員,方便警方在機場進行攔截。事實證明,這種技術在種族貌相上存在傾向性。

 溫菲爾德說:“毫不夸張地說,深度學習系統(tǒng)使用了整個互聯(lián)網上的數據來進行訓練,但問題是,這些數據本身就是有偏差的。系統(tǒng)傾向于青睞白人中年男子,這顯然是一場災難。各種人類偏見都有可能被攜帶到系統(tǒng)中。”

 在未來的醫(yī)療應用中,系統(tǒng)可能不太擅長為女性或少數族裔做診斷。目前已經有一些語音識別軟件識別女聲的能力遜色于識別男聲,或者是面部識別軟件識別黑人比識別白人困難得多。

 “對于機器人,我們需要一個可以打開和檢查的黑匣子,”夏基所述?!叭绻粋€機器人警察有種族主義傾向,我們可以關閉它,把它從街頭移除?!?

 過分依賴機器人

 該指南還提出了更加廣泛的社會問題,比如“過分依賴的機器人”,但是在這些問題上應該采取怎樣的做法,它沒有給設計者指出清楚的方針。

 “過分依賴機器人的一種形式是自動化偏見,當你和一臺機器打交道的時間比較長,它每次都為你提供了正確的答案時,你就會開始信任它,自己不再去驗證答案。而在這時,機器人可能會給你提供一些十分愚蠢的答案,”夏基說。

 也許以更加長遠的目光來看,這份指南提醒我們,流氓機器人“可能會制定出新的或者更改后的行動計劃……可能帶來無法預料的后果”。

 丹 帕爾默(DanPalmer)是BSI制造業(yè)的主管,他說:“使用機器人及自動化技術來提高制程的效率、靈活性和適應性,這是制造業(yè)增長的重要組成部分。要讓人們接受這種趨勢,就必須識別和應對機器人的倫理問題和風險,比如人類變得過分依賴于機器人等等。這份指南提供為機器人和自主系統(tǒng)領域的設計者和用戶提供了幫助?!?

 對經濟和就業(yè)的影響

 溫菲爾德認為,機器人對經濟的影響絕對是積極的,但圍繞機器人和就業(yè)機會展開的爭論則太過兩極分化。他的看法是,簡單地說“機器人一定會搶走我們的工作”,或者“新工作一定會比舊工作更多”是沒有意義的,這得取決于具體情況,總之這是一個相當微妙的問題。

 在影響就業(yè)方面,溫菲爾德更擔心的是AI,而不是有形的機器人。他認為,知識工作者(律師、呼叫中心工作人員、翻譯、數據分析師)被AI取代的風險,比體力勞動者被機器人取代的風險更大,因為機器人技術的成熟和部署遠遠更加困難。而且人們已經發(fā)現(xiàn),在機器人可以發(fā)揮優(yōu)勢的地方,都需要人類和機器人并肩工作,因為現(xiàn)在的體力工作無法完全自動化。那些可以完全自動化的體力工作,早就已經自動化了。

 溫菲爾德認為,機器人可以創(chuàng)造出新的崗位類型。過去20年的數字化經歷提供了一個教訓:你很難預測這些工作是什么。關鍵在于,新技術開辟了創(chuàng)造的新途徑。我們顯然需要更多的人來維護機器人,但是新技術也催生了新的創(chuàng)業(yè)領域。比如OpenBionics的3D打印假肢,當初誰能想到機器人可以用這種方式來使用!隨著技術的改進,可穿戴機器人將會變得普遍。不僅是殘障人士,老年人也可以用它們來代替輪椅。

 溫菲爾德認為,還需要很長一段時間,我們才會在道路上看到無人駕駛和卡車,因為這項技術還沒有做好上路的準備。

 一個重要的問題在于:這種車是需要人工輔助,還是應該完全自主駕駛。最近發(fā)生的特斯拉事故致死案表明,讓人類參與自動駕駛任務是一個非常糟糕的做法。

 如果駕駛者在車上無事可干,那么他的注意力就很難集中在道路上,所以,如果你覺得自動駕駛系統(tǒng)一旦遇到問題,駕駛者就可以馬上接手,恢復人工控制,這也想得太簡單了一些。

 特斯拉的事故還說明機器人的感知能力仍不夠好。在行駛過程中,機器人有很多時候都不太了解狀況,因為它們在感和和認知上存在缺陷。

 溫菲爾德表示,如果一個要想獲得成功,他們的目標應該是獲得“蓋章認定”,證明他們的機器人符合相關標準。

 監(jiān)管是政府給我們提供的一顆定心丸。為什么我們會相信商業(yè)客機?因為那是一個高度監(jiān)管的行業(yè),標準定得非常高。

 商用飛機的經驗也應該用在機器人領域。特斯拉就是一個需要進行監(jiān)管的例子。他們的自動駕駛儀沒有公布正式的標準,所以不能信他們。

責任編輯:黎晉

满洲里市| 临沧市| 阳谷县| 政和县| 米易县| 鲜城| 水城县| 云安县| 鞍山市| 辽阳市| 黄梅县| 友谊县| 孝昌县| 涞水县| 德庆县| 星座| 柳江县| 丰县| 三原县|