想象一個反烏托邦的畫面:在未來世界里,人類被自己的發(fā)明創(chuàng)造超越,受到機器人的控制。
如今的流行文化里,常出現機器人發(fā)起暴動成為地球的霸主、人工智能走向人類對立面的例子。但從眼下來看,這類反烏托邦的例子還沒有發(fā)生——至少迪拜的機器人警察還沒有變壞的跡象。
開始執(zhí)勤任務
5月24日,迪拜警察將引入第一支機器人警隊。阿聯酋政府計劃到2030年,機器警察將占迪拜警隊規(guī)模的25%。
迪拜的機器警察由西班牙科技公司PAL Robotics開發(fā)的“REEM型機器人”改造而來,市民可以向它報案,它能展開調查,但還不能逮捕或追捕逃犯。
西班牙公司PAL Robotics設計的REEM
此外,市民可以向機器人警察提問、繳費、查詢警局相關信息等。機器警察的相機眼睛能夠進行人臉識別(準確率有80%),還可以把現場的情況發(fā)送回指揮部,供未來分析案情使用。
“第一階段,機器人警察將在迪拜的旅游景點和商場里上崗?!钡习菥种悄芊詹靠偙O(jiān)阿拉祖齊說。
現在,迪拜警局正在籌劃推出第二代機器警察--即類似普通警察的全功能機器人,但阿拉祖齊不愿透露背后的科技公司。
“我們正在嘗試造出更加智能的機器人,比如行動更加靈活自如,能夠像人類那樣追捕逃犯和攜帶武器?!?
科學家為機器人的靈活度而努力
“目前機器人制造商還達不到這種程度,但我們正在與他們密切合作,為他們提供所需的一切?!卑⒗纨R說。
如果說造出全功能的機器警察難如登天,那么迪拜警局希望至少在2020年迪拜世博會上,能推出一個有顯著進步的機器人警察模型來。
機器人倫理問題
不過,西英格蘭大學教授艾倫·溫菲爾德對此并不樂觀。
“這里有很多倫理問題。如果讓機器人執(zhí)法,如何保證它不會傷人?”溫菲爾德認為,造出一個能在保證安全的前提下,干預犯罪現場的機器人是“極為困難的”。
如果機器人執(zhí)法時造成傷人事件,由誰負責?該如何處理?
“人犯了錯要承擔法律責任,但你不能讓機器為它的失誤而承擔責任。你要怎么懲罰它?怎么制裁它?”溫菲爾德說。
那么,機器人應該擁有權力嗎?
LISA是全球首個提供智能法律服務的公司,CEO克里希·萊特富特同意溫菲爾德的看法。如果機器人犯了錯,有很多人要為此承擔責任,如機器人的制造商、程序設計者、服務者、操作者等。
“保險公司愿意為機器人造成的意外賠款嗎?”萊特富特對此感到疑惑。
“機器人和人工智能正在迅速發(fā)展的今天,我們應該有相應的法律做支撐。”她說。
比如,規(guī)定機器人不能持槍。
阿拉祖齊說,迪拜不會給未來的機器人警察配槍。
“給機器人警察配槍將觸碰很多紅線?!睖胤茽柕抡f。PAL Robotics表示贊同,稱該公司不會制造軍事化的機器人,盡管這類訂單十分誘人。
溫菲爾德認為,除了機器人是否應該配槍這類道德問題外,“人工智能還沒有先進到能讓機器人安全持槍”,更別說長時間持槍了。
“我們很擅長開發(fā)‘狹義的’人工智能,即可以解決某一個問題,如開車、下棋;但很難開發(fā)出‘廣義的’人工智能,即像人類一樣將某個領域的知識轉嫁到另一個領域。”溫菲爾德說。
能夠開車、使用工具的俄羅斯機器人FEDOR
“廣義上的人工智能是很難實現的,我們現在甚至還不知道要解決哪些問題才能實現。我不確定這是不是一個永遠也解決不了的難題,即使能,也要花費很長時間?!彼f。
萊特富特還指出,國際上不太可能就機器人的使用和限制達成一致。
“各國可能會根據當地文化、法律和倫理道德制定出不同的法律?!彼f。
代替人類警察?
以上顧慮是人類基于被害妄想癥反應過度?還是只是討厭變革而已?不管怎樣,如今面臨的最直接問題就是:機器人警察會要了人類的命,還是會搶了人類的飯碗?
迪拜警局說,不會有人因為機器人警察而失業(yè),他們會根據不同區(qū)域分派不同的警力。
PAL Robotics預測的未來是機器人和人類一同工作,并不會取代我們。
不像人類,機器人執(zhí)法時可能會被人輕視,會遭到黑客攻擊,也不會營造出社區(qū)的溫暖氛圍。
將人工智能與警局結合能帶來很多好處:警局將以更加有效的方式共享到更多信息,人類警察面臨的危險系數將減小,但也有人認為,這些實驗應該僅局限于實驗室內,不應該在大街上進行。
無論如何,一個身高168cm、體重100公斤的機器人將在迪拜商場里開始它第一天的工作。