好萊塢電影《終結(jié)者》為我們展現(xiàn)了殺手機器人橫行、人類瀕臨滅絕的末日場景。隨著近年來人工智能技術(shù)以及機器人技術(shù)的發(fā)展,此前還處于人們想象中的場景越來越接近現(xiàn)實,因而也愈發(fā)引起人們的警覺。
據(jù)英國《衛(wèi)報》19日報道,由美國太空探索技術(shù)公司CEO馬斯克以及谷歌頂級人工智能研究團隊DeepMind創(chuàng)始人薩勒曼領(lǐng)銜的多家科技界大佬,與來自數(shù)百家公司的2000多名人工智能(AI)及機器人領(lǐng)域的科學(xué)家,在斯德哥爾摩國際AI聯(lián)合會議上聯(lián)名簽署宣言,誓言絕不將他們的技能用于開發(fā)自主殺人機器。
該宣言表示,“我們簽署者達成一致意見:永遠不應(yīng)將人類生命的決定權(quán)委托給機器”,“致命的自主武器,在沒有人為干預(yù)的情況下選擇和參與目標,將危及每個國家和個人的穩(wěn)定。”通過該協(xié)議,簽字者承諾今后將“既不參與也不支持致命自主武器的開發(fā)、制造、貿(mào)易或使用”。
報道稱,各國軍方是AI技術(shù)最大的資助和采購方。借助先進的計算機系統(tǒng),機器人可以在各種地形上執(zhí)行任務(wù)、在地面上巡邏或是在海上航行。而且“更復(fù)雜的武器系統(tǒng)正在籌備中”!缎l(wèi)報》稱,就在本周一,英國防長加文·威廉姆森公布一項價值20億英鎊的計劃,確保新的英國空軍戰(zhàn)斗機“暴風(fēng)雨”能在沒有飛行員的情況下飛行。
美國國家公共電臺稱,這一承諾的立場在于最終鼓勵全球政府采取法律行動。蒙特利爾學(xué)習(xí)算法研究所的AI領(lǐng)域先驅(qū)約書亞認為,如果該承諾能得到公眾認可,輿論就會倒向他們。“這一做法已經(jīng)在地雷問題上奏效了,”約書亞稱,“盡管像美國這樣的主要國家沒有簽署禁止地雷的條約,但美國的公司已經(jīng)停止生產(chǎn)地雷。”
據(jù)了解,這已經(jīng)不是AI屆的領(lǐng)袖們第一次表達如上憂慮了。美國國家公共電臺稱,去年8月,各大科技企業(yè)的技術(shù)領(lǐng)導(dǎo)人就給聯(lián)合國寫了一封公開信,對圍繞此類武器正在開展的軍備競賽提出警告。但問題是,僅靠科學(xué)家們的呼吁,人類社會能夠避免打開智能殺人機器人這一潘多拉魔盒嗎?
“有些問題是沒辦法去百分之百地阻止,因為發(fā)達國家都在研究如何將無人技術(shù)運用到軍事領(lǐng)域,”19日在接受《環(huán)球時報》記者采訪時,門羅機器人CEO楊興義對這個問題并沒有感到樂觀,“在某些方面,科學(xué)家和軍事部門之間并不是站在同一條戰(zhàn)線上的,他們有時候是事物的正反兩面。”
楊興義認為,從技術(shù)層次上看,想要一勞永逸地杜絕人工智能朝著殺人機器的方向發(fā)展是很難的,“用什么方式能夠控制自動武器去攻擊誰是一件很難的事情,我們只能盡量約束它們開火的權(quán)力,比如設(shè)置代碼或原則,把開火的權(quán)力控制在人類手上。”他表示,要防止人工智能技術(shù)朝著殺人機器的方向發(fā)展,更重要的是通過更多的法律、社會輿論和公眾參與以及更多規(guī)則的建立來做到相互制約。