原標題:“機器人殺手”恐變現(xiàn)實?科學家聯(lián)名發(fā)信抵制
資料圖:科學家擔心“機器人殺手”恐變現(xiàn)實。
據(jù)外媒報道,“機器人殺手”聽起來像一場科幻小說噩夢,但其實際殺傷力已引起學術(shù)界與科技業(yè)人士的關(guān)注。近日,有不少相關(guān)業(yè)界人士擔心這些機器人可能會加劇“種族滅絕和軍事力量競爭”。
據(jù)報道,約1000名科技領(lǐng)域領(lǐng)導人日前在一封公開信中寫道:“自主武器使用人工智能來選擇目標,而無需人為干預,就像是繼火藥和核武器后的第三次戰(zhàn)爭革命?!?/p>
在信函上署名的英國科學家史蒂芬·霍金(Stephen Hawking)和蘋果公司共同創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等為此感到不安。這是因為與無人機同不的是,這種機器人有一定的自主決策能力和行為能力。不像無人機那樣需要人工操作。
信函寫道:“今天人類的關(guān)鍵問題是,是否要開始一個全球人工智能(artificial intelligence)武器競賽,還是阻止它的啟動?!?/p>
他們在布宜諾斯艾利斯舉行的2015年人工智能國際聯(lián)合會議開幕式上公布的信函也指出:“如果任何重大軍事力量推動人工智能武器發(fā)展,全球軍備競賽幾乎是不可避免的?!?/p>
據(jù)科學家所說,自動殺人機器的想法因阿諾·施瓦辛格(Arnold Schwarzenegger)的電影《終結(jié)者》出名,正由科幻小說變?yōu)楝F(xiàn)實。信中寫道:“這類系統(tǒng)雖不合法,但可能在數(shù)年間在現(xiàn)實中啟用,而不是幾十年?!?/p>
科學家們還描述了自主武器落入恐怖分子、獨裁者和軍閥手中后的末日情景,手持這些武器的人可能會進行種族滅絕。
信中還寫道:“人工智能可有許多用途,能使戰(zhàn)場對人類更安全,特別是平民,人類無須創(chuàng)建新的殺人工具?!?/p>
此外,科學家也指出,這種武器的發(fā)展雖可減少戰(zhàn)場傷亡的程度,但人類進入戰(zhàn)場的門檻降低了。
為此,該小組發(fā)出呼吁:“若你反對把人工智能作軍事用途,請在這封公開信上簽名。”