原標(biāo)題:科學(xué)家必須對(duì)人工智能武器表明立場(chǎng)
科技日?qǐng)?bào)北京5月27日電 (記者張夢(mèng)然)英國(guó)《自然》雜志28日公開(kāi)一篇評(píng)論文章表示,人工智能(AI)和機(jī)器人領(lǐng)域的專家,必須要決定他們是支持還是反對(duì)致命自主武器系統(tǒng)(LAWS),就像當(dāng)年物理學(xué)家對(duì)于核武器表態(tài)一樣,因?yàn)椤斑@塊領(lǐng)域的風(fēng)險(xiǎn)很高”。文章作者同時(shí)表示:“致命自主武器系統(tǒng)被描述為戰(zhàn)爭(zhēng)的第三次革命,而前兩次是火藥和核武器。”
由美國(guó)加州大學(xué)伯克利分校的斯圖爾特·羅素撰寫的這篇評(píng)論,是《自然》雜志評(píng)論板塊中一系列來(lái)自人工智能研究者評(píng)論文章之一。這些文章都與本期的《自然》??嚓P(guān)聯(lián),集中探索了機(jī)器學(xué)習(xí)和機(jī)器人技術(shù)方面振奮世人的最新進(jìn)展,包括描述了在合適的監(jiān)管框架下,讓自主控制的無(wú)人機(jī)在民間廣泛應(yīng)用成為可能及其所需要的一些科學(xué)和技術(shù)元素。
此次刊登的評(píng)論文章主題凸顯了在人工智能領(lǐng)域正在出現(xiàn)的一些風(fēng)險(xiǎn)。斯圖爾特·羅素認(rèn)為,在未來(lái)幾年之內(nèi),軍方就可以組裝帶有武器的四軸飛行器和微型坦克,這些飛行器和坦克不需要人類干預(yù),它們自己能決定“誰(shuí)能活下來(lái)而誰(shuí)又會(huì)死去”。但是,國(guó)際人道法律對(duì)于此類技術(shù)沒(méi)有任何具體的規(guī)定,現(xiàn)在也還不清楚,國(guó)際社會(huì)是否會(huì)支持一個(gè)限制或禁止此類武器系統(tǒng)的條約。
作者對(duì)人工智能的發(fā)展軌跡深表?yè)?dān)心。他認(rèn)為一種超過(guò)人類控制的系統(tǒng)即將建成,而這一點(diǎn)是不可避免的。當(dāng)然,這些武器系統(tǒng)能涉及的范圍和攜帶大型武器的能力,一定會(huì)受到物理定律的限制。但值得注意的是,它們的靈活性和殺傷力,卻“將讓人們毫無(wú)防御之力”,而這樣的未來(lái)不會(huì)是人們想要的。
羅素在文章中呼吁,人工智能和機(jī)器人領(lǐng)域的科學(xué)家和他們所在的專業(yè)組織應(yīng)表明立場(chǎng),正如物理學(xué)家當(dāng)年對(duì)于核武器,抑或是生物學(xué)家對(duì)于在戰(zhàn)爭(zhēng)中使用病原體表明立場(chǎng)一樣。文章最后警示稱,“什么都不做,就等于是支持繼續(xù)發(fā)展和使用。”
(來(lái)源:科技日?qǐng)?bào))