2015年8月2日 星期日

轉載:霍金等千名科學家連署 反對人工智能投入軍備競賽

霍金等千名科學家連署 反對人工智能投入軍備競賽

 2015年07月30日 16:45
史蒂芬霍金反對在軍事領域運用人工智能。(美聯社)
史蒂芬霍金反對在軍事領域運用人工智能。(美聯社)
2015年國際人工智慧聯合會議(International Joint Conference on Artificial Intelligence, IJCAI)25日起於阿根廷首都布宜諾斯艾利斯舉行,會議中超過一千名研究機器人領域的專家學者公開連署,警告人工智能軍備競賽將為人類帶來嚴重的後果,也呼籲聯合國應通過禁令,禁止開發與使用自主武器(autonomous weapons)。
物理學家史蒂芬.霍金(Stephen Hawking)、美國豪華電動車製造商特斯拉(Tesla Motors)與航太運輸服務公司 SpaceX 執行長伊隆.馬斯克(Elon Musk)、蘋果共同創辦人史蒂夫.伍茲尼亞克(Steve Wozniak)及谷歌人工智能首席執行長丹米斯.哈薩比斯(Demis Hassabis)等,與一千多名機器人相關領域的科學家,共同簽署這份公開信,對人工智慧所帶來的威脅發出警告。信中表示,「現今的人工智能已經發展到一個階段,在未來幾年內,自主武器將能完全派上戰場;然而帶來的風險也很高,自主武器被形容是繼槍炮、核武發明後,戰爭型態的第三大變革。」
今年4月,聯合國在日內瓦舉辦一場會議,討論未來武器、軍備等問題,包括所謂的「殺人機器」(killer robots);儘管英國抗議團體反對聲浪不斷,甚至發起「停止製造殺人機器人」活動,英國政府仍不顧反彈聲浪,反對一項關於發展自主武器的禁令。
雖然不少人認為人工智能可以降低戰場上的人員傷亡,但由於無人操作化,自主武器可輕易引發更多戰爭,而造成更多傷亡損害。科學家們也擔憂若是各國政府競相投入人工智能軍事裝備的研究,將開啟當年核武時代的軍備競賽;然而與核子武器不同的是,自主武器沒有那麼昂貴、原料取得也相對容易,因此自主武器未來將隨處可見,而且自主武器能夠在無人控制的情況下瞄準並射擊目標,將比核子武器來的難以監控、掌握。
馬斯克及霍金都曾警告「人工智能將是人類存在以來最大的威脅」,若是發展到極致,人工智能可能終結人類文明的擔憂。2014 年 12 月,霍金在接受 BBC 訪問時表示,他相信未來的科技將會出現自我意識,並超越及取代人類,而人類受限於緩慢的生物進化過程,將無法與人工智能匹敵。」「我們現在使用的人工智能,已經證明其功能的強大,我想,如果人工智慧發展到極致,後果可能導致人類滅絕」。
公開連署信也表示,「未來科技的走向,很顯而易見的,自主武器將成為明日的 AK-47 自動步槍;但是對人類而言,現在關鍵的問題是,我們要開啟這場全球人工智能軍備競賽,還是我們選擇阻止它?」一名來自新南威爾士大學(University of New South Wales),研究人工智能的教授表示,「現在,我們做出這個選擇將決定我們的未來,我們支持各人權團體向聯合國呼籲,通過禁止開發使用自主武器的禁令。」
加入Line好友

沒有留言:

張貼留言