來源:環(huán)球網(wǎng)
2023-04-14 09:22:04
原標(biāo)題:美國《外交政策》:人工智能將如何改變戰(zhàn)爭?
來源:環(huán)球時報
美國《外交政策》4月11日文章,原題:人工智能將如何改變戰(zhàn)爭 談到先進(jìn)的人工智能,大部分爭論都集中在白領(lǐng)工人是否面臨威脅。雖然人工智能很可能會突然間能夠替代律師、會計師、教師、程序員以及記者所做的大部分工作,但這些可能不是發(fā)生最大變革的領(lǐng)域。最新的人工智能可能會徹底改變戰(zhàn)爭,它的作用不一定令人欣慰,甚至可能是致命的。
優(yōu)勢
一方面,人工智能可以降低戰(zhàn)爭的殺傷力,并可能加強(qiáng)威懾力。通過大幅增加人工智能無人機(jī)在空軍、海軍和陸軍中的使用,可以挽救更多人的生命。五角大樓已經(jīng)在試驗(yàn)可以駕駛戰(zhàn)斗機(jī)的人工智能機(jī)器人,俄羅斯也一直在測試自動坦克。雖然仍處于初期階段,但推動人工智能發(fā)展已經(jīng)是美國空軍的一個秘密計劃。核威脅倡議組織高級顧問道格拉斯·肖說,“很容易想象,未來武裝部隊中無人機(jī)的數(shù)量將遠(yuǎn)遠(yuǎn)超過駕駛員。”
另一方面,人工智能驅(qū)動的軟件可能會使大國的決策時間縮短到幾分鐘,而不是幾小時或幾天。人們可能會過度依賴人工智能進(jìn)行戰(zhàn)略和戰(zhàn)術(shù)評估,甚至在核戰(zhàn)爭中也是如此。斯坦福大學(xué)的赫伯特·林表示,危險在于,決策者可能會逐漸依賴新型人工智能作為武器指揮和控制的一部分,因?yàn)樗倪\(yùn)行速度遠(yuǎn)遠(yuǎn)超過人類。
擔(dān)憂
赫伯特·林說,“真正的問題是:人們過度相信人工智能可能會導(dǎo)致更瘋狂的事情發(fā)生。”美國空軍退役將軍查爾斯·瓦爾德也說,“最大的擔(dān)憂是讓戰(zhàn)爭機(jī)器或?qū)嶓w擁有太多的自由。”
美國軍備控制協(xié)會2月初發(fā)表的一份報告顯示,人工智能和高超音速導(dǎo)彈等其他新技術(shù)可能會“模糊常規(guī)攻擊和核攻擊之間的界限”。報告顯示,“開發(fā)用于軍事的新興技術(shù)所需的時間,比評估這些技術(shù)構(gòu)成的危險所需的時間要更短。因此,放慢這些技術(shù)武器化的步伐,仔細(xì)權(quán)衡這樣做的風(fēng)險,并對它們的軍事用途采取有效限制至關(guān)重要”。
另一個擔(dān)憂是先進(jìn)的人工智能技術(shù)可能會讓恐怖分子等獲得制造臟彈或其他致命武器的知識。
與冷戰(zhàn)時期相比,現(xiàn)在共享人工智能的行為體要多得多,這意味著核武器地點(diǎn)更容易被探測,降低其保密性。道格拉斯·肖說:“人工智能將改變隱藏和尋找事物的態(tài)勢。”他指出,目前美國的大部分?jǐn)?shù)據(jù)由私人公司持有,這些公司很容易受到人工智能驅(qū)動的間諜活動和武器系統(tǒng)的窺探。
未來
顯而易見的事實(shí)是人們幾乎無法阻止一場新的人工智能軍備競賽的進(jìn)行,各大科技公司爭相推出自己的人工智能系統(tǒng)。隨著人工智能的發(fā)展,許多人可能會感到恐慌。有人不禁表示懷疑,認(rèn)為人工智能的發(fā)展將對人類文明產(chǎn)生深遠(yuǎn)影響。
我們應(yīng)該讓機(jī)器用宣傳和謊言淹沒我們的信息渠道嗎?我們是否應(yīng)該把所有的工作都自動化,包括那些現(xiàn)在令人滿意的工作?我們是否應(yīng)該發(fā)展非人類思維,讓它們最終在數(shù)量上取勝、智力上超過我們?我們是否應(yīng)該冒著失去人類文明的風(fēng)險?然而,盡管提出了這些疑問,未來的戰(zhàn)爭依然很可能在“一方的無人機(jī)被另一方的無人機(jī)摧毀”時決定勝負(fù)。(作者邁克爾·赫什,陳欣譯)
想爆料?請登錄《陽光連線》( https://minsheng.iqilu.com/)、撥打新聞熱線0531-66661234或96678,或登錄齊魯網(wǎng)官方微博(@齊魯網(wǎng))提供新聞線索。齊魯網(wǎng)廣告熱線0531-81695052,誠邀合作伙伴。