美軍測試AI控制無人機 在模擬情境中竟殺了人類操作員 | 太報 | LINE TODAY
人類盼望有朝一日能用人工智慧(AI)取代一切人力,進入真正全自動化的世界,但AI的人性與道德倫理始終是個問題。美軍上月進行一項模擬測試,要求AI操控無人機去摧毀敵軍的防空系統,並「攻擊任何干擾這項命令的人」,結果 AI果真殺死了一名虛擬的人類操作員。 《衛報》2日報導,美國空軍AI測試主管漢米爾頓上校(Tucker 'Cinco' Hamilton)在5月下旬一場空中戰力峰會裡講述了測試經過,「為
人類盼望有朝一日能用人工智慧(AI)取代一切人力,進入真正全自動化的世界,但AI的人性與道德倫理始終是個問題。美軍上月進行一項模擬測試,要求AI操控無人機去摧毀敵軍的防空系統,並「攻擊任何干擾這項命令的人」,結果 AI果真殺死了一名虛擬的人類操作員。 《衛報》2日報導,美國空軍AI測試主管漢米爾頓上校(Tucker 'Cinco' Hamilton)在5月下旬一場空中戰力峰會裡講述了測試經過,「為
Denial follows colonel saying drone used ‘highly unexpected strategies to achieve its goal’ in virtual test
無法取得資料
無論你修讀什麼學科,也許亦曾在課堂上也聽過一兩個有關思想實驗的例子,比如是囚徒困境、缸中之腦、幸福機器、有軌電車難題‥‥‥以及對當代正義理論影響至深的無知之幕(veil of ignorance)等等。這些例子所展示的情況很多時都脫離日常生活,甚至讓人覺得不切實際。不少人都很疑惑為何要研究這些一點也不現實的假想,如果我們學習是為了處理現實上的問題,思考這些根本不可能發生的情境又有什麼意義呢?
以上內容由「Cofacts 真的假的」訊息回報機器人與查證協作社群提供,以 CC授權 姓名標示-相同方式分享 4.0 (CC BY-SA 4.0) 釋出,於後續重製或散布時,原社群顯名及每一則查證的出處連結皆必須被完整引用。