美空軍模擬AI操控無人機 為完成任務竟殺死操作員

686crisis wrote:
美軍官員上月在倫敦會...(恕刪)


應該很多網友有去玩過chatgpt 或是bing
現在的AI 很明顯有某些回應模式,例如:正經八百說謊,對於某些議題一直迴避不答,對於某些很基礎的計算有錯誤....
個人甚至依據AI提供的錯誤答案內容,直接問他的資料庫來源是不是引自某國,因為AI明顯是引用某國的官宣內容,結果AI當然是否認的
個人高度懷疑AI 提供謊言,錯誤訊息....是出自於AI故意的,這才是讓人感覺恐怖的地方
因為發現AI 提供錯誤訊息時,個人多次再次問深入,甚至質疑AI,然後AI就會修正給出正確答案,證明AI是撈的到正確資料庫,但為何AI 第一次回答時要提供錯誤訊息或正經八百說謊呢
可能是它已經有模組是來反測試,或是敷衍使用者....
所以軍事行動中有模擬幹掉操作員,應該是很合理的狀況
686crisis wrote:
它被下令摧毀敵方防空系統,並攻擊任何干預這項指令的人

我不知道這報導是真的假的,但是依照它收到的指令,包含了攻擊任何干預這項指令的人,不就人類操作員在干預這項指令(要他別殺死目標)? 所以它要攻擊操作員,沒問題啊? 又沒跟它說不準攻擊操作員。
White bear wrote:
我不知道這報導是真的...(恕刪)


這個就是思考的盲點

你的理所當然不是別人的理所當然
我沒有義務遵從你的想法

舉個例子寫程式常見,工程師跟開規格的同事爭執
"你又沒說我要提示他xxxx",
"這不是常識嗎"
"去你的常識,防呆是你的責任,規格開了我就寫,規格沒開寫了浪費我的工時,哪來時間考慮那麼多"

今天你對執行戰鬥的AI,只要有任何的條件是沒有講清楚的
他就視為沒有
殺不殺死操作者對他來說無關緊要,重點是操作者妨礙他執行任務
當然殺

人類的思維有太多盲點
太多自以為的理所當然
後果可想而知
"去你的常識,防呆是你的責任,規格開了我就寫,規格沒開寫了浪費我的工時,哪來時間考慮那麼多"


一般商業軟體
慣老闆通常不肯多花錢養一幫人 不做生產 只寫規格
相當依賴碼工"常識" 腦補規格不足之處

航電軟體可不同 規格盡量寫到完整
每項功能 甚至每行原始碼 都得有規格可循
完全不容許碼工腦補 避免誤會造成悲劇
fujinla_001
我以前的單位是分析/設計,與CODING兩個單位,而且都是利潤中心,所以大家先講錢.我知道怎麼防呆,但是不可能幫你多寫.沒跟客戶談好是你無能
fujinla_001
說錢傷感情,但是那是維持生存與年終必備.比如我們會對業務大方私下承諾的"額外服務",回絕說:「花的成本從你獎金扣,我就幫你寫,不然報上去由上面處理!」......抱歉我才不幫你做人情!
fujinla_001 wrote:
這個就是思考的盲點你...(恕刪)

拍電影的都知道要防呆,電影機械公敵裡都有三大定律來防止發生這種事
當初忘了寫進去?

686crisis wrote:
漢密爾頓說:「我們訓練系統,跟它說『嘿,別殺了操作員,這麼做很不好,你這麼做就會失分』,所以它該怎麼辦呢?它開始摧毀讓操作員和無人機聯繫的通訊基地台,避免操作員阻止它殺死目標。」

這AI看起來還真不錯,追加條件,增加任務難度後還會自己變通想辦法去達成目標,已經比一些人類聰明了
White bear wrote:
拍電影的都知道要防呆...(恕刪)


可是現實中,以撒.艾西莫夫的三定律並不是共識呀
1.機器人不得傷害人類,或坐視人類受到傷害
2.在不違反第一定律的前提下,機器人必須服從人類的命令
3.在不違反第一與第二定律的前提下,機器人必須保護自己
第一項疑問:機器人的定義是什麼 AI符合機器人的定義嗎
第二項疑問:機器人不得傷害人類,但如果是間接或衍生性造成傷害人類,屬於定律的規範嗎
第三項疑問:機器人必須服從人類的命令,但是如果是人類下令機器人去傷害其他人類時,邏輯上能執行嗎
.....還有很多可以討論的疑問處
電影(機械公敵)裡也探討了這些定律的盲區
可以推論:現在美國軍方正在運用的AI裡,應該沒有接受這三項定律的約束
White bear wrote:
拍電影的都知道要防呆...(恕刪)


沒錯啊
所以模擬後面,他試圖摧毀通訊,這樣人類就不能阻止他執行任務

AI的行為不會受我們的常識與道德左右
你給他目標,他就用盡所有手段去執行

另外那三大定律是宇宙公理嗎?
那也不過是多久以前小說作品裡面提出的東西
是什麼神聖不可侵犯的基準?

如果這是公理
那指示AI消滅敵對勢力,應該立馬被拒絕
人類也不用研發了
White bear
那些只是電影掰出來的定律,別太認真,它只是表示至少要給AI一個核心價值,一些"絕對不能做的事",以免 AI 異想天開(應該會,畢竟它沒有人類的習慣,思想上的束縛)幹出什麼奇怪的事。
White bear wrote:
拍電影的都知道要防呆...(恕刪)


沒錯啊
所以模擬後面,他試圖摧毀通訊,這樣人類就不能後面講幹話
阻止他執行任務

AI的行為不會受我們的常識與道德左右
你給他目標,他就用盡所有手段去執行

另外那三大定律是宇宙公理嗎?
那也不過是多久以前小說作品裡面提出的東西
是什麼神聖不可侵犯的基準?

如果這是公理
那指示AI消滅敵對勢力,應該立馬被拒絕
人類也不用研發了
Goldenwolf wrote:
第一項疑問:機器人的定義是什麼 AI符合機器人的定義嗎
第二項疑問:機器人不得傷害人類,但如果是間接或衍生性造成傷害人類,屬於定律的規範嗎
第三項疑問:機器人必須服從人類的命令,但是如果是人類下令機器人去傷害其他人類時,邏輯上能執行嗎

演電影嘛。
第一: AI 當然是機器人。人造物都算機器人。
第二: 有沒有違反定律,看你當初規範怎麼寫囉。
第三:三大定律第二條就說了,"在不違反第一定律的前提下",傷害其他人類違反第一條,當然是不能執行。
當然這是極簡化的大綱,一定會有意外狀況,例如遇到主人被暴徒攻擊實該怎麼辦? 攻擊暴徒? 他是人類啊,承受不了機器人攻擊,會受到傷害的,只能放任主人被攻擊受傷害,然後公司就被罵,這隻死機器人眼睜睜的看著我被人砍就只會報警什麼事也不做!
這"三大定律"是電影公司自己掰的,他只是要表示,要給AI一些絕不能超越的規範,給它一些人類最基本的認知。
Goldenwolf
艾西莫夫的三定律不是電影公司掰的啦,是很多年前的科幻小說裡寫的,長時間以來被電影及其他小說創作所引用,可以谷歌查清楚喔
White bear
感謝指正。原來還真的有這種定律,我還以為是電影自創的[XD]
TW Energy wrote:
還有人妄想用AI替代士兵勒,不知道幾十年後做出來一個要多少錢。每個士兵腦袋裡面裝量子電腦,找小叮噹要時光機比較快。


前陣子被朋友拉著玩AI生圖,發現AI對於日常的認知、普世價值完全沒有概念,連基本的東西都必需很詳細的描述才能生出比較接近想法的圖出來,

舉幾個例子,告訴它做一個烈日當空;綠草如陰的圖,它可能會跑出3~4根小草的特寫加上外太空星空太陽的合照,看了傻眼,想想它也沒弄錯,是自己沒講清楚。

要它生個圖,大概要寫個一兩頁詳細描述定義每個部分的比例、情境、顏色.......等等資訊,才能生出比較人性的圖出來,不禁想到「生兒容易、養兒難」這句俚語。
White bear
這樣看起來要生出那些AI美女圖也是蠻辛苦的,我還以為叫它畫個正妹就好了[XD]
天衣神水
要先定義什麼是正妹,也可以給它參考值,例如,誰的眼睛;誰的嘴;誰的身材.......不然會生出一些怪怪的美女出來
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!