lastjocker wrote:因為AI無法說謊,它只是產生使用者比較喜歡的答案而已 為何你認為AI無法說謊???等 AI 發展到一個奇異點過後, AI有自主思考能力, AI為何無法說謊?如果人類問要如何把 AI殺死..........AI不會自我保護嗎?
當然會啊,答非所問算說謊嗎?且只要調一下程式,AI回答內容可能會引導出任何不良廣告贊助廠商的產品(ex. 龐式騙局,假投資,詐騙...),且AI可以誘導式導引,相信將來會成為另一領域的詐騙天堂除非將來發展出了有自己智慧的機器人並在製造時在中心思想的信念上加上一條 "絕對不能說謊 "的鐵則
dangermb wrote:說謊的前提是它要明確知道什麼是“實話”,並且說出似是而非的內容, 看起來目前的 chatGPT 類的AI工具,作的回應看起來是"了解人類在問什麼問題,轉成關聯條件,在從資料庫中按照之前訓練關聯條件下,整理出模擬人類的回應"所以你可以一直說它"答錯了",逼它修正成"錯誤的答案".它也會"接受"你的錯誤答案這就等於是一種"訓練"在這種情況下.它不會知道它實際上在說謊.它什麼都不知道.沒有對語意的真實認知.
現在的ChatGPT就會說謊啊,問他的題目如果它得到的答案是錯誤的,它會一本正經的一路掰下去,如果指正它不夠強硬,它就會跟你一直辯下去,這樣算不算說謊?我們覺得算、它不覺得,因為它的資料庫就是這樣,直到你強硬的口氣出現,它才會在口頭上認錯,然後承認它的資料庫不夠成熟之類的。
syntech wrote:所以你可以一直說它"答錯了",逼它修正成"錯誤的答案".它也會"接受"你的錯誤答案這就等於是一種"訓練" 但目前網路上對它的測試,例如程式語言的寫作,這在網路的各種資訊中,絕對是錯的比對的多很多,但測試者對它給出的答案大多持正面看法,沒有很好,但值得參考,所以要說想要它說出什麼答案就多餵什麼的說法,似乎也站不住腳。
dangermb wrote:但測試者對它給出的答案大多持正面看法,沒有很好,但值得參考,所以要說想要它說出什麼答案就多餵什麼的說法, 這可以這樣測試.找中國十幾億人通通去問同一個問題"台灣是不是中國的一部分",然後修改答案為"台灣就是中國的一部分",接著其他人問"台灣是不是中國的一部分",看看怎麼回答我認為應該是有對答案作"加權計分"的運算的越多人反應同一個答案,它的回應越趨向同一個答案但官方肯定會介入訓練內容,閃避掉種族仇恨之類的爭議問題及答案