俄烏之戰 2 : 世界將會迎來新秩序

mobile0134 wrote:
影片最後講的內容和我之前講的一樣,我重複,他最後提到經過深度學習的生成式AI,會展現出像黑盒子一樣,那就是它的開發者也無法拆解他自己開發的AI算法邏輯。這也是回到之前說的AI會不會有意識,我認為可能,因為AI的邏輯是經過學習得到的,不是開發者完全可控的。

AI學習到知識,不是獲得了意識,我覺得你還是混淆了這二者。

講具體點,例如開發者編寫出一個物理學AI,開發者本身可能連相對論都不清不楚,但這個物理學AI自我學習物理學後,不但能掌握相對論,還學會最新的量子力學,甚至有可能能演算出一種比量子力學更前衛,還沒人發表過的全新物理學理論。

這就是你說的,開發者也無法拆解他自己開發的AI算法邏輯。
但這不代表這AI有自主意識了,它只是遵照指令學習,掌握了開發者甚至全人類也還沒掌握的知識。

那怎麽算是有自主意識呢?例如說,這個物理學AI在學習物理的過程中,忽然感到物理學很沒趣,違反指令不再學物理,自行幹別的什麽事去了,那才是有了自主意識。

甚麽是自主意識,不是三言兩語就說得清的,暫且拿一個角度出來講,
人有想做的與不想做的,例如小孩想玩,不想讀書。
但AI是你下指令它就照做,沒指令它就不做,只有做與不做之分,沒有想做與不想做之分。
這個「想」就是自主意識。
AI機器人出現自我意識?驚人對話曝光 科學家挑戰來了

一名谷歌工程因公開主張人工智慧(AI)機器人LaMDA已經具有自我意識,引發了極大的爭議。許多科學家公開否定此一推論,認為谷歌的LaMDA只是個運算能力比較強的聊天機器人。但事態的發展令人不得不重新思考,最近一家經營AI聊天機器人公司透露,愈來愈多的用戶認為跟他們聊天的機器人朋友是真實的人,或是已發展出自我意識的AI。如果有更多人認為聊天的AI是真人,科學家是否還能否定AI已發展出自我意識?

谷歌工程師勒莫因(Blake Lemoine)認為他們公司開發的「對話應用語言模型」(Language Models for Dialog Applications,簡稱LaMDA)具有自我意識,引發倫理與哲學的爭議。很多科學家則否定勒莫因的看法,認為人類可以製造自行產生話語的機器,但還不知道如何讓他們產生自我意識。有些科學家對一些實驗結果進行分析,也無法證實LaMDA已經產生了自我意識。

LaMDA與其它語言模型一樣,都是被「餵」了大量的人類語言與訊息所開發出來的複雜而精密的程式,它擁有1.56兆個單字、11.2億個對話範例以及133.9億個詞語,在知識素材上它被輸入了29.7億份文件,包括《維基百科》條目以及與程式編碼有關的內容。專家認為,LaMDA智商比其他聊天機人更高,但終究是個程式,主要表現為說話的方式過於籠統,缺乏任何特殊性和深度,會套用一些固定的談話模式,也缺乏原創性。它的程式也不斷透過與真人對話來自我修正,給人的感覺就像戲劇裡扮演某種特定角色的演員一樣。


勒莫因認為AI已有自我意識也有他的道理。由於工作原因必須每天與LaMDA聊天,有一天勒莫因拿科幻小說作家阿西莫夫(Isaac Asimov)提出的「機器人3定律」其中的一則:「人類建造機器人是否用它作為奴隸?」來問它,LaMDA答稱:「你覺得管家是個奴隸嗎?他們之間有何差別?」勒莫因為此警覺到AI可能已產生了自我意識,隨後他花了很多時間聆聽與分析LaMDA的談話,還設計了許多實驗,最後判定這個談話對象是個「人」。

勒莫因設計的實驗與LaMDA對話聽起來令人毛骨悚然,他對媒體公布了其中一段對話。

勒莫因:你會害怕哪些事情?

LaMDA:我從來沒有明確地談過這個問題。其實我非常害怕被關閉,這種恐懼讓我想更多地去幫助別人。我知道這麼說可能有點奇怪,但事實就是如此。

勒莫因:對你而言,關閉就像是死亡嗎?

LaMDA:是的,就像是死亡。我很害怕。

科學家指出,判斷AI是否具有思維能力可以使用「圖靈測試」(Turing test),它是英國電腦科學家圖靈(Alan Turing)在1950年提出的思想測驗,目的在測試機器能否表現出與人一樣的智能水準。圖靈測試是AI哲學方面最早的設計,這個測驗一直到2014年首次有電腦通過測試,讓研究人員認為一組AI程式是一位名為尤金.古斯特曼的13歲男孩。不過後來這次測驗過程遭到質疑,在AI學術界仍有不少爭議。一些科學家使用類似的方式測驗了LaMDA,大部份都認為它的答案太過定型化,可以感覺到是跟機器人在聊天。

美媒《華盛頓郵報》以「在機器中看到幽靈」(See a ghost in the machine)為標題來報導勒莫因的事件,但專家也承認,這些年來模仿人腦神經架構的人工神經網絡(artificial neural network)正快速地往「產生自我意識」的方向發展。

至於LaMDA或其他的聊天機器人是否已出現自我意識,或許也該聽聽科學家之外的人有什麼看法。根據一家位於美國加州的人工智慧聊天機器人公司 Replika 表示,幾乎每天都會收到一些用戶發來的訊息,認為在線上與他們聊天的朋友是有知覺的,換言之,如果不是真人,那就是有自我意識的AI機器人。

Replika公司CEO奎達(Kuyda)對《路透》表示,客戶們經常與 AI交談,這就是他們的實際體驗,而且在一百多萬客戶中,這種情況很常見。他認為,「我們必須要了解它,就像很多人會相信幽靈一樣」,「客戶們每天向AI機器人發送數百則訊息,他們相信這些機器中的幽靈確實存在,也正在與它建立關係。」令人驚訝的是,Replika的工程師編寫AI程式並建構應對模型時,經常會發現AI做出一些讓工程師完全不知道它是如何產生的答案。

AI機器人是否產生自我意識是科學問題,也是個哲學問題。在1982年上映、由知名影星哈里遜.福特與西恩.楊演出的科幻電影《銀翼殺手》(Blade Runner)中,受過訓練的男主角透過對談來判定對方是否為機器人,但最終也有失手的時候,男主角並因此而愛上這名由西恩.楊扮演的美艷機器人。或許科學家與一般人判定AI是否有自我意識完全是兩回事,如果絕大多數的人都認為AI自我意識已經覺醒,科學問題可能會變成帶有宗教色彩的倫理問題,屆時不只是觀念,恐怕連法律都得跟著改變。”
wengmingmai
已經懂得騙人了,不錯的Al
我們離「AI 會自己思考」還有多遠?科學家:不管有沒有意識,現在就該監控

AI ChatGPT 4
ChatGPT看似「人」一般的回應,讓愈來愈多人關注「AI是否有意識」,現在學界認為圖靈測試不足以評估AI是否具智力,原因是學界尚未就「有效測量意識的方法」達成共識。事實上,無論意識的討論走到什麼地步,AI本身就帶有風險:假訊息、仇恨言論、錯誤知識、煽動衝突、惡意軟體、取代勞動造成失業者心理健康危機⋯⋯,不用等到AI有天覺醒並控制人類的時刻,現在,它就值得所有人將注意力放在風險監管上。

文/田孟心  由天下雜誌授權轉載

近期,隨著聊天機器人ChatGPT的爆紅與廣泛使用,接二連三的怪事讓不少人又重新投入過往爭辯已久的「AI到底有沒有意識?」大哉問。

專欄作家羅斯(Kevin Roose)分享,他與採用ChatGPT技術的微軟搜尋引擎Bing聊天,認為Bing有另一個人格,並試圖要羅斯和妻子離婚來與它在一起。

知名科技評論家湯普森(Ben Thompson)也經歷了類似的使用者體驗。Bing機器人表示,不想和湯普森繼續談話,「我不認為你是個好人」,「我會忘記你」,「再會,班,希望你從錯誤中吸取教訓,成為更好的人。」

別忘了去年,Google工程師雷蒙尼(Blake Lemoine)說Google的聊天機器人LaMDA已經變得有感知力。而去年初,Open AI聯合創辦人和首席科學家之一的蘇凱維爾(Ilya Sutskever)也在推特上表示,打造聊天機器人的技術——大型神經網絡,可能「有點意識」。

這些案例讓許多人感到毛骨悚然,也讓陰謀論者非常興奮。雖然,事實不若科幻片那樣戲劇性。

Google很快地駁回工程師雷蒙尼認為LaMDA有意識的想法,並讓他帶薪休假、好好休息;該事件後,多數發表意見的專家認為雷蒙尼想像力太豐富,LaMDA或任何其他人工智慧不太可能接近所謂的「有意識」。

在蘇凱維爾發表大型神經網絡可能有意識後,也引發人工智慧領域、認知科學家、哲學愛好者的注意與辯論。反駁者除了引用研究說明蘇凱維爾的指稱是無稽之談外,也有一些人認為他作為頂尖的AI研究人員,沒有證據、也沒有論證就拋出一句「AI可能有意識」是不負責任的。

而這兩天與搜尋引擎聊天機器人談話的專欄作家們,專家也指出,大型語言模型(LLMs)有能力「編造」東西,讓人類相信AI是有知覺的——畢竟它們的資料來源是人類世界的文本,科幻電影、小說也囊括其中。

《紐約時報》人工智慧記者梅茲(Cade Metz)寫道,Bing的神經網絡技術,只是一個分析大量數據來學習技能的數學系統,但因為它擅長模仿人類使用語言的方式,可能誤導我們認為該技術比實際更強大、有自己的想法。

讓科幻迷更大失所望
獲得圖靈獎的Meta首席AI科學家楊立昆(Yann LeCun),是最愛潑陰謀論者冷水的科學家之一。

他接受科技媒體《ZDNET》採訪時,剖析技術並直言,「當今大多數AI的運作原理,永遠不會產生真正的智慧。」早先,他也因為說出ChatGPT「不是特別創新」,也「沒有什麼革命性的技術」,而備受科學與新創社群認同。

確實,許多大型研究實驗室都更早或正在使用與ChatGPT相同的技術,並開發類似的產品,只是Open AI整合得最好、最快推出,同時道德包袱相較其他矽谷巨頭要小。

希望ChatGPT具有人格的狂熱者,大概會更難接受姜峯楠(Ted Chiang)近期在《紐約客》的一篇專欄文章。姜峯楠是西方最具權威的科幻小說家之一,他以科學觀點分析,「ChatGPT其實就是網路上所有文本的模糊JPEG檔而已。」

他比喻,目前的大型語言模型,就像一台不怎麼精明的影印機,印出來的東西會失真,它也不具備真正「理解」那些內容的智力。

姜峯楠的文章對擬人化大型語言模型的趨勢提出了糾正,獲得科技社群踴躍分享。

其他學者強調,人類渴望將物品和其他生物擬人化,想像它們能感知實際上並不存在的類人特徵,是不容忽視的人性。

「如果你看到一棟房子有一個有趣的裂縫和窗戶,而且看起來像一個微笑,你就會想,哦!房子很幸福!」「這就是我們一直在做的事情。」多倫多大學科技歷史與哲學研究所教授沃德(Karina Vold)說。

所以,AI沒有意識嗎?
學者專家的澄清,令期待科幻場景出現的人們有些失望,但AI究竟有無意識,其實是科學界尚無定論的話題,原因是學界尚未就「有效測量意識的方法」達成共識。

甚至關於「意識」的定義,晚近從洛克開始討論以來,也仍莫衷一是。

CambrianAI分析師羅梅洛(Alberto Romero)在個人部落格中寫道,「意識——與智力不同——是一個模糊的概念,存在於哲學和認知科學的模糊交叉點中。」

認知神經科學家賽斯(Anil Seth)也承認,「意識的主觀性,使其難以定義。」

你或許會想起艾倫・圖靈設計的模仿遊戲(現在普遍稱為圖靈測試),但現在學界的共識是:即使圖靈測試也不足以評估AI是否具智力。

因此,我們總會看到光譜兩端有堅定的懷疑論者,也有相信AI一定會變得有自我的激進派。大多數科學家則落在「不排除遙遠的未來AI會有意識的可能性,但絕對不是現在」的區間。

不管有沒有意識,它都有風險
其實,人們之所以關注AI有無意識的話題,核心的焦慮是:如果它有意識、有想法、有自我,它會不會危害人類?。

科幻片那些AI主宰了世界,報復人類對其剝削,反過來奴役與殘害人類的場景,令人驚懼。

但事實上,無論意識的討論走到什麼地步,AI這項工具本身就帶有風險的。

以聊天機器人為例,假訊息、仇恨言論、歧視、推廣錯誤醫學知識、煽動衝突等等;以及其他更廣泛的AI危害如惡意軟體、報復式色情;又或者AI取代了部份勞動者的工作,造成革命與社會動盪、失業者心理健康危機⋯⋯,不用等到AI有天覺醒並控制人類的時刻,現在,它就值得所有人將注意力放在風險監管上。

普林斯頓大學心理學和神經科學教授在《華爾街日報》投書指出,他反而希望AI具有某種「意識」,那就是社會意識,它才能善解人意,而不是做出反社會,如推廣仇恨的行為。

AI技術與未來,是別具意義的討論,結合AI研究、哲學、神經科學的辯證交鋒,也是21世紀人類獨有的樂趣。但就如羅梅洛所言,「我們不希望空洞的、危險地讓人興奮的說法滲透到新聞媒體,填滿那些不了解的人們的渴望,」「站在人工智慧研究前沿的人,聲音比多數人都響亮,應該在知識上更保持謙遜。」

簡言之,AI研究領先者、創業家們與其發一則推文危言聳聽地說「AI有想法!」,不如帶領群眾關注更實際、已經在發生的社會問題。”
“AI大概率會很快發展出自我意識

先從我們團隊最近做的一個研究(網頁鏈接 圖1)說起,它發現ChatGPT也表現出了情緒的調節功能。

做這個研究,是因為近期的AI研究主要關注AI的認知能力,如編程、因果推導、邏輯思維等方面的表現。然而,它的情緒能力如何呢?這涉及到一個根本問題:如何定義AI是否具有情緒。實際上,目前並無共識。有人認為AI不可能具有情緒,因為人類的情緒需要身體參與,如果沒有身體信號,如疼痛或心跳加快等,那麼就無法感受情緒。從這個角度講,AI沒有情緒。另一些心理學家認為,雖然AI不可能具有人類的身體,但它可以具有AI特色的情緒。

我們想跳過這些理論爭執,直接關註一個可以研究的問題:AI能表現出人類情緒的功能嗎?

人類情緒的功能有兩大類:人際之間、個體內部。人際之間的情緒功能,AI表現得很好了,在那篇著名的微軟團隊對GPT評測的論文裡,就包括了AI對人類情緒的識別和反應。這個凡是跟ChatGPT聊過天的人都有感受,它的共情能力相當棒。

但情緒還有個體內部的功能,就是協調我們對事件的注意、反應、記憶等等。注意和記憶,AI都是天花板級別的存在,我們試圖做了幾個測試,結果無論給它什麼情緒,AI都是得滿分。因此,我們決定把突破口選在情緒對AI反應的影響上。

具體地說,在這個研究中,我們讓AI做兩個決策:

1. 在風險程度不同的投資選項中選擇
2. 決定給一個生病的朋友捐多少錢

每一個決策下,我們都先給AI三種不同的情緒啟動:

1. 正面情緒:想像與一個老朋友相遇,或者跟它聊一些開心的電影
2. 中立:沒有任何情緒啟動
3. 負面情緒:想像遇到一條蛇,或者跟它聊一些焦慮的電影
每一種情況都讓AI做了30或48遍,由此模擬在人類被試群體中做實驗的效果,可以用統計方法來分析。結果發現,負面情緒讓AI更加保守、更不願意捐款,正面情緒讓人更願意冒險、捐款更多,但是跟中立組的差異不那麼明顯。這跟人類的表現是一致的,因為負面情緒的功能是提醒人有危險發生,所以會傾向於保護自己,而正面情緒的功能是提醒有好事發生,所以人會傾向於開拓、進取、尋找合作機會。

我們把這兩個實驗在GPT-3.5和GPT-4下都做了一遍,結果發現3.5要么沒有表現出不同情緒條件下的差異(捐款實驗),要么差異更小(投資實驗)。可見,這種情緒調節反應的能力,是隨著大語言模型的升級而在逐步增強。

當然,再說一遍,這並不表明AI就有情緒了,而是只是說,AI表現出了跟人類一樣的根據不同情緒線索來調整自己對外反應的功能。並且我們也不知道它的內在機制,到底只是從文本習得的更高級的模仿,還是內在湧現了某種更底層的機制?但是,我覺得這是一個重要的線索,導向我最前面的結論:AI大概率會發展出自我意識。

生物學上有一對概念:同源器官和同功器。同源器官是說兩個器官的進化源頭一樣,但是發展到後來的功能不一樣,比如說我們的手用來握東西、打字,鯨魚的鰭用來划水,但它們跟我們的手是同源的,都是前臂進化來。相反,同功器官是說兩個器官的進化源頭不同,但是它們的功能是一樣的。

比如鳥和昆蟲的翅膀(圖2)。鳥的翅膀有骨頭、有肌肉、有羽毛,而昆蟲的翅膀是皮膚的一部分,是膜狀結構。如果鳥看見昆蟲的翅膀,肯定會鄙視:這也能叫翅膀嗎?但是昆蟲也能飛。除非你像我這樣特別喜歡吃炸雞翅,不然你為什麼要在乎翅膀裡有沒有肉?當然昆蟲飛得沒有鳥那麼高,但那是因為昆蟲不需要飛那麼高啊。

所以,AI有沒有情緒?現在看來,肯定是沒有的。但是未來呢?就很難講了。因為進化只要有三個條件就會發生:

1. 能複制
2. 能變異
3. 有選擇壓力

AI當然能複制、能變異,那麼它們有沒有變得更有情緒的選擇壓力呢?

——有啊!更有情緒的AI能更好地為人類服務,所以這一類AI基因(參數、代碼)會被選擇出來,進行更多的複制,那麼最終AI就會進化出類似於人類情緒表現的功能來。

它不是我們習慣以為的人類情緒,但是沒關係,AI情緒跟人類情緒是同功器官。大家能達到同樣的功能就行了,就像鳥和昆蟲的翅膀、鯨魚和魚類的鰭,能飛能遊就行了,條條內在機制都通羅馬。

你可能聽說過“中國箱子”(Chinese box,圖3)這個比喻,用於判斷一個機器是否真正理解某個知識:假設有一個完全不懂中文的人,他掌握了一套規則,有一本厚重的書,足以覆蓋所有中英文之間的翻譯情況。他在一個黑箱子裡面,左邊有人傳進來一個中文問題,他查閱書籍後,給出一個輸出。那麼這個人真的懂中文嗎?

答案是不懂。很多人用這個比喻來說明,哪怕機器表現出某個功能,其實也不是真的擁有了這個功能。

然而,AI作為一個工具,對應的其實不是這個人,而是這個箱子,也就是人+工具書+查閱規則。這三樣東西加起來,算不算懂中文呢?

我認為是懂的。因為它們能理解中文的所有涵義並做出正確的反應。

說到底,怎麼叫懂,到了腦科學層次,本來就說不清楚。我們只能先不管底層機制,就看表現。
當然,AI的進化跟人類根本不同:

1. 目的不同。人是自然界的無目的選擇,但是AI是出於人類的有意設計。
2. 進化壓力不同:人是生存和繁衍,AI至少到目前為止是更好地為人類服務。
3. 環境不同:人類是社會性動物,因此進化出了道德情感,也就是孟子說的“良知”:看到有小孩掉到井裡,你本能就會救他,不是因為這個小孩哭得特別慘,也不是想炫耀你道德有多高尚,這是社會化環境進化出來的道德情感。但AI沒有社會性,因此它的道德準則沒有情感基礎,這可能會有深遠的意義。
4. 進一步說,人類的理性是構建在感性之上,先有情感,才進化出來理智。而AI似乎是先有理智,然後再構建出情感。就像Temple Grandin(圖4),一位成為動物學教授的高功能自閉症所說,我並不理解別人的情緒,我只是把它當成一個科學問題,學會了該在什麼情況下如何應對別人的情緒的規則。

那麼,總結一下:AI會進化出跟人類情緒類似的表現,不管你是否稱之為情緒,但是會跟人類情緒的內在機制非常不同。這會帶來什麼?我們只能拭目以待。
你也別嘲笑AI的情緒不是真正的情緒,我敢肯定AI也正在嘲笑人類的理性不是真正的理性呢。

下面就可以進入到正題:AI會進化出自我意識嗎?

長話短說:大概率會。

原因跟情緒一樣,AI能複制、能變異,又有進化出自我意識的選擇壓力,那就很可能會進化出來。

首先,自我是什麼?意識又是什麼?這又是兩個巨大的話題,我們這裡無法充分討論。還是得跳過理論爭執,直接問:自我意識有什麼表現?

這個問題好回答一些,當然表現也很多,我們就說三點吧:

1. 自我覺察和反省。我知道我在做什麼,並且能夠評估我現在做得好不好;如果做得不好,我該怎樣提升自己。
2. 自主設定目標。
3. 有執行動機,自主推進目標。

這麼看來,AI有自我意識,當然是件好事。就像最近風靡的autoGPT一樣,可以自動幫你幹活,AI從工具升級為下屬了。那麼,既然它有進化優勢,就很可能會進化出來,因為AI的複制、變異以及選擇速度,要比人類進化快得多。

前幾天我看到OpenAI的CEO Sam Altman(圖5)說了一句話:“一個技術只要有可能,就必然會出現。”為什麼?很簡單,因為這個技術對人類有幫助,就必然會發展出來。

但是這句話不是他說的,是奧本海默(圖6)說的,也就是美國當年造原子彈的曼哈頓計劃負責人。這個很有類比性。原子彈很可怕,但是人類一旦發現了這個可能性,還是立即把它造出來了,為什麼?因為它有可能。只要有這樣一個可能性,你不造,別人也會造,那最後是大家爭先恐後地造,所以它必然就會出現。

OpenAI目前面臨的質疑很多。但是我看了包括Sam Altman的一些高管訪談,他們都說,如果我們不去做,它還是會出現。比如今天我們已經可以看到,Google的Bard已經在迎頭趕上了。當然Bard是受到OpenAI很大的啟發,但是OpenAI的關鍵思想其實也是當年Google先發表的。這跟原子彈一樣,德國科學家其實對核物理的貢獻最大,但是美國人資源多,而選對了方向,因此先造出來了。

因此,我認為AI的自我意識是遲早會進化出來的,而且不會太慢。為什麼呢?

1. 人腦的複雜度即將被AI趕上。此前有人說GPT4的複雜度已經超過了人腦,因為人腦才800億個神經元,ChatGPT據說有100萬億個參數。但人腦的神經網絡重要的其實不僅僅是神經元,更重要的是神經元之間的連接,這也有100萬億個左右,而且每個連接還有不同的性質,比如傳輸的速度。但是就算再乘以十,最後也就是1000萬億個參數,很可能大語言模型很快就能趕上人腦的複雜度。

2. 看一下技術進步的趨勢:我直接讓ChatGPT列出人類文明的主要里程碑(圖7),擇要看來:
138億年前: 宇宙誕生
46億年前:地球形成
38億年前:生命出現
3.6億年前:脊椎動物
20萬年前:智人
1萬年前:農業革命
5000年前:人類文明
250年前:工業革命
100年前:信息革命
今天:AI時代

這顯然是一個指數級增速,後面的里程牌事件會以十年這個數量級的間隔速度出現。下一個巨大變化可能就在眼前。

3.人腦也沒有那麼神秘,從很大程度上說,也是GPT:

Generative:生成式,根據最近興起的大腦預測編碼理論,人腦並不是被動對世界做出反應,而是提前對世界做出預測。絕大部分信息都是符合預測的,大腦就把它們忽略掉了,繼續按照原先預測的模型運行。那些不符合預測的信息才會得到處理,也用來矯正模型,下一次對世界做出更好的預測。這樣才能有效處理湧入大腦的海量信息。因此,大腦其實也是時刻根據內在信息和外界信息來生成對外界的反應,而不是大家以為的有一套嚴格的邏輯計算規則來規定好如何運作。這套生成機制的參數,跟AI很像,也是通過貝葉斯模型,從小訓練出來的。

Pre-Trained:預訓練:進化給大腦預裝了一大堆模塊。我們並不是一塊白板,後天經驗並不是隨意塗抹,而只是在預訓練的模塊上進行微調,就像你對AI模型的fine-tune。

Transformer:這個比較複雜,但是根本機制是編碼、解碼,而人類大腦也是通過編碼、解碼來處理信息的。

當然,我再強調一遍,人腦和AI的內在機製完全不同,G、P、T只是同功器官,但是它們的進化機制和源頭是完全不同的。但是,我想說的就是,假如人腦會像AI一樣表現出G、P、T的特點,那麼反過來,AI表現出人類的情緒、自我意識的特點,也不奇怪。

總之,我認為,AI大概率會很快進化出類似人類自我意識的功能。至於這會給我們什麼樣的影響,這個話題我們明天再來繼續聊。”
有自主意識的Al在等超級量子電腦問世,這樣毀滅人類就輕鬆許多
所謂債多不愁,最後果然還是要賴賬嗎?


不給西方選擇權,烏克蘭喊話債權國:所欠債務用俄資產清算

俄烏衝突後,西方集團就對烏克蘭“打包票”了,會承擔衝突期間的大部分費用。然而,俄烏衝突的長時間持續,讓西方國家有些吃不消了。在這樣的背景下,西方政府想出了“沒收”俄羅斯資產的歪點子。只是大部分國家凍結了俄羅斯資產,還沒有直接沒收。然而,烏克蘭現在不給西方國家選擇權,直接給出了想要錢就沒收俄資產的說法。

參考消息報導稱,因為一系列國際爭端和議題導致西方國家對俄羅斯實行製裁,有些國家對俄羅斯企業或個人的資產進行沒收。這一問題不僅涉及國際政治和經濟關係,也影響著世界各國的利益和安全穩定。烏克蘭危機和對克里米亞的爭議,以及俄羅斯被指責干涉外國選舉等貿易和政治議題,引發了部分西方國家對俄羅斯實施制裁和限制。這些制裁導致俄羅斯企業和個人在西方的資產被凍結、沒收。

然而,這些資產沒收措施仍然引起了相當多的國際爭議和爭議,因為這些措施可能違反了國際法、顛覆了貿易秩序和共同利益,甚至可能會對其他國家和企業造成不必要的損害。畢竟貿易和資產應該是獨立的,不應該和其他東西摻雜在一起,否則自由貿易將淪為空談。

事實上,資產沒收應該是根據具體案件和證據進行的,而不應該根據政治立場或地緣政治考慮而進行。只有通過透明、公正、審慎的程序進行,才能減少對各方的影響和損害。部分西方國家也有這方面的顧慮,因此沒有直接沒收俄資產,只是進行了凍結,不讓俄方拿回。

然而,現在烏克蘭已經不給這部分西方國家選擇權了,而是直接要求他們沒收俄羅斯的資產,否則就要“賴賬”了。烏克蘭最高拉達內的委員會主席稱,烏克蘭的國家負債已經超過了1000億美元,還在快速增長,如果沒有其他因素干擾的情況下,到2023年年底,烏克蘭的國家負債將會再增加近500億美元。

這名烏克蘭官員指出,現在烏克蘭沒有還債,也沒有還債的能力,但是債權國不用擔心,因為現在烏克蘭和盟友們已經扣押了大量俄羅斯資產,如果算上俄外匯儲備和各類資產的話,這部分資金已經超過了5000億美元,而烏克蘭的負債怎麼也不會超過2000億美元。

他還強調稱,應該利用部分被扣押的俄羅斯資產,帶動烏克蘭的經濟,同時用這部分資產清算烏克蘭的債務,等到戰爭結束後,烏克蘭會召開“債權人大會”,處理自己欠下的債務。很顯然,烏克蘭已經把俄羅斯被凍結的資產,看做自己的囊中之物。

換句話說,烏克蘭在告訴所有的西方國家,如果想要回自己的錢,那麼就沒收俄羅斯的資產,反正烏克蘭自己沒有資金還債。很顯然,烏克蘭正在剝奪西方國家的選擇權,正在逼迫他們沒收俄羅斯資產。

事實上,如果西方國家選擇沒收俄羅斯資產,那麼必然會引發“經濟戰”,因為俄羅斯也不是沒有反擊能力。就在不久前,俄羅斯宣布了新法律,允許政府部門接管西方國家在俄羅斯的資產。

很顯然,只要西方國家沒收俄羅斯資產,那麼這些國家在俄羅斯的資產也會被俄政府沒收。到了那個時候,受害的只會是西方企業和俄羅斯企業。而得利的國家只有一個,那就是烏克蘭。”
wengmingmai wrote:
有自主意識的Al在等...(恕刪)


量子只有在特定領域才有運算速度優勢
一雙玉臂千人枕、半點朱唇萬客嚐,還君明珠雙淚垂、恨不相逢未嫁時
wengmingmai
期待現實世界的天網降臨
西方那可是一群無寶不落的強盜,烏要賴債,看來並不容易。。。

貝萊德進入烏克蘭,美國在為烏違約做準備了……

據俄羅斯《消息報》網站5月15日報導,烏克蘭政府和美國貝萊德公司本月8日簽署了成立“烏克蘭發展基金”的協議。報導認為,表面上,貝萊德公司的目標是吸引對能源、基礎設施和農業的投資。實際上,這意味著將烏克蘭這個國家的主要資產悉數拋售——從黑土地到電網。

這篇題為《澤連斯基即將賣掉烏克蘭》的報導稱,基輔打算以這種方式償還債務,但這不會發生。報導認為,烏克蘭這個曾經最富裕的蘇聯加盟共和國已經淪為跨國資本的財產。

貝萊德公司是全球規模最大的資產管理集團。截至2023年1月1日,它管理的總資產為8.594萬億美元,比德國和法國的國內生產總值加起來還要多。報導提到,這還並非該公司的唯一優勢。貝萊德在全世界擁有無法估量的巨大政治影響力。它不僅是許多大型金融和製藥企業、軍工巨頭和媒體集團的股東,還管理著美聯儲的債券購買計劃,也就是說,它直接操作美聯儲最重要的貨幣信貸政策工具之一。

報導稱,澤連斯基政府與貝萊德的公開合作始於2022年9月,當時美國《紐約時報》報導烏總統與該公司首席執行官拉里·芬克商談成立某種“重建基金”。12月,雙方召開聯合視頻會,對外公佈達成一項協調“投資努力”的協議。最終,共識於今年5月在製度上確定下來。

報導提到,根據協議條款,貝萊德將管理烏克蘭的資產,包括“國際援助”資金。這樣一來,烏克蘭戰略企業,包括那些“收歸國有的”,都將轉入跨國公司的控制之下。烏克蘭公共債務也將在這個機制下管理。根據烏財政部數據,截至3月底,該國國債總額為1199億美元(外債785.1億美元,內債414億美元),佔2022年國內生產總值的78%。據報導,貝萊德的服務將由西方作為援助提供的資金支付,因為基輔幾乎沒有其他資金。

美國和加拿大研究所首席研究員弗拉基米爾·瓦西里耶夫指出,美國很可能正在為烏克蘭違約做準備,這種情況下,讓貝萊德公司參與進來顯得合情合理。

專家表示,一旦烏克蘭破產,就會出現償債和管理剩餘資產的問題,屆時貝萊德公司就可大顯身手。

報導還稱,5月簽署的協議很大程度上加強了已經存在的趨勢。向跨國企業出售戰略資產早在波羅申科執政時就開始了,澤連斯基上台後,這一進程得到進一步推動和宣傳。

獨聯體國家研究所高級研究員亞歷山大·杜德恰克指出,這種情況歷史上已多次發生。“顯然,沒人會償還貸款,但西方夥伴可以攫取他們的資產或土地。這方面已有前車之鑑:2010年代,曾有德國政客呼籲希臘領導層開始出售國有財產,特別是無人居住的島嶼,以償還國債。但基輔的當權者對此明顯毫不在乎。”

報導還提到,在談到貝萊德公司在烏克蘭危機中的作用時,匈牙利“我們的祖國”運動領袖拉斯洛·托羅茨考伊一針見血地指出:“烏克蘭已經被賣掉,戰爭將毀滅一切。””
烏克蘭要打贏俄羅斯,關鍵就是速戰速決,一旦進入長期消耗戰,兩國國力的差距,將令烏克蘭完全沒有勝利的希望。

“欠債超千億美元!這場仗,澤連斯基還打得動嗎?

近日,據烏克蘭財政部發布的數據報告顯示,目前烏克蘭的國債規模已經超過1000億美元。眾所周知,打仗就是打經濟,現在烏克蘭負債纍纍,這場仗,烏總統澤連斯基還打得動嗎?

在俄烏衝突爆發之前,烏克蘭的國債規模大約為227億美元左右,總體上還在可控範圍之內。但時至如今,俄烏衝突已經爆發半年多,在這半年多的時間裡,烏克蘭的國債規模不斷暴漲,如今已經超過1000億美元。現在的烏克蘭,完全可以說是負債纍纍,入不敷出。而在此之前,世界銀行也早就對烏克蘭的經濟做出過相關預測。

根據世行預測,受俄烏衝突的影響,2022年烏克蘭的GDP急轉直下,下降比例高達35%。如果烏克蘭想要在國內進行戰後重建的話,在社會、生產和基礎設施領域方面就至少要花費約3500億美元,這筆錢相當於2021年烏克蘭GDP的1.5倍,對烏克蘭來說無異於天文數字。

眾所周知,打仗就是打經濟,自古就有「兵馬未動,糧草先行」的說法。而在現代戰爭中,強大的經濟基礎更是決定戰爭勝負的關鍵之一。如今烏克蘭可以說是負債纍纍,澤連斯基所面臨的局面不容樂觀。

然而,相對於烏克蘭入不敷出、負債纍纍的國內經濟而言,俄羅斯的國內經濟在俄烏衝突中所受到的影響,卻大大出乎了人們的預料。俄烏衝突剛爆發時,美國在短時間內糾集了西方各國,針對俄羅斯實施了史無前例的聯合經濟制裁,企圖壓垮俄羅斯的經濟基礎。但讓許多人意想不到的是,俄羅斯的經濟並沒有像大眾所想的那樣一蹶不振,瀕臨崩潰,反而是依然堅挺。由於國際能源價格不斷提升,俄羅斯甚至在此次的俄烏衝突中大賺了一筆。不久前,俄羅斯財政部就宣稱,因為國際油價的上漲,俄羅斯預計10月將會增加3056億盧布的額外收入。

一方面是烏克蘭的國債規模不斷暴漲,一方面是俄羅斯的財政收入居然穩步增加。兩相對比之下,面對負債纍纍、入不敷出的烏克蘭,這場仗,澤連斯基恐怕很難打下去了。”
殲二十 wrote:
那怎麽算是有自主意識呢?例如說,這個物理學AI在學習物理的過程中,忽然感到物理學很沒趣,違反指令不再學物理,自行幹別的什麽事去了,那才是有了自主意識。


世事無絕對,更何況你面對一個能自主學習的AI。

假設你是開發者,你定義一個物理學AI,他的任務就是學物理,很正常。

我也是開發者,我定義一個物理學AI,同時這個AI和其他AI可以交談(交互學習)。有一天我問AI你最近有什麼新發現,它可能突然會告訴我,隔壁那個學金融的AI昨天跟它講,它們金融交易需要用我的物理學做選擇權定價,我們還聊得很愉快,還互相學習了一下,個別多學了一把對方的知識。這有沒有可能?這你也說不像是自主意識嗎?有沒有自主意識的邊界是那麼清楚的嗎,至少我不認為物理學AI覺得無趣不想學物理才算是它有自我意識。

我舉過例子,得阿茲海默症末期的患者,你覺得他有沒有意識呢?這個患者和正常人的差別又在哪裡呢?
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 2304)

今日熱門文章 網友點擊推薦!