現在每個老闆都在講 AI,要有 AI 就得先買顯卡來做運算


水云 wrote:
在 如何截取跟運用截取來的資料 (deep learning) 之前

可不可以告訴我一下,『足夠大的』值得 learn 的資料 ... 哪來的?不知

謝謝 羞...(恕刪)


learn 的資料可以用租的也可以用買的,不一定是雲端上的big data

AI可以用在任何領域,不限影像或語音~~

blueled wrote:
Nvdia Tesla 並不是顯卡,也不是歸類於顯卡,你需要一張Quadro/NVS顯卡來配合它。
...(恕刪)


目前測試過各種顯卡(GTX-1018Ti , Titan X , Titan V , Tesla V100 )做深度學習,還是以 GTX-1080Ti CP值最高~~~
很多公司其實早就把資料擺在AWS上了,
管理成本比自有平台,安全且可靠多了,
架在自己的平台上,反而更容易被駭,備份成本也更昂貴,對外連結風險更大.
而把這些資料,直接去做AI訓練與判斷,更能節省空間時間等花費.

而且Microsoft/Google/Amazon真敢偷客戶資料?
要就直接就買下來了,台灣公司在他們眼中根本都小到不行.
hyc0707 wrote:
你說的沒錯現在Cloud...(恕刪)
Hmm 這一串看了有看沒有懂
要玩TensorFlow就一定要有Nvidia的Cuda(你有時間也可以直接用CPU)
別家的顯卡用openCL目前還沒辦法支援
我不確定這個跟投資有什麼關聯,
但是Nvidia的卡既可以做深度學習、挖礦、又可以玩遊戲,非常直得購買
前面已將有人講到,有興趣的話建議購組一台電腦買1080 ti來玩看看就知道差在哪裡
請問一下各位前輩們

我不太懂AI和顯示卡關係的部分

如果每一個AI都必須要有顯卡,那所謂的小愛同學的音箱

裡面就必須至少有一顆運作AI的GPU?

還是說只有運算中心需要購買顯示卡,所謂的AI音箱裡面其實沒有GPU運算AI?
CPU和GPU架構不同, CPU通常4/8/16個運算核心, GPU則數百個.
對於需要重複大量運算的AI, 挖礦應用而言, GPU當然比CPU適合.
加上nvidia很多年前就有提供CUDA介面, 讓應用程式可以直接呼叫GPU運算, 所以AI應用很多.

但Google and Intel也開始開發AI專用如TPU, 號稱比GPU更適合AI運算.

AMD and nvidia 也稍有不同, 通常AMD 核心數目會比nvidia多一些, nvidia則核心速度會快一點.
所以挖礦應用 AMD會快一點. 不過挖礦運算(比特幣)只為了解決區塊同步問題, 浪費了很多無謂的運算及電力.

在未來的虛擬貨幣上一定會有改善, 因此可預期GPU運算需求會降低.
事實上連GPU廠商自己都不看好, 所以不敢大量投單, 缺貨現象會再持需一段時間!

ckc51 wrote:
CPU和GPU架構...(恕刪)


學習了,感謝,標註個位置。

對於虛擬貨幣加密,個人有個想法,現在的硬體與演算法,遇到將來進步時,例如256位元與比目前快百倍的PU(誇張點才能看出差異),那時解密是不是變得只要目前的十分之一以下時間,那虛擬幣的前景??
為啥ai一定要自己算

亞馬遜和微軟等等都有提供 server幫你算
星空殘月 wrote:
請問一下各位前輩們...(恕刪)


建議搜尋一下training跟inference

簡單的說,training階段需要很強的運算能力, 算出的參數丟給機器去做inference, 但機器本身運算能力不需太高

智慧音箱甚至不需要做inference, 直接把收到的語音丟到雲端去做inference

水云 wrote:
所以 Alpha go 也是用顯卡走棋的囉 ... ?...(恕刪)



不完全是喔! Google 有自己開發自己的晶片叫 TPU (Tensor Processing Unit)

是屬於一種ASIC..(特殊應用積體電路(application-specific integrated circuit))
專為特定用途而設計、運用以執行單一工作,本質上與通用的 CPU、GPU 有很大不同,而且最終還是會運用到 CPU / GPU 的運算輔助。只能說 TPU 在人工智慧的運用,與 CPU、GPU 有所重疊,而 TPU 將此重疊部分效率做到極大化。
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!