水云 wrote:在 如何截取跟運用截取來的資料 (deep learning) 之前可不可以告訴我一下,『足夠大的』值得 learn 的資料 ... 哪來的?不知謝謝 羞...(恕刪) learn 的資料可以用租的也可以用買的,不一定是雲端上的big dataAI可以用在任何領域,不限影像或語音~~
blueled wrote:Nvdia Tesla 並不是顯卡,也不是歸類於顯卡,你需要一張Quadro/NVS顯卡來配合它。...(恕刪) 目前測試過各種顯卡(GTX-1018Ti , Titan X , Titan V , Tesla V100 )做深度學習,還是以 GTX-1080Ti CP值最高~~~
很多公司其實早就把資料擺在AWS上了,管理成本比自有平台,安全且可靠多了,架在自己的平台上,反而更容易被駭,備份成本也更昂貴,對外連結風險更大.而把這些資料,直接去做AI訓練與判斷,更能節省空間時間等花費.而且Microsoft/Google/Amazon真敢偷客戶資料?要就直接就買下來了,台灣公司在他們眼中根本都小到不行.hyc0707 wrote:你說的沒錯現在Cloud...(恕刪)
Hmm 這一串看了有看沒有懂要玩TensorFlow就一定要有Nvidia的Cuda(你有時間也可以直接用CPU)別家的顯卡用openCL目前還沒辦法支援我不確定這個跟投資有什麼關聯,但是Nvidia的卡既可以做深度學習、挖礦、又可以玩遊戲,非常直得購買前面已將有人講到,有興趣的話建議購組一台電腦買1080 ti來玩看看就知道差在哪裡
請問一下各位前輩們我不太懂AI和顯示卡關係的部分如果每一個AI都必須要有顯卡,那所謂的小愛同學的音箱裡面就必須至少有一顆運作AI的GPU?還是說只有運算中心需要購買顯示卡,所謂的AI音箱裡面其實沒有GPU運算AI?
CPU和GPU架構不同, CPU通常4/8/16個運算核心, GPU則數百個.對於需要重複大量運算的AI, 挖礦應用而言, GPU當然比CPU適合.加上nvidia很多年前就有提供CUDA介面, 讓應用程式可以直接呼叫GPU運算, 所以AI應用很多.但Google and Intel也開始開發AI專用如TPU, 號稱比GPU更適合AI運算.AMD and nvidia 也稍有不同, 通常AMD 核心數目會比nvidia多一些, nvidia則核心速度會快一點.所以挖礦應用 AMD會快一點. 不過挖礦運算(比特幣)只為了解決區塊同步問題, 浪費了很多無謂的運算及電力.在未來的虛擬貨幣上一定會有改善, 因此可預期GPU運算需求會降低.事實上連GPU廠商自己都不看好, 所以不敢大量投單, 缺貨現象會再持需一段時間!
ckc51 wrote:CPU和GPU架構...(恕刪) 學習了,感謝,標註個位置。對於虛擬貨幣加密,個人有個想法,現在的硬體與演算法,遇到將來進步時,例如256位元與比目前快百倍的PU(誇張點才能看出差異),那時解密是不是變得只要目前的十分之一以下時間,那虛擬幣的前景??
星空殘月 wrote:請問一下各位前輩們...(恕刪) 建議搜尋一下training跟inference簡單的說,training階段需要很強的運算能力, 算出的參數丟給機器去做inference, 但機器本身運算能力不需太高智慧音箱甚至不需要做inference, 直接把收到的語音丟到雲端去做inference
水云 wrote:所以 Alpha go 也是用顯卡走棋的囉 ... ?...(恕刪) 不完全是喔! Google 有自己開發自己的晶片叫 TPU (Tensor Processing Unit)是屬於一種ASIC..(特殊應用積體電路(application-specific integrated circuit))專為特定用途而設計、運用以執行單一工作,本質上與通用的 CPU、GPU 有很大不同,而且最終還是會運用到 CPU / GPU 的運算輔助。只能說 TPU 在人工智慧的運用,與 CPU、GPU 有所重疊,而 TPU 將此重疊部分效率做到極大化。