DeepSeek運營成本衹有ChatGPT的1/100,功能部分超越,而且是免費開源;ChatGPT要每月收費200美元,很快完蛋。看看美國電視台專家訪問。
個人積分:3348分
文章編號:90913454
嘿嘿嘿.......
如何看待 DeepSeek 發佈的 MoE 大模型 DeepSeek-V2?
2024-05-07 23:53
羅福莉 知乎知識會員
北京深度求索人工智慧基礎技術研究有限公司 員工
今天忙飛,深夜,簡單寫幾點:
1. 單論DeepSeek-V2模型的中文水準(來自20多個微信群用戶反饋),是真實處在國內外閉源模型的第一梯隊(GPT4、文心4.0等),因為沒做RAG(檢索增強)等功能,所以實際在官網(http://www.deepseek.com)的體感可能略微沒那麼驚豔,但這不妨礙API效果呐! 外加1元/百萬輸入Tokens的價格,只有GPT4價格的1/100,性價比之王!
2. 怎麼兼顧模型效果和成本的? 基本純靠:模型結構創新(MLA+DeepSeekMoE)+ 超強Infra。 MLA妙就妙在,它既是 training efficient MQA,也是 inference efficient MHA。 從今天起,放棄MHA/GQA,全面擁抱MLA吧。 同時,不嚴謹來說,DeepSeekMoE也算是開啟了“共用expert+細粒度expert分割”的sparse框架風 -- 完全不同於Mixtral MoE的做法。 簡而言之:創新力就是第一生產力!
3. 我們堅持了一貫樸實無華、真誠直接的開源風格,技術報告、模型權重、vllm推理代碼都開源了: GitHub - deepseek-ai/DeepSeek-V2 希望聚集開源社區智力,加速AGI時代到來。
4. 未來還會持續給大家帶來更驚豔的開源模型(希望有機會可以“明目張膽”的說超過了GPT4-Turbo),所以大家不用擔心模型斷更,也不用擔心API漲價(目前就是大規模服務的價格,不虧本,獲利率超50%)。
5. DeepSeek團隊的每一個人都非常優秀,DeepSeek-V2是群體智慧的結晶,創始人也是我堅信的國內最適合技術驅動型創業的! 以及,最重要的,非常期待同樣對AGI充滿好奇心和創新力的各類人加入(技術&非技術都需要),簡歷投遞郵箱: talent@deepseek.com 或者 加HR微信:DDYWY05。
個人積分:1210分
文章編號:90913869
個人積分:3803分
文章編號:90913873
個人積分:3348分
文章編號:91043834
個人積分:4000分
文章編號:91045380
關閉廣告
顯示廣告
為提供您更優質的服務,本網站使用cookies。若您繼續瀏覽網頁,即表示您同意我們的cookies政策。 了解隱私權條款



























































































