M4 Mac Mini 24GB Ram 適合用來剪輯&跑AI嗎

最近要換桌機
想問一下24GB Ram的m4 mac mini適合跑剪輯跟AI嗎
剪輯的部分會用到達芬奇和AE
AI的話則會用LM Studio跑Code Llama 跟 Llama3
我已經入手了 64GB 的 M4 mac mini pro
原本就是打算用來跑 local LLM
ram 越大, 可以 loading 的模型越大
精度越高的模型,勢必佔用越多的 ram
我自己試用下來
感覺 local LLM 在使用上
仍不若 chatGPT / Claude
好處是免費,可以自己微調 (if you can)
當然未來 model 也會改良
或許使用上 不需要這麼多的 ram 就能跑出一樣的效果
也說不定

建議是
看你預期買來是做什麼
再規劃入手相對應的硬體規格
liangcase
呃...OpenAI Sam Altman 自己也用 macbook, 不過有聽說這些公司買爆 mac 來處理 LLM 嗎?
htyang
server 級的處理效果絕對比桌機級的效果好。自己用的,選擇自己適合的就好了
現在最少有 16G Ram 起跳,用是一定可以用.
若是賺錢的工具,可以攻頂.
只是輕度使用 16G 也不是不行.
不必買來戰未來,因為未來會有更強的晶片等你.
畢竟,蘋果的記憶體跟金子一樣貴.
bababoyet wrote:
AI的話則會用LM Studio跑Code Llama 跟 Llama3

如果是要拿來賺錢的
直上Macbook Pro M4 Max 128GB RAM款的吧~
(時間就是金錢)

如果不是,那就無所謂囉~

或是慢慢等Mac Studio M4 Ultra版推出也可以喔~
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!