幫大家科普什麼是知識蒸餾

股價也蒸餾了一番
懂的就懂
還不快上車?
五味雜陳的人參
這25萬個問題存在於妳、我之間的日常生活中
有了祂(小孩)或是成為祂(老人)之後再去延伸變化

等到坦然接受面對就差不多可以那個了

所以,不一定要走捷徑,順其自然就好
因為籠統來說到頭來還是甚麼也沒有






只要興趣 你自己在家裡 也可裝一個本地模型 - https://huggingface.co/deepseek-ai/DeepSeek-R1

完全local 跑deepseek 不用internet

可google "deepseek-r1 本地部署"




對岸是AI大國 是事實
chatgpt出名後 youtube就有一堆老中 帶著你讀paper


這個人曾經是 美國Amazon Principal Scientist 有出了一本有名的機器學習教科書
這樣的影音在對岸的“YT”更多 我就不貼了
當你開始看這些比較hard core的東西 就會發現那些paper作者都是年輕人 都很年輕。。。
AI的文盲 太多了 不怪鄉民 只是因為發展的太快了
我是要退休的人 但如果你還是二三十的人 請加油
感謝樓主大大分享
長知識了
祝樓主新年快樂
原來知識是這樣堆疊
感謝科普
目前DeepSeek太多流言
但越多競爭肯越快進步
混淆視聽、模糊焦點、置換概念、陳倉暗渡帶風向,每一樣都佔了
Ok1988 wrote:
先聲明DeepSeek...(恕刪)

蒸餾這種事, deepseek就算不做, open ai自己也會做
這是未來AI要能順利推廣的必經之路
其實人腦也是這樣設計的
人無時無刻都在獲取海量訊息, 但是真正會被拿來用都是經過整理且被(這個人的腦袋)認為有相關性的

而我的問題是, 知識蒸餾有違反智慧財產權嗎?
VincentLu1021
不知道耶,就好像chatgpt 自己收集了資料寫了很多論文,DS用chatgpt的論文再寫論文。
這個叫做知識“萃取”。
聽起來就是一種好功夫,不用浪費太多時間,對症下藥的概念~


這個YT淺顯易懂

DS是站在巨人肩膀上的精煉版

算總體成本還是要拼算力~

————————

講一個實際發生的例子

大學教授上完課給作業

然後第一版的同學花很多時間塗塗改改找書查資料,有些沒寫有些可能還是錯的

第二版的同學
用關係找了幾份第一版的作業
比對發現相同的就抄
不相同的就分析那一個是對的比例高先挑那個
有些沒寫的其他版有就填上

整份作業乾乾淨淨清清爽爽沒什麼塗改

往往第二版的分數比第一版高

氣得寫第一版的同學快翻臉
辛苦分數還比較低~


這是真實發生的事⋯
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 10)

今日熱門文章 網友點擊推薦!