請問一下
我知道PCIE的頻寬,像是
PCIE 2.0 X1 是500MB/s
PCIE 2.0 X4 是 2GB/s
PCIE 2.0 X8 是 4GB/s
PCIE 2.0 X16是 8GB/s
PCIE 3.0 X1 是 984.6MB/s(大約算1GB/s)
PCIE 3.0 X4 是 4GB/s
PCIE 3.0 X8 是 8GB/s
PCIE 3.0 X16 是 16GB/s
好像還有分單工跟雙工
我想問的是像我的顯示卡是GTX 660Ti
官方數據如下
GPU引擎規格:
CUDA核心 1344
Base Clock (MHz) 915
Boost Clock (MHz) 980
紋理填充速率(billion/sec) 102.5
記憶體時脈 6.0 Gbps
標準記憶體組態 2048 MB
記憶體介面 GDDR5
DDR5記憶體介面寬度 192 位元
記憶體頻寬(GB/sec) 144.2
有人說PCIE 3.0 X8 的頻寬綽綽有餘是這樣嗎
這是怎麼算的
請教是要怎麼去計算我所需要的PCIE頻寬
謝謝!
就像是問台北到高雄我究竟需要多少的速度才夠? 但你沒說時間是多少 所以當然是越快越好...
先了解PCIE頻寬是做什麼用的...是CPU與顯卡之間的傳輸通道 頻寬越高傳輸的時間當然越短...
但問題是 CPU到底要傳什麼東西給顯卡? 流量又是多少?
遊戲or影片 經過CPU透過Driver運算後 才知道要傳什麼給顯卡 最後才知道瞬間的流量是多少?

遊戲程式怎麼寫的 畫面的解析度大小 特效開的高低 CPU運算的快慢這些都影響到流量的大小
低階的遊戲與影片瞬間的流量都很小 PCIE2.0還是PCIE3.0 根本沒差別
即使PCIE3.0頻寬是2.0的約2倍但流量很小
所需的時間可能是0.0001秒與0.00005秒的差異 根本感覺不出來
但高階遊戲就會有差... 如果你追求極致的效果 能用PCIE3.0 X16 就不要用PCIE3.0 X8
說是算記憶體速度的樣子 也就是顯示卡工廠極限效能做出來的每一秒鐘產品量 最終都會卡到顯卡記憶體的最大速度 所以最後還是看產品透過顯卡記憶體能送到電腦去的最大速度/產量
反正不管那個記憶體速度最大量是什麼低配遊戲的一秒幾百幀 或高畫質4K遊戲的一秒一幀 若PCIE頻寬小於這個 顯卡工廠的效能一定會被浪費掉 一定塞車
有個說法是 2080TI剛好餵飽PCIE3.0 X16的頻寬...所以應該是這樣算
2080TI GDDR6速度 16Gbps/秒
PCIE3.0 X16的頻寬 16Gbps/秒
所以我現在要是買了2080TI裝在我那台PCLE2.0 X16的電腦上 就會造成如此悽慘的結果 遊戲效能幾乎差一倍...
就剛好是一倍頻寬8G的差異耶...
最近看文章也看到說 CPU本身的通道數也有限制 像3900X就只有24個PCIE4.0通道 而9900K更只有16個PCIE3.0通道 (那這樣9900K的極限不就是2080TI了嗎? 而且還不能插其他東西 插了就會掉到X8)
所以如果買了效能超強 記憶體速度很快的顯卡 卻插在PCIE頻寬很小的主機板 PCIE通道數很少的CPU上面 那效能一定發揮不出來
說是3080TI有18Gbps/秒耶...
阿愈 wrote:
剛好正在查這個...(恕刪)
https://m.mydrivers.com/newsview/597091.html
RTX 2080 TI在PCIE 3.0X8下,效能才損失2~3%
理論上,除非3080 TI有2080 TI的200%效能,不然PCIE 3.0 X16還是夠用的