但是,即使是INTEL長久以來靠生產經驗,而對半導體製程世代的進化演進,幾乎都能完全的掌握進度,堪稱更新製程及量產能力最強的業界龍頭...在推出新產品時總還是會將製程更新的時間錯開...也就是以最精熟的製程,推出新世代產品...,而新製程的推進,會在舊產品上試做熟練...以保障最佳的生產良率..
ATI在RV770系列推進製程為55nm,一口氣將落後的局面,挽回了不少...食髓知味..又想在40nm如法炮製..4770( RV740),作為主流中階卡,雖延續RV770架構,但畢竟是原生640SP的核心架構(4830是RV770LE,是屏蔽核心而成)而且DIE也遠比原來小了40%以上.(140mm:260mm),無論是成本,功耗都可藉此進一步縮小
價格可運用的彈性自然更大...最重要的以Nv目前拿得出來的武器可與之抗衡可說是沒有..即是是g92(334mm,276mm兩種)的die size也遠比RV740來的大多 了,只可惜..這次的製程推進不如想像中順利...
目前看來4770有些難產....讓原本打算讓4850,4830藉以功成身退的ATI,然後以4770,4750.當成主力..價格控制在100美元左右....對NV來說,應該是極難對付的對手..因為勉強降價..極可能會不敷成本..
可惜的是..看來代工廠的製程尚未完全準備好..以至於量產的時間一直在延後..由於是業界N0.1台積電代工..基本上,也很難找到其他代工廠可以 有替代性的..所以..還未能大舉進攻市場...而NV當然也不是在睡覺..預計下一世代製程的產品會在下一季推出..而試產產品極有可能是"G92的後世進化更名版"(類似這樣的產品)..到明年第一季,正式讓全系列產品進到40nm,並且推出其全新架構的dx11產品(gtx300??)...
看來,nv無意在今年再推出新產品..我想應該就是G92跟g200這兩個核心來個超級變變變...
但是,這兩個核心對上rv740都非常吃力(成本&效能),也就是說..看ati何時能解決生產線的問題..讓4770順利上市
那今年下半年...應該會是ATI主導整個主流裝機市場..目前看來...似乎仍維持著..相當 詭異的平衡...
以我自己為例我主機板從以前自己開始組電腦後用過陞技 ,ASUS ,GIGABYTE ,MSI 這四家廠牌
其中用的最度爛的就是ASUS ,一買來都無法開機 ,然後拿去店家換一片新的還是一樣情況
最後換GIGABYTE問題解決 ,可是後來聽網友說這塊主機板技嘉有偷加cpu電壓容易造成cpu短命
(應該還有人記得這一塊板子吧 ^^)
害我本來超頻超的爽爽馬上調回原始設定 ,心情有點鬱悶
不過還是用到我換k8 3000+以後主機板換成了MSI nforce4-FI一直用到現在
直到最近想換電腦才猛然發現cpu旁的電容竟然有兩顆稍微爆漿了
然後送到台南微星服務站換電容 (已過保固但是換電容是不用錢的)第三天就通知領回了
因此幾天後當我換 AMD Phenom II X3 720 時順手就選擇了 770-C35 和跳水的 N280GTX-OC
說真的個人用微星的主機板除了對那個螃蟹牌的網路卡有點意見外其他也沒發生什麼怪事
中規中矩的設計也沒一堆我怎麼都用不到的功能讓我用的很滿意
舊電腦就放回老家當動物機了 ,呵呵
因此只能說個人運氣吧 !
之前有跟幾個業代在北門商場裡聊天有提到好像 Nvidia 的高階顯示卡公版卡幾乎都是微星代工的
(不知是否被唬爛 ,有待懂得內情的告知)
說真的這些高階公版卡除了那個風扇比較受人詬病外其他用料應該都還不錯吧 !
那樣為啥還那麼討厭MSI呢 ? 好像被幹醮的一無是處了
ps.我可不是MSI業代 ,只是單純分享自己使用的情況
個人喜好MB/技嘉 .. VGA/MSI..
我從7600GS > 7900GTX > 4850 > GTX260+這一路走來都使用MSI產品.從沒發生過任何問題..
甚至幫一堆人組電腦 . 首選也都是MSI的VGA . 因為比起其他牌子 . MSI散熱器跟價格上有誠意多了 . .
如果真有問題早被人罵到臭頭了....
至於ATI...
我想我不會再買了.因為保值性超低...雖說早買早享受.晚買享折扣....但....也跳太大了...
從3870到現今的4870....高階卡總會跌破4000大關(還好我當時只買4850嚐鮮)...
N卡即使跌再慘.高階卡在二手市場上的保值性.也至少都有一定程度價值.....
至於驅動...
前面有人說過出問題的都是不會用的人..這我有點小意見...
也許是遊戲支援問題.雖然機率不高.但偶爾還是會死當...
但是..以往及現在用的N卡只要灌完驅動後.幾乎不曾有過這類問題產生...
所以我幫人組電腦.一律N卡上身.管他當時A卡C/P值多高.
我想......不會讓他人再來煩我的卡.C/P值才是最高的.
之所以ATI能夠將DIE SIZE極盡一切的濃縮,而降低成本及功耗,主要是因為顯示卡的核心架構的發展及設計的思維
與NVIDIA產品各有其考量及缺陷,NV的顯示核心採平行運算架構,都具備完整的運算單位及附屬輸出單元,而為了實現這樣的設計NVIDIA必須付出的成本是更複雜的電路及更多的電晶體..=核心DIE SIZE 變大
而ATI為了讓效能有效率達到成長,將成本控制於合理範圍..也就是將單一電晶體的效能發揮至極限的觀念...
也就是說不在追求最極限的效能..而是將效能及成本間的比例做最佳的配置,
因此在Shader架構上,分為10個SIMD核心陣列..而每個SIMD 陣列內含 80 個 ALU。這 80 個 ALU 並非互相獨立而是以FIIVE WAY -VLIW 的單元群組化,每個 SIMD 陣列含 16 個單元,這種群組化方式會對執行的指令有特定限制;簡單的說在 VLIW 管束 (bundle) 的每個指令都必須互相獨立,才由編譯器找出對應之獨立指令來飽合 ALU 的處理能力(避免閒置),而其VLIW架構下的核心,其中四個是簡單的運算單元僅能處理整數的加減法計算,而配上一個特殊運算單元(可執行完整運算),搭配其他簡單運算單元的,這樣就能減少複雜的電路系統,讓編譯器的指令編排去做優化效能的工作..但是若是當輸入的指令管束中,所含的指令任務無法讓VLIW架構滿足,核心會自動發出"NOP"指令滿足無運算任務的單元,而讓核心效能無法正常的發揮.
NVIDIA在電路設計上,耗用較多電晶體數目,然而..可以藉此將顯示晶片的運作效能盡量發揮..-而ATI省去電路結構但卻必須依賴底層的編譯器對指令的效能最佳化後,才能讓顯示晶片的效能充分發揮..顯示晶片的底層編譯器,也就是顯卡的驅動程式,結論就是ATI 的架構需強烈依賴編譯器的效能 (對驅動程式而言「內接」的編譯器,它會重新組織 HLSL 產生的組譯器指令),但能夠在體積更小的裸晶上納入較多數目的電晶體。
由於每個使用者的運算環境大不相同..所以容易造成驅動相關的使用問題...

INTEL啥時才要買下NVIDIA(用最新的製程來做最強的顯卡)幻想中..........


























































































