chienlun wrote:
感謝!! alfon...(恕刪)
是載入Pool不是載入(mount)硬碟
假設你設定一個Pool叫做 Mobile01
裡面加入了七顆硬碟
那麼這些硬碟將來換電腦時候,必須一次搬移。
因為這些硬碟裡面有Pool Mobile01的必須資料。
你只要將硬碟接在新電腦上
輸入
zpool import -f mobile01
這樣就可以了
-f參數 是強迫的意思
因為很可能你沒有做export的動作
zpool export mobile01 卸載pool mobile01
如果你將來買了更大容量想替換 或是硬碟有損壞想替換
也有指令可用
可以去下載zfs administrator guide的PDF檔來看...
反正目前用不到,我就懶得背指令,哈
ZFS也有管理介面,只是好像在opensolaris的版本拿掉了。
我還是喜歡用滑鼠點選,程度不夠不會安裝PKG,
真相永遠只有一個!
md1000這款硬碟櫃單座可以接15棵碟碟,最多可堆疊三座共45棵硬碟,我的raid卡有2個channel所以單張卡最多可接到90棵硬碟,當然卡可以再擴充,每加一張卡可以再加90棵硬碟,del 1950 server配備2棵四核心2.6g xeon cpu,ram 8g(本來想加到16g,無耐預算不夠),一張sas contrller,一張intel 4port gigabite網卡,再加上server 本機2張網卡總共有6g的頻寬,用switch 把頻寬合併起來用,目前主要用途用來跑vmware esxi server的後端儲存,透過nfs分式分享給esxi server用,同時也分享給其他Linux server使用,也有透過zone虛擬化的方式,虛擬出一台小nas供其他部門做網芳分享使用。
zfs其實有很多的玩法,不過硬體要夠力,ram越多越好,他會全拿來當cache用,2g是最低限度,cpu也要夠力,核心越多越好,zfs可以用到全部的核心,ram建議企業用要8G以上,sun原廠配的storage server都配16g的ram,最近又看到一個新功能,可以搭配固態硬碟做第二級的cache,網路上有人用四棵128G的固態硬碟做成一個512G的第二級cache,效能嚇嚇叫。
zfs的snapshot跟檔案壓縮的功能用來備份超好用的,配上sas熱插拔的功能,還可以線上擴充容量不用停機,而且效能直接加乘,quota的設定可以限制目錄的大小,很好管理,目前只差還沒有找到類似linux下drbd的功能,可以用來做為異地備援,如果有的話那真是太完美了。
zfs支援的的raid模式有四種,raid 0,1,5,6 raid5,6 稱為raidz,z2,我目前只接了8棵1t的硬碟做raidz2+1棵hotspare,做raid 6對效能影響蠻大的,不過公司資料重要,寧可犧牲一些效能換安全性,明年有預算再來昇級。
johnson.ting wrote:
沒想到這邊也有人在玩...(恕刪)
你是大咖

我考慮過MD1000這種東西
無奈價格對個人用途太貴,只好放棄。
RAM 現在一般主機板8~16G,問題是4G一條很貴,
感覺上4G不夠用,是打算升級到8G,
對我這種HD需求的人應該夠了。
不夠就再升級主機囉!
這台就當作異地備援用..........不過好像沒這麼大的頻寬可以做到..............

換個房間放,算不算呢

SSD當CACHE的功能我有看到...
連指令都很簡單,WINDOWS還辦不到呢......
不過好像買Ramdrive之類的當CACHE會更爽快的感覺。
有沒有廠商要借測試阿?
話說....網兄能指導一下,如何把Solaris Express中的ZFS Web console安裝到OpenSolaris嗎?
我真的是滑鼠族...........................

真相永遠只有一個!
掛載了virtualbox 跑win 2003 server
然後跑flashget
想說正在測試一些VirtualBox相關設定 然後關掉virtualBox 下的2003
結果
結果整台機器自動重新開機
開機後檢查pool
root@opensolaris:~# zpool status -v
出現以下資訊
儲存池:vbox
狀態:UNAVAIL
status: One or more devices could not be used because the label is missing
or invalid. There are insufficient replicas for the pool to continue
functioning.
動作:銷毀儲存池並從備份來源重新建立儲存池。
請參閱:http://www.sun.com/msg/ZFS-8000-5E
清理: 未請求
配置:
NAME STATE READ WRITE CKSUM
VBOX UNAVAIL 0 0 0 複本不足
mirror UNAVAIL 0 0 0 複本不足
c4t0d0 FAULTED 0 0 0 已毀壞的資料
c4t1d0 FAULTED 0 0 0 已毀壞的資料
儲存池:rpool
狀態:ONLINE
清理: 未請求
配置:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
c3d0s0 ONLINE 0 0 0
錯誤:沒有已知的資料錯誤
還好我記得我的Pool名稱設定為alfonso
趕緊敲了下面這一行指令
root@opensolaris:~# zpool import -f alfonso
再次檢查Pool狀態
root@opensolaris:~# zpool status -v
儲存池:VBOX
狀態:UNAVAIL
status: One or more devices could not be used because the label is missing
or invalid. There are insufficient replicas for the pool to continue
functioning.
動作:銷毀儲存池並從備份來源重新建立儲存池。
請參閱:http://www.sun.com/msg/ZFS-8000-5E
清理: 未請求
配置:
NAME STATE READ WRITE CKSUM
VBOX UNAVAIL 0 0 0 複本不足
mirror UNAVAIL 0 0 0 複本不足
c4t0d0 FAULTED 0 0 0 已毀壞的資料
c4t1d0 FAULTED 0 0 0 已毀壞的資料
儲存池:alfonso
狀態:ONLINE
清理: 未請求
配置:
NAME STATE READ WRITE CKSUM
alfonso ONLINE 0 0 0
mirror ONLINE 0 0 0
c4t2d0 ONLINE 0 0 0
c4t3d0 ONLINE 0 0 0
mirror ONLINE 0 0 0
c4t0d0 ONLINE 0 0 0
c4t1d0 ONLINE 0 0 0
mirror ONLINE 0 0 0
c4t4d0 ONLINE 0 0 0
c4t5d0 ONLINE 0 0 0
錯誤:沒有已知的資料錯誤
儲存池:rpool
狀態:ONLINE
清理: 未請求
配置:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
c3d0s0 ONLINE 0 0 0
錯誤:沒有已知的資料錯誤
root@opensolaris:~#
當初是先建立了vbox 內含兩顆硬碟 後來才新增四顆
也銷毀了VBOX這個Pool
但沒重新開機過
沒想到會遇到這種事情
冷汗直流

但果然是zfs 寫的進去就一定讀的出來 ........
Pool alfonso 是回來了
問題是Pool VBOX依然存在阿,那是重複的硬碟,完全傻眼。
於是我重開機,然後下了zpool destroy VBOX
雖然找不到VBOX了
但是檔案系統還是看的到VBOX,
火大,直接拉進垃圾桶,眼不見為淨...........
真相永遠只有一個!
ifconfig aggr1 plumb
ifconfig aggr1 192.168.1.1 up
就可以啟用介面了。
實際頻寬輸出,我只有用過iscsi測過160MegaByte的輸出,由於手上硬體有限,沒法測試他的極限,但是網路IO蠻吃系統資源的,目前opensolaris 並不支援TOE,只有支援Intel的IOAT但是實在是不好測試,手上也沒有太多的硬體可以測,我安裝的是Nexenta 1.01這一套件,還不支援IOAT,聽說200811的版本有支援,期待有網友可以測試,要看cpu的使用狀態可以用"mpstat 2",這個指令可以看cpu的狀態,prstat這個指令也可以,要看硬碟IO狀態可以用"zpool iostat 2"監看io 狀況。
我沒有在用zfs web管理介面,這部份可以要等opensolaris官方把他整合進來吧。






















































































