服務器虛擬化解決方案
第1章 項目概述
企業/政府/金融不斷增長的業務對IT數據中心的要求越來越高,所以數據中心需要更為快速的提供所需要的計算,網絡,存儲資源。如果不斷購買新的服務器,又會增加采購成本和運作成本,而且還會帶來更多業務供電和機房冷卻的開銷。同時在一般情況下,企業的服務器工作負載一般不超過10%,這導致了大量的硬件、機柜空間以及電力的浪費。對于企業/單位內部購置新的服務器是一項漫長的過程,這使得IT部門更加難以滿足業務快速增長和變更的需求。例如,對于新業務系統平臺的增加上線和測試平臺下線刪除的需求,往往就需要消耗大量寶貴的資源和時間。
為解決服務器數量增加所帶來的問題,提高服務器資源的使用率,降低設備采購成本,提高業務的連續性以及為將來新應用系統建設提供一個靈活的資源使用平臺,需對現有服務器進行虛擬化整合。
XXX客戶作為國內大型企業/政府單位,信息化建設不斷發展。目前信息化網絡以信息中心為運營維護單位,覆蓋例如OA,Mail,ERP,中間件服務,政務平臺等多套業務系統,服務器資源龐大。出于經濟效益和管理安全性考慮,針對基礎架構的虛擬化整合已勢在必行。
第2章 需求分析
2.1 現狀分析
XXX客戶數據中心目前以X86服務器為主,運行著OA,Mail,ERP,中間件服務,政務平臺等業務系統。具體的服務器配置如下所示,該表涵蓋了主要業務系統的服務器配置。
系統
|
型號
|
配置
|
視頻服務器
|
PowerEdge 2950
|
Xeon E5410 *2/4GB
|
下載服務器
|
PowerEdge 2950
|
Xeon E5110 *2/2GB
|
生產經營管理系統
|
PowerEdge 2950
|
Xeon E5410 *2/4GB
|
固定資產管理系統
|
PowerEdge 2950
|
Xeon E5410 *2/4GB
|
移動站業務管理系統
|
PowerEdge 2950
|
Xeon E5410 *2/2GB
|
網管系統
|
PowerEdge 2950
|
Xeon E5410 *2/2GB
|
財務系統
|
PowerEdge 2950
|
Xeon E5410 *2/2GB
|
防病毒系統
|
PowerEdge 2950
|
Xeon E5410 *2/2GB
|
郵件系統
|
PowerEdge 2950
|
Xeon E5410 *2/2GB
|
安全評估系統
|
PowerEdge 2850
|
Xeon 2.8G *2/2GB
|
人力資源系統
|
PowerEdge 2850
|
Xeon 2.8G *2/2GB
|
任務管理系統
|
PowerEdge 2650
|
Xeon 2.8G *2/2GB
|
庫存管理系統
|
PowerEdge 1750
|
Xeon 2.4G *2/1GB
|
身份認證系統
|
PowerEdge 750
|
P4 2.8G/1GB
|
表:XXX客戶數據中心服務器
在存儲陣列方面,XXX客戶數據中心的主要存儲設備及其相應系統的容量與使用率情況如下所示。
陣列名稱
|
使用系統
|
可用空間
|
已用空間
|
使用率
|
IBM DS4700
|
網管系統
|
1400G
|
800G
|
57%
|
|
郵件系統
|
1950G
|
900G
|
67%
|
|
人力資源系統
|
400G
|
400G
|
100%
|
IBM FastT600
|
庫存管理系統
|
1340G
|
1340G
|
100%
|
|
身份認證系統
|
340G
|
170G
|
50%
|
IBM DS5020
|
視頻服務器
|
1540G
|
1530G
|
97%
|
|
防病毒系統
|
270G
|
206G
|
76%
|
EMC CX3-40
|
財務系統
|
941G
|
325G
|
32%
|
|
移動站業務管理系統
|
800G
|
270G
|
34%
|
|
安全評估系統
|
600G
|
305G
|
51%
|
EMC CX500
|
任務管理系統
|
120G
|
95G
|
79%
|
|
固定資產管理系統
|
300G
|
280G
|
94%
|
EMC CX4-480
|
下載服務器
|
2000G
|
2000G
|
100%
|
|
生產經營管理系統
|
980G
|
800G
|
82%
|
表:XXX客戶數據中心存儲陣列
通過對XXX客戶服務器和存儲現狀的分析,目前IT基礎架構有以下幾個問題待解決:
u 服務器的利用率低,F在機房內運行的大部分機器的利用率都非常低,由于一臺服務器只能有一個操作系統,受系統和軟件開發平臺的限制,CPU、內存、硬盤空間的資源利用率都很低,大量的系統資源被閑置。
u 可管理性差。首先是可用性低,幾乎每個應用服務器都是單機,如果某臺服務器出現故障,相對應的業務也將中斷。其次是當硬件需要維護、升級或出現硬件故障時,上層業務系統均會出現較長時間的中斷,影響業務的連續性,其中包括一些重要業務系統,一旦中斷服務影響很大,未來數據中心搬遷時會更加麻煩。
u 服務器和存儲購置成本高,維護成本遞增,也不得不考慮。隨著應用的不斷增加,服務器數量也跟著增加,每年要支出高額購置費用不說,還有部分服務器已經過保修期,部件逐漸進入老化期,維護、維修預算費用也逐年增加。
u 對業務需求無法做到及時響應,靈活性差。當有新的應用需要部署時,需要重新部署服務器,存儲系統,并需要對網絡系統進行調整以適應新的IT應用的需求。
u 目前為每套業務系統,在開發測試中心均要保留一套開發測試環境,造成了資源很大的浪費。
XXX VMP的服務器虛擬化解決方案可以很好地解決上面這些問題,下面的章節將從方案的整體規劃設計,體系結構,計算,網絡與安全,高性能存儲,可用性,智能管理等方面對該方案進行全面地分析與介紹。
2.2 建設目標
XXX客戶服務器虛擬化建設項目,旨在運用 XXX VMP虛擬化技術,整合服務器、實現內部私有云架構、簡化IT基礎架構、提高服務器利用率、降低能源消耗,并提高系統的可用性和減少系統故障導致的意外停機時間等,從而有效的降低硬件投資成本和運維成本。
本次虛擬化項目建設不僅要滿足當前的應用需要,還必須考慮到以后系統的可擴展性,滿足XXX客戶未來一段時間的信息化發展需求。
第3章 XXX虛擬化平臺方案設計
3.1 虛擬化平臺整體設計
3.2.1 方案設計描述
虛擬化技術的引入大大減少了需要維護和管理的設備,如服務器、交換機、機架、網線、UPS、空調等。原先設備可以根據制度進行折舊報廢、或者利舊更新,使得IT管理人員有了更多的選擇。虛擬化可以提高資源利用率,降低硬件采購成本,更加節能和節省空間,讓整個數據中心更加靈活。
下圖是實施了XXX VMP虛擬化方案之后的IT整體架構。
.jpg)
圖:數據中心整體架構圖
服務器虛擬化后,我們搭建了虛擬化集群,并統一進行管理。原有的服務器設備仍然可以正常運行,并且與虛擬化服務器融合在一起。
隨著虛擬化的不斷應用,可以不斷動態地增加虛擬化集群的規模,搭建更健康的IT體系架構?蛻舳朔矫,延續了原先的訪問模式,對于虛擬服務器的數據交互等操作,等同于原先傳統物理服務器的的訪問模式,不會對業務系統造成任何不利影響。
本章節接下來的部分,將從計算,存儲,網絡,可用性,管理與監控五個方面對XXX客戶的數據中心進行全面高效的規劃設計。
3.2 虛擬化計算資源規劃
在XXX客戶規劃構建的虛擬化數據中心中,本方案將利用XXX服務器虛擬化技術按照1:8~12的初期整合比例(考慮到未來環境增長和高可用需要,實際整合比可以更高,但需要進行現場環境數據評估),將服務器組成集群,構建高可用動態資源池環境,作為數據中心各應用的整體運算資源。
本次虛擬化項目設計,建議使用3臺 Dell R910服務器,且使用集群技術,兩兩集成一臺服務器,可提供高性能四路集群刀片服務器。建立1個集群。在此基礎之上,利用XXX aMotion功能,使得應用服務器在VMP虛擬服務器硬件環境出現問題的情況下,能夠自動的遷移到另一臺VMP虛擬服務器上運行,不會因為硬件環境出現的問題而導致應用服務停止運作,保證了業務連續性。為什么建議選擇 3 臺服務器?
1) 擴展性:滿足以后陸續增加的系統。
2) 高可用:可滿足允許1臺主機故障。
針對由多個XXX VMP系統主機組成的集群,可以使用XXX HA功能在整個虛擬化 IT 環境中提供高可用性,而沒有傳統群集解決方案的成本或復雜性。XXX HA 可為在虛擬機中運行的任何應用程序提供經濟高效的高可用性解決方案,而不需要考慮其應用操作系統設置或應用系統基礎硬件配置。XXX HA 不需要專門的備用硬件和附加軟件支持。
同時,XXX VMP系統提供XXX aMotion遷移、虛擬機系統故障恢復,資源保障控制的的高可用與自動資源調節能力,可平衡應用間對CPU、內存的資源分配,保證應用系統維持在最佳運行狀態。
3.2.1 CPU設計
應用虛擬化后,提供CPU計算能力與物理環境差異不大,與物理環境相差6%左右。本方案推薦配置的機架服務器是一款高性能企業級服務器,它應該集高級管理功能與領先的性價比特性于一體,是虛擬化、工作負載整合和中等規模數據庫的理想之選。
下面對配置4顆英特爾® 至強® E7-4820處理器的單服務器作為VMP服務器的CPU處理能力計算:
硬件
|
描述
|
CPU 插槽
|
4路
|
每CPU核心
|
八核
|
CPU每顆核心主頻MHz
|
2,000
|
每CPU總主頻MHz
|
20,000
|
每臺服務器總CPU主頻MHz
|
80,000
|
每臺服務器最大CPU使用率
|
70%
|
每臺服務器CPU有效主頻MHz
|
56,000
|
應用vCPU需求計算:
應用類型
|
vCPU需求
|
VM數量
|
總計vCPU
|
備注
|
普通應用
|
1~2
|
20
|
20~40
|
|
高端應用
|
4~8
|
4
|
16~32
|
|
|
|
|
36~72
|
|
3.2.2 內存設計
應用類型
|
vMEM需求
|
VM數量
|
總計vMEM
|
備注
|
普通應用
|
4~8
|
20
|
80~160
|
|
高端應用
|
16~32
|
4
|
64~128
|
|
|
|
|
148~288
|
|
考慮到HA冗余與內存30%預留(2臺VMP主機按照50%預留,3臺以上按照30%預留),每臺主機配置XXX G內存,同時考慮到CPU高共享性能,內存共享性能稍低些,以及未來業務增長,建議每臺主機配置XXX G內存。
單服務器作為VMP虛擬化服務器內存計算:
硬件
|
描述
|
每臺服務器物理內存MB
|
256GB
|
每臺服務器最大內存使用率
|
70%
|
每臺服務器有效內存MB
|
179.2GB
|
l 每臺服務器的運算能力按照峰值而非平均值進行估算,確?梢灾С痔摂M機應用同時運行的最高值。
l CPU和內存的估算需要預留30%的空間用于突發的運算能力過量。
l 設置預留可能限制 aMotion。僅當目標VMP系統主機的閑置物理內存等于或大于預留大小,才能遷移虛擬機。
l 適當調整虛擬機的配置內存規模十分重要。如果應用程序不利用配置的內存,則內存將被浪費。VMP 性能監控可用來確定實際內存使用率。
3.3 虛擬化網絡架構規劃
3.3.1 虛擬化網絡架構設計
根據XXX最佳實踐,網絡架構應該滿足如下要求:
l VMP管理網絡(HA心跳互聯網絡),aMotion在線遷移網絡,虛擬機對外提供服務的網絡應該各自獨立;虛擬業務網絡與 (管理網絡、aMotion網絡)隔離開。
l 對于每一個虛擬交換機vSwitch應該配置至少兩個上行鏈路物理網絡端口。
l 對于多網口的冗余配置應該遵循配置在不同PCI插槽間的物理網卡口之間,不同網口對應到不同刀片交換機。
l 對于物理交換網絡也應該相應的進行冗余設置,避免單點故障。
l 建議采用千兆以太網交換網絡,避免網絡瓶頸。
虛擬服務器的網卡配置:建議至少4個網卡端口連接核心/接入層交換機。服務器的2個網卡將分配到VMPmanager(管理)/aMotion網絡,2個網卡分配給虛擬機業務網絡; 每臺VMP服務器規劃的虛擬交換機配置如下:
虛擬交換機
|
功能說明
|
物理網口數
|
Vswtich0
|
管理控制臺,HA心跳互聯網絡,aMotion網絡
|
2
|
Vswtich1
|
虛擬機業務
|
2
|
說明:
l 對于虛擬交換機的雙端口冗余,本方案建議通過在vSwitch虛擬交換機層面配置雙網卡的負載均衡或主備切換策略。
l 對于虛擬機應用的網絡,為了確保虛擬機在執行了aMotion遷移到另一物理主機保持其原有的VLAN狀態,建議根據實際需要在虛擬交換機端口啟用802.1q的VLAN標記方式;采用此方式的可以確保遷移主機可以保留原有的網絡配置如網關等,并且建議在網絡設置中啟用通知物理交換機功能,該功能可以確保遷移主機通過反向ARP通知物理交換機虛擬機端口的更改,確保新的用戶會話可以被正確建立。
3.3.2 虛擬化交換機規格設計
虛擬交換機配置規格如下表所示:
群集
|
vSwitch
|
類型
|
VLAN
|
Active ETH
|
Stand by ETH
|
Cluster01
|
vSwitch0
|
VMP管理/ aMotion
|
待定
|
eth 0
eth 2 |
|
vSwitch1
|
VM
|
待定
|
eth 1
eth 3 |
|
3.3.3 物理網絡架構設計
建議采全千兆三層以太網交換機系列組成服務器冗余接入層。配置2臺S全千兆三層以太網交換機采用堆疊、集群等虛擬化技術,虛擬成一臺交換機來使用,提供冗余架構。虛擬交換機對應的兩張物理服務器網卡分配接入到XX臺物理交換機使用端口聚合技術,實現線路冗余和負載均衡。
3.4 虛擬化存儲架構規劃
3.4.1 存儲性能和容量規劃
存儲型號:可以根據客戶建議或者不寫
數量:1臺
存儲IOPS計算依據:
普通應用 讀寫比例70%:30%
高端應用(數據庫等) 讀寫比例50%:50%
采用RAID5(寫懲罰4)、RAID10(寫懲罰2)
方案根據應用讀寫需求,對數據庫讀寫頻繁等應用采用raid10,對普通應用寫較少應用采用raid5。雖空間利用率較低,但IO性能提升較多,特別是針對虛擬機這種隨機零散讀寫需求較高的應用,需要具體雙引擎大緩存功能的存儲器來支持大規模桌面用戶頻繁讀寫數據的操作。對于歸檔備份數據建議采用NL-SAS大容量盤來存放數據。
SAS(15000轉) 硬盤單盤IOPS為150左右。
NL-SAS(7200轉)硬盤單盤IOPS為80左右。
SAS容量:配置24塊300G容量的SAS硬盤;6塊3TB容量的NL-SAS硬盤。
SAS盤 Riad5組大約可提供2T空間、710個IOPS。(普通應用)
SAS盤 Raid10組大約可提供1.8T空間、1400個IOPS。(數據庫等高端應用)
NL-SAS盤 Raid5組大約可提供10T空間。(歸檔備份、非結構化數據等)
建議配置24塊300G容量的SAS硬盤;6塊3TB容量的NL-SAS硬盤。
3.4.2 存儲LUN規劃及設計
SAN存儲規格是典型的高負荷存儲環境. 以下為遵循平衡管理性能、可用性需求的配置規則。
建議LUN的大小不是固定的,它是基于每個LUN存儲虛擬機的最大數量同時保留適當的水平的可用空間,按下列公式計算:
LUN 尺寸 = (Z x (X + Y)*1.15)
Z = 每個LUN存放虛擬機最大數量
X = 每個虛擬機內存的尺寸值
Y = 虛擬機存盤的尺寸
舉例如下,假設標準的虛擬機單個磁盤QCOW2文件容量為100GB,并有4GB的內存。
LUN 尺寸 = (15 x (4 + 100 )* 1.15)= 1791GB
如果以15臺虛擬機、每臺100G空間計算、考慮精簡分配因素LUN劃分為1.5T。
對寫要求高應用建議采用預分配模式;對寫要求較低應用建議采用精簡分配模式,以節約存儲空間。
結合以上因素綜合考慮LUN容量規劃:
名稱
|
LUN ID
|
容量
|
用途
|
XX_L00
|
0
|
0.4T
|
其他管理服務器、模版與ISO
|
XX_L01
|
1
|
0.8T
|
普通應用
|
XX_L02
|
2
|
0.8T
|
普通應用
|
XX_L03
|
3
|
0.9T
|
數據庫等高端應用
|
XX_L04
|
4
|
0.9T
|
數據庫等高端應用
|
XX_L05
|
5
|
5T
|
歸檔、備份、非結構化數據
|
XX_L06
|
6
|
5T
|
歸檔、備份、非結構化數據
|
備注:遵循以上原則,具體劃分根據項目實施進行調整。
3.4.3 存儲架構和可靠性設計
在設計存儲架構時,應該充分考慮到冗余和性能,因此存儲架構的選擇,要根據現有的整體應用對存儲的IOPS和吞吐量的需求進行規劃,涉及端到端的主機適配器選擇、控制器和端口數量選擇以及磁盤數量和RAID方式選擇等。VMP主機和存儲之間通過多路徑進行冗余的保障。
每臺VMP服務器到存儲的連接示意如下:

說明
l 底層LUN的需求根據實際虛擬機應用對存儲IOPS的實際需求進行規劃。
l 根據應用的需要設置LUN的RAID結構,如對于隨機讀寫的數據庫如Oracle、SQL數據庫,建議在LUN級別采用RAID10結構,對于數據庫日志通常為連續寫或恢復時連續讀,建議在LUN級別采用RAID5結構。
l 對于IO密集型的應用盡量采用單獨的LUN,避免在存儲端與其他應用產生IO競用。
l 通常情況下1TB的LUN大小具有較好的性能和可管理性。
l 磁盤陣列的選擇應該滿足整個虛擬化環境最大IOPS的吞吐量需求,并配置足夠的存儲處理器、緩存和端口數。
3.4.3 存儲選型
屬性
|
說明
|
廠商和型號
|
HUS130
|
類型
|
FC
|
多路徑策略
|
MRU最近使用策略
|
最小/最大交換機端口速率
|
8GbE
|
3.5 高可用設計
在保證業務的高可用性和業務連續性上,根據需求可以考慮三種方案:
3.5.1 虛擬化平臺級高可用
由于XXX VMP集群中具備HA高可用性功能,可以保證當運行業務應用的物理主機出現宕機、物理硬件故障等情況發生時,可以被集群中的其他物理節點偵測到并且自動在備用物理機或其他有空閑資源的物理機啟動故障節點在線的虛擬機,最大限度保持虛擬機應用的可用性。

3.5.2 虛擬機操作系統級高可用
如果虛擬機操作系統故障也可以被XXX VMP HA偵測并修復。
比如當虛擬機內部系統藍屏,或者CPU 利用率100%卡死虛擬機操作系統時,XXX VMP HA可偵測病重啟該虛擬機。

3.5.3 業務應用高可用
采用原有業務系統的保護機制也可以運行在虛擬化平臺上,如數據庫的mirro機制,RoseHA等,第三方的高可用保護機制也可以運行,該方案需要第三方廠商配合完成。
3.6 虛擬化安全規劃設計
通過整合XXX的整體安全防護平臺,可實現整體虛擬化解決
●邊界虛擬設備,為虛擬數據中心提供簡單、高效、低成本的集成式安全網關服務,例如防火墻、負載平衡、NAT 和 VPN等。
●應用虛擬網卡級防火墻,基于可信級別隔離保護虛擬數據中心的關鍵應用
●數據安全為應用安全提供虛擬資源中敏感數據發現,輔助IT組織快速的評估法規遵從狀態
●通過使用虛擬設備(而不是專門構建的硬件)
●提供第 4 層至第 7 層安全防護服務來節省成本。
●能夠隔離共享基礎架構中的關鍵應用,從而實現合規性目標

3.7 靈活易用性設計
XXXXXX VMP虛擬化平臺針對實際的客戶需求,專業的用戶體驗優化,可實現:
● 高效P2V:只需要三步即可完成現有物理主機的虛擬化
● 免插件控制臺:免插件的控制臺訪問VM,提升用戶體驗
● 極速備份:通過數據消重,最大限度的縮小數據備份窗口
● 一鍵新增虛擬機:通過簡單設置,快速創建虛擬機
● 自動故障處理:系統故障時提出專家解決方案,快速恢復系統及應用
● 批量新增虛擬機:為經常重復的工作內容提供自動化操作平臺
第4章 XXX虛擬化方案優勢總結
4.1 更人性化的操作體驗
4.1.1 極速備份
XXXVMP虛擬化平臺,將備份系統融合在整體VMP平臺,實現簡單易用的備份系統,由客戶設置自動備份計劃,系統管理根據這些設置定期進行自動備份處理,以增強系統數據的安全性,同時增強自動處理事務能力,可以在不處理日常業務的時間里進行此項工作。
●精確備份時間策略:可精確到小時級的備份時間計劃,讓備份數據更精準完善。
●智能備份路徑選擇:可智能選擇備份路徑,根據存儲空間的使用情況來智能選擇備份位置,且與原位置不同,保證原主機或存儲故障后,能從其它備份位置恢復。也可選擇客戶簡單易用的Windows共享目錄實現快速易用的備份。

4.1.2 高效P2V
通過XXXVMP Convert實現快速的物理機遷移虛擬機,跨平臺的虛擬機遷移虛擬機。而整個虛擬化遷移過程不超過5分鐘,業務中斷在2分鐘以內。也可實現快速虛擬機平臺還原回物理機的回滾,保證業務數據不丟失。

4.1.3 虛擬化運維工作更簡單
免插件控制臺:免插件的控制臺訪問VM,提升用戶體驗
一鍵新增虛擬機:通過簡單設置,快速創建虛擬機
自動故障處理:系統故障時提出專家解決方案,快速恢復系統及應用
批量新增虛擬機:為經常重復的工作內容提供自動化操作平臺
4.2 高安全性虛擬化平臺保障
4.2.1 虛擬化整體安全防護
通過整合XXX的整體安全防護平臺,可實現整體虛擬化解決:
●邊界虛擬設備,為虛擬數據中心提供簡單、高效、低成本的集成式安全網關服務,例如防火墻、負載平衡、NAT 和 VPN等。
●應用虛擬網卡級防火墻,基于可信級別隔離保護虛擬數據中心的關鍵應用
●數據安全為應用安全提供虛擬資源中敏感數據發現,輔助IT組織快速的評估法規遵從狀態
●通過使用虛擬設備(而不是專門構建的硬件)
●提供第 4 層至第 7 層安全防護服務來節省成本。
●能夠隔離共享基礎架構中的關鍵應用,從而實現合規性目標
4.2.2 虛擬化文件系統加密
通過高強度加密的XXX虛擬化文件系統,保證數據安全。通過添加每用戶的密鑰實現加密功能提高安全性。非法人員即使盜走保存有機密數據的硬盤或者虛擬機虛擬硬盤文件,也能夠防止其數據被其他用戶或外部攻擊者未經授權的訪問。
4.2.3 底層防攻擊
合入XXXNGAF多年的安全積累的防攻擊模塊,保障底層Hypervisor更安全,最大限度的控制網絡系統,加強邊界訪問控制權限的建立,降低安全風險,消除網絡系統、操作系統、本身存在的大量弱點漏洞和認為操作或配置產生的與安全策略相違背的系統配置,減少入侵者成功入侵的可能;加強網絡系統入侵行為的檢測和防御能力,有效阻止來自外部的攻擊行為,同時也防止來自內部的違規操作行為;通過加固手段切實提高操作系統的安全級別,保證系統安全.
4.3 智能虛擬系統可用性
●系統故障恢復:虛擬機系統故障檢測,虛擬機內部系統藍屏,或者CPU 利用率100%卡死虛擬機操作系統時,XXX VMP HA可偵測病重啟該虛擬機。
●資源保障及控制:通過調整不同業務虛擬機的CPU,內存等計算資源的優先級,保障關鍵應用計算資源需求,提升高優先級系統的可用性
4.4 高性能虛擬化平臺
●塊數據緩存:實現針對文件系統的塊數據緩存,通過提升大文件讀取速度,優化用戶體驗。
●歷史數據預。壕珳首x取虛擬機歷史塊數據,加快系統開機速度
●SCSI虛擬化硬盤加速:通過優化SCSI磁盤驅動,整體提升磁盤I/O性能。