国产丁香婷婷妞妞基地-国产人人爱-国产人在线成免费视频麻豆-国产人成-91久久国产综合精品-91久久国产精品视频

公務員期刊網 精選范文 數據中心存儲方案范文

數據中心存儲方案精選(九篇)

前言:一篇好文章的誕生,需要你不斷地搜集資料、整理思路,本站小編為你收集了豐富的數據中心存儲方案主題范文,僅供參考,歡迎閱讀并收藏。

數據中心存儲方案

第1篇:數據中心存儲方案范文

近日,IBM對外公布了其閃存計劃,其中包括投資10億美元用于研發閃存技術和使用固態硬盤的一系列系統。據悉,IBM將通過這項計劃將閃存應用到數據中心之中。

無獨有偶,在2013年年初,NetApp公司宣布,推出全閃存陣列EF540,“這是一款用于當今性能要求極高的企業應用程序的全閃存陣列;同時預先展示了其專門打造的新 FlashRay?產品系列,它將提供豐富的擴展和存儲效率功能,便于發揮全閃存陳列的優勢。” NetApp公司大中華區技術及專業服務部總監何英華說。

在NetAppEF540不到兩周之后,EMC也了新的Xtrem閃存產品家族,包括已開始向精選客戶交付XtremIO全閃存陣列。

閃存技術化解數據中心存儲難題

閃存技術為什么得到了這些IT廠商的一致關注?

“眾多廠商都將目光聚焦于閃存技術,很大程度上是為了爭奪下一代數據中心存儲市場。”業內資深人士梁天昊分析說。

事實上,數據的可靠性和系統正常運行時間一直是數據中心管理人員最關注的問題,但隨著企業IT應用的增加以及移動互聯網的飛速發展,對企業數據中心的存儲和處理能力提出了更高的要求。確實,不斷增長的海量數據給企業的IT管理員帶來巨大的壓力:因為,用戶需要快速、按需地存取數據。這意味著數據中心必須在無數據丟失的環境下以前所未有的速度提供更多數據。面對這一挑戰,傳統數據中心的存儲技術往往顯得有些乏力。

“我們對交易的響應時間十分關注,而傳統存儲的響應時間無法保證低于3毫秒。”一位銀行IT管理人員如是說道。

而閃存技術則可以幫助這位IT管理人員很好的解決這一難題,甚至可以讓響應時間縮短到亞毫秒級別。可以說,同傳統硬盤技術相比,基于閃存的存儲技術的優勢是十分明顯的。

IBM系統與科技部存儲事業部全球總經理Ambuj Goyal說:“由于閃存的經濟性和高性能,這項技術將會對企業產生革命性的影響,尤其是對于事務密集型應用。大數據、社交網絡、移動互聯和云技術重塑了今天的企業環境,這一切需要更快速、更高效、更容易接入的業務洞察力,而閃存正是提供這一能力的有效方案。”

而在何英華看來,與傳統硬盤技術相比,閃存技術的吸引力主要在于可靠性、性能和成本。“例如,閃存與硬盤技術的常規比較表明,閃存較之企業硬盤技術具有以下優勢:I/O 操作(讀取)性能高 250 倍、吞吐量(讀取)高 3 倍、I/O 操作單位成本低 40 倍、IOP 單位電耗少 600 倍、固態驅動器 (SSD) 單位電耗少 2.5 倍 。”

顯然,閃存的潛力巨大,可顯著提高數據中心的效率,還能提高時效性強的業務應用程序的性能,從而增強業務和競爭優勢。“閃存為企業提供了加速關鍵業務負載的諸多優勢,包括:提升IT運營能力及加速關鍵業務應用性能。對于包括OLTP(聯機事務處理),網絡搜索以及高性能計算等在內的關鍵業務而言,相比傳統的存儲環境,會提升至500%。” 何英華介紹道。

IBM院士兼存儲首席技術官許育誠則認為,閃存對存儲系統帶來的最大的變化體現在軟件上。傳統的業務軟件編程的邏輯完全依照以前的磁盤存儲原理,因此應用閃存最重要的在于優化軟件,使閃存的存儲優勢在業務實踐中充分展現。“以大數據的分析為例,很多時候我們是將數據保存在線下,但今天,用戶對實時數據處理的要求越來越多,所以未來的方向是將數據全面保存在閃存上,并基于閃存進行實時數據分析與處理。”

經濟效益優勢明顯

看上去閃存技術確實有著很多的優點,但閃存技術并非現在才產生。那么在此之前,閃存技術為何沒有在企業數據中心存儲中得到大規模的推廣和應用呢?

“關鍵在于價格。和傳統的硬盤技術相比,閃存技術的應用價格比較昂貴,因此之前在數據中心內,很難得到大規模的應用。”梁天昊說。

不過,隨著各大廠商在閃存技術方面的不斷研發,閃存技術的應用成本已經得到了大幅度的降低。

目前,閃存的單位成本可以達到每GB 10美元,相比之下傳統硬盤的單位成本為每GB 6美元。顯然,兩者在成本上的差距已經不象以前那樣懸殊。如果考慮到硬盤的利用率,那么與傳統硬盤相比,閃存的經濟效益優勢已經比較明顯。

也正是因此,IBM存儲系統部門總經理安步吉戈雅表示,從經濟角度來說,閃存已經能夠在數據中心中普及應用了。

而IBM軟件與系統部門主管史蒂夫米爾斯則認為,當創新技術滿足了規模經濟的要求時,就會出現拐點。“我們認為現在已經處在閃存或固態硬盤的拐點上了。”在米爾斯看來,閃存技術本身的規模經濟、成本降低以及大數據帶來的新機遇將促成閃存數據中心的出現。

對此,何英華也表示,閃存在數據中心的運用會越來越多。“其潛力巨大,可顯著提高數據中心的效率,還能提高時效性強的業務應用程序的性能,從而增強業務和競爭優勢。最終,閃存技術將促使企業重新評估其存儲戰略,包括可能會停止過度配置存儲,提高 IT 投資的 ROI(投資回報率)。為了達到所需的性能水平,那些采用過度配置方法的公司通常別無選擇,因為他們受到硬盤技術的限制。”

事實上,隨著價格的降低,閃存的經濟效益優勢在企業數據中心中已經體現在很多方面,包括數據中心占地面積減小、冷卻、更好的應用性能、通過減少計算核心數量以及減少授權和維護需求來降低軟件成本、通過提高設備利用和減少服務器數量來降低硬件成本等等。

近期不會完全取代傳統硬盤

既然有如此多的優勢,那么,如今閃存技術是否會完全取代傳統硬盤技術,從而一統數據中心存儲呢?

何英華表示,閃存技術在近期不會完全取代傳統硬盤技術。在未來數年內,閃存與硬盤技術將繼續互為補充。“關鍵是要善于找到適當的工作負載來利用閃存技術,以實現較高的性價比,最終改變內存、緩存和持久存儲之間的平衡。閃存技術主要用于需要近乎瞬時應用響應速度的工作負載,例如數據庫應用、事務處理和虛擬桌面實施等工作負載,以加快產品或服務的上市時間。”

不過,何英華認為,2013年對于純閃存陣列來說將是具有里程碑意義的一年。

在他看來,2013年,大型存儲供應商動作頻頻,不斷收購成果或自行研發活動的成就。同時,供應商依然在為如何提供最高的性價比而一爭高下。但是,隨著閃存的企業滲透力逐漸提高,單純的性能不再是差別優勢,如何能為大型企業部署、做好產品和公司管理上的準備將起決定性作用。“目前不太受關注的軟件集成以后將得到高度重視,而且性能提升和數據管理將成為實施決策的兩個同等重要的標準。此外,隨著對NAND閃存的關注逐漸白熱化,其他固態存儲技術也將進入人們的視野。”

雖然在短期內不會完全取代傳統硬盤,但閃存在企業數據中心存儲方面的應用前景卻是毋庸置疑的。

第2篇:數據中心存儲方案范文

談到云計算,EMC全球副總裁、大中華區總裁葉成輝顯得很興奮。他表示:“與許多熱衷于炒作概念的公司不同,EMC在云計算方面強調實干。未來2~3年,EMC將推出面向不同云計算應用的產品和解決方案。”

一提到云計算,很多人首先想到的是Google等互聯網服務商提供的云服務,這是典型的公共云。“在與客戶接觸的過程中我們發現,很多用戶認為云計算就是公共云,而忽視了私有云存在的必要性和重要性。某商業銀行的客戶認為,云計算就是軟件即服務(SaaS),或是可以在淘寶等網站上獲得相關的云服務,而云計算在企業中的應用有些遙不可及。我向客戶解釋了什么是私有云,企業如何借助云計算技術建立虛擬數據中心。”葉成輝表示,“在美國,很多用戶已經使用像VMware這樣的虛擬化軟件建立虛擬數據中心,從而節省成本,提高應用的靈活性。企業用戶建立虛擬數據中心是必然趨勢,中國用戶也不例外。”

EMC不僅是虛擬數據中心理念的倡導者,而且是積極的實踐者。2004年,EMC在全球擁有5個數據中心,服務器數量超過1000臺。服務器不僅多,而且分布廣,管理比較復雜,每增加一個新應用都十分困難。為了解決這個難題,EMC利用VMware的虛擬化軟件對原有的數據中心進行了整合,形成了一個虛擬數據中心。解決了基礎架構的問題,EMC又開始考慮數據備份、數據分層等數據管理方面的問題。EMC將虛擬數據中心內部劃分成五個層級,將數據按照其價值的不同分別存儲在不同層級的磁盤上,比如SSD盤、光纖磁盤、SATA或SAS磁盤。EMC用三年時間完成了數據中心的整合,整合后實際使用的服務器數量只有以前的30%。很多人感覺云計算的概念比較模糊,但是建設虛擬化數據中心是實實在在的事情。虛擬化數據中心是構建私有云的前提。

在私有云方面,EMC于2009年推出了專為虛擬數據中心設計的高端存儲產品Symmetrix V-Max。葉成輝表示,Symmetrix V-Max可實現虛擬數據中心存儲的海量擴展,是虛擬化計算基礎架構的基石。EMC Virtual Matrix Architecture(虛擬矩陣架構)集行業標準組件與EMC Symmetrix的獨特功能于一身,具有高可擴展性,存儲量最高可達數十萬TB,并且能夠支持數十萬臺虛擬機和其他虛擬設備。

談到EMC、思科與VMware成立的云計算聯盟,葉成輝表示,成立這個聯盟旨在推動虛擬數據中心和私有云的建設。該聯盟主要關注三方面問題:構建信息基礎架構,實現虛擬化以及提供相關的服務。在研發方面,三方將有更多合作。思科的服務器與網絡產品、EMC的存儲與VMware的軟件將整合在一起,實現統一管理。該聯盟不僅能夠為用戶提供基于整合解決方案的服務,而且會不斷推出面向虛擬數據中心的新產品。

第3篇:數據中心存儲方案范文

為了應對海量數據和云服務,以互聯網公司為代表的大型數據中心正從標準化的OEM架構向自己設計的超大規模架構轉變,通過低成本、高效率的服務器,以及標準組件的裝配,使整個數據中心變成一臺超級計算機,以滿足低成本和高效率的規模運營需求。Tom Swinford說,從2009年開始,LSI一直保持與超大規模數據中心的密切合作,與他們共同改進和優化不斷演進的全新IT架構,而這些超大規模數據中心正是IT趨勢的引領者,因此,LSI愿意將這些領先的經驗和技術優勢與中國的企業分享。

LSI公司CTO辦公室高級技術專家Robert Ober認為,超大規模數據中心所帶來的硬件創新主要包括三方面:一是自動化的基礎設施,只有自動化、能夠自我管理,甚至能自我部署的數據中心基礎設施,才能支持業務快速擴展的需求;二是數據中心的高可靠性,超大規模數據中心與傳統數據中心不同的是,它允許某個系統和組件出現故障,但必須確保整個數據中心的可靠性;三是大數據所需的分布式系統基礎架構,其中存儲成為重要力量,“LSI的嵌入式HDD控制器、SAS HBA和RAID控制器都在這一發展演進過程中發揮著重要作用。”他說。

Tom Swinford介紹說,LSI在2009年啟動了“超大規模數據中心”合作計劃,并由此催生了LSI Nytro閃存應用加速產品,之后,LSI不斷與超大規模數據中心密切合作,美國前三大互聯網公司之一正在其IT基礎設施中使用Nytro的產品。他說,目前在他所領導的DCSG,RAID、加速、閃存是三大塊重要的產品,其閃存控制器已經用在了全線PCIe閃卡產品上,“在PCIe閃卡上配備的工程師數量已經超過了500多名”,足以看出LSI對這一領域的重視。據介紹,目前在PCIe閃存細分市場中,LSI的份額已經位居第二。

第4篇:數據中心存儲方案范文

多模光纖一直是企業系統網聯結構(ESCON )及其相關交換機網絡的選擇,而且大多數現代化SAN和LAN也采用了多模光纖。其他應用,例如光纖信道連接結構(FICON )可能被要求使用單模連接,而磁帶或磁盤存儲器可根據接口選擇光纖類型。SYSTIMAX LazrSPEED 激光優化多模光纖解決方案,其性能可提高到10Gb/s,傳輸距離達到550m。由此,減少了原先用來實現多模光纖上10Gb/s傳輸的昂貴的光電子設備數量,從而降低了企業的成本。對于需要靈活、可升級光纖信道的各種數據中心存儲配置而言,LazrSPEED是理想的解決方案,它尤其適合于使用冗余網絡拓撲以確保網絡連續性的第3級和第4級數據中心。

對于長距離傳輸或某些特定應用,例如FICON,單模光纖能以更高速率提供LAN解決方案。對于延長的主干網鏈接而言,單模光纖是多模光纖的完美補充。當多模光纖無法滿足距離要求時,可用單模解決方案作為替代。SYSTIMAX TeraSPEEDTM零水峰單模光纖解決方案通過降低由于1400nm區域水雜質造成的高損耗,提供使用范圍更廣的波段。隨著水峰的消除,從1260nm到1620nm整個波段都可使用。并且通過使用經濟實用的粗波分復用(CWDM)技術,可實現今后數據傳輸率的擴展和提供其他服務。

TeraSPEED或LazrSPEED光纖,當用于SYSTIMAX聯鎖鎧裝室內電纜時,能提供使用數年的堅固基礎結構。聯鎖鎧裝電纜加了一層電纜防護層,當布線穿過地板或架空電纜槽時十分有用。聯鎖鎧裝電纜的實施成本要比帶導管的電纜低,安裝時間只需一半,而且,只占用不到50%的路徑空間。

當數據中心需要快速配置或重新設置時,SYSTIMAX InstaPATCH Plus 系統無疑是不錯的選擇。它具有高密度、工廠端接、工廠測試、模塊化等特點,允許安裝者便捷、快速地連接系統部件,使用這種模塊式配線方法連接96芯光纖與傳統手段連接單芯光纖所花費的時間相同。該系統結合SYSTIMAX LazrSPEED多模光纖和TeraSPEED單模光纖技術,能支持目前各種較高需求的應用,同時允許現有技術方便地過渡到下一代。

為了滿足高性能數據中心的要求,InstaPATCH Plus系統還包括預端接硬件、預端接主干光纜、加強型MPO-LC/SC/ST光纖分支跳線和標準光纖跳線。它使用通用模塊、通用扇出與標準光纖跳線,保持了方便安裝及管理的優勢,同時能方便今后的升級。此外,InstaPATCH Plus系統具備改良的標簽系統。該系統以4種方向定位,準確且有邏輯,可在設計、安裝、應用方面提供更多的靈活性。

第5篇:數據中心存儲方案范文

DDN總裁兼聯合創始人Paul Bloch認為現在是個好時機,“DDN是內容存儲和云時代高可擴展存儲方案的先驅,在中國廣闊的云計算和高性能計算市場上,未來五年DDN將大有可為”。

金剛鉆與瓷器活

雖然在規模上與前三名相比還有很大差距,但Paul Bloch認為,DDN的特長在于技術。它能解決的問題,很多時候競爭對手還難以解決,尤其是在有高吞吐量、高實時性要求的應用領域,技術方面的領先優勢決定了DDN日后還將高速成長。

相比傳統數據庫應用中可預期的結構化數據增長,聲音、圖像、視頻這類非結構化數據的增長速度驚人,云計算、移動互聯網和物聯網更導致非結構化數據產生的過程將是“爆炸性”的。為了對數據進行智能化分析,相當一部分數據要被長期儲存以供靈活調用。“這類應用領域在DDN的市場范圍內。”Paul Bloch說,DDN提供的存儲系統正是以服務于超大數據量和高帶寬應用而著稱的。

的確,在HPC和內容核心存儲領域,DDN是當之無愧的明星供應商。去年底的HPC Top500榜單顯示,前十名中有八套系統采用了DDN存儲。“我們剛剛為中科院過程所安裝了一套存儲系統,DDN產品的讀寫性能是其他廠商的十倍;中央電視臺在2008年奧運會轉播以及電視、電影后期制作時,對很多產品都做了測試,最后選定了DDN。”

Paul Bloch介紹說,在美國,DDN的用戶有做核武器的,也有研究生命科學的,還包括很多如空中客車、波音、環球影城這樣的大公司。“我們的合作伙伴IBM、HP、DELL早已把DDN存儲帶往全球,為超算中心、云計算中心和一些企業級數據中心服務。”

DDN選擇在各地都與合作伙伴聯手。比如在中國的HPC市場,DDN與浪潮、曙光都有合作,在富媒體領域,索貝和大洋也都是DDN的合作對象。Paul Bloch對這幾年DDN在HPC、富媒體、政府數據安全,包括中國平安城市項目上的業務拓展非常滿意。

存儲云,我所欲也

在現有產品線中,DDN把產品分為優化應用、陣列平臺、文件存儲和云存儲四大類別,分別面向不同應用。

除了在硬件設計上占地小、耗電低之外,DDN更突出的優勢是技術專家以硬件平臺搭配不同的文件系統,并擁有眾多解決各類復雜應用存儲問題的成功案例。“它們幫助用戶優化系統,提供更高的價值。”Paul Bloch說。

常規產品的高性能為人稱道,在云存儲方面,DDN也是先行者。在云時代,存儲工程師必須要處理分布在各地數據中心的大量數據,并設計出能讓內容在多處實現同步的方案。而傳統存儲解決方案遭遇的挑戰,最主要的原因在于設計初衷就是用于單一位置部署。在云時代,舊機制導致傳統方案越來越不能滿足要求。在數據量提高到PB級時,內容分發的成本也顯得過于高昂。

第6篇:數據中心存儲方案范文

【關鍵詞】云計算;IaaS數據中心;網絡虛擬化;存儲虛擬化

【中圖分類號】G40-057 【文獻標識碼】A 【論文編號】1009-8097(2012)03-0099-05

引言

隨著的IT(Information Technology,信息技術)逐漸滲透到高校的教學、科研和辦公等核心業務,各類信息系統數量和存儲的數據越來越多,數據中心規模越來越大,學校對數據中心的可靠性、安全性、靈活性提出了更苛刻的要求,傳統的數據中心建設管理模式己無法滿足當前數字化校園的建設需求。服務器虛擬化以其高效、節能、高可用等諸多優點已經為人們所熟知,在高校校園網中服務器虛擬化的應用也越來越廣泛。許多高校在使用虛擬化技術改造或新建數據中心時,僅實現了服務器的虛擬化,對實現數據中心整體虛擬化及云計算技術在數據中心的研究和應用較少。服務器虛擬化提升了服務器硬件使用效率,但如果不能實現數據中心的整體虛擬化,虛擬機得不到存儲及網絡系統的支持,虛擬化技術提供的高可靠性、高可用性、靈活性等更有價值的功能將無法得到應用。本文分析了利用云計算、虛擬化和無狀態計算等技術對服務器、存儲、網絡和應用交付設備進行全面虛擬化整合的方法,并對關鍵技術的選擇進行了深入的探討。最后在徐州師范大學數據中心建設方案的基礎上,提出了一套基于云計算以實現數據中心計算服務化、資源虛擬化和管理智能化為建設目標的數據中心優化解決方案。

一、高校數據中心建設的現狀

不斷成熟的虛擬化技術正在幫助更多的高校數據中心減少服務器數量、優化資源配置并簡化管理,利用虛擬化和云計算技術可以實現動態IT基礎設施環境,進一步改善現有的架構和管理模式,得到了諸多高校的認可。但是目前多數高校僅實現了用虛擬服務器簡單代替物理服務器,而沒有把數據中心內的存儲、網絡及應用交付系統進行針對性調整,虛擬化技術提供的高可用性、高可靠性和資源動態分配等非常有應用價值的功無法實施,傳統數據中心普遍存在的業務連續性差、靈活性差、業務部署周期長、管理維護成本高和高負載應用(如每學期的集中選課)等問題依然沒有得到解決。

在數據中心僅對服務器進行虛擬化,而不對其它硬件資源進行針對性的調整,各類信息系統仍然無法與其使用的硬件資源徹底脫離關系。當應用系統使用的硬件資源性能無法滿足需要或出現故障時,信息系統的運行仍將受到影響。在利用云計算技術實現了存儲、網絡應用交付系統整體虛擬化的數據中心,所有的硬件資源都在一個統一管理、分配并具有彈性伸縮能力的資源池中,這可以為應用系統屏蔽底層硬件架構的復雜性,使應用系統與硬件資源徹底分離,系統使用的計算、存儲和網絡資源可以從數據中心的資源池中按需獲取,資源池中的設備出現故障時或系統需要更多的計算、網絡和存儲資源時,云計算管理平臺可自動從資源池中分配新的可用資源,從而保證業務的連續性和可用性。數據中心整體虛擬化基礎架構與服務器虛擬化架構比較如圖1所示。

在高校數據中心建設中可以通過云計算技術解決服務器虛擬化帶來的問題。云計算是通過整合、管理、調配分布在數據中心的各類資源,并以統一的界面向用戶提供安全可靠的數據存儲、網絡和計算能力。作為一種共享的網絡交付信息服務的模式,云計算的使用者看到的只有服務本身,而不用關心相關基礎設施的具體實現,利用云計算和虛擬化技術構建數據中心,對數據中心的服務器、存儲、網絡和應用交付系統進行整體虛擬化,使整個數據中心的運行實現高效、可靠、安全和高可用的同時,還可對硬件資源進行智能管理、靈活部署、動態調整和按需分配,最終實現IaaS(Infrastructureas a Service,基礎設施即服務)的目標。利用云計算技術可根本解決高校傳統數據中心普遍存在的多種問題,考核數據中心運維情況的TCO、服務器利用率、節能、穩定性、容災、可用性、安全性等指標,與傳統無虛擬化的數據中心和僅對服務器做了虛擬化的數據中心相比有明顯提升,根據[3]中調查數據,利用雷達圖對相關指示做了比較如圖2所示。

二、云計算數據中心的關鍵環節

建設云計算數據中心時,除了已被廣泛接受的虛擬化技術以外,資源池化、資源動態管理和資源動態擴展等技術是實現高校云計算數據中心的關鍵環節。本節將分析這些環節實現技術的特點及其在數據中心建設過程中的作用。

1.資源池化

資源池化是指通過虛擬化手段,將數據中心內的軟、硬件資源虛擬成一個大的“資源水池”,從而簡化硬件資源管理、調度難度,實現資源按需獲取和空閑資源自動釋放,是實現云計算數據中心的關鍵技術之一,也是實現云計算數據中心的基礎。云計算數據中心對虛擬化的要求不僅僅是將一臺服務器變成多臺這么簡單,它需要把數據中心的各類硬件資源虛擬并轉化為多個資源池,包括計算資源池、網絡資源池、存儲資源池、安全和應用交付池等。資源池化是云計算的一個典型特點,只有實現了資源的池化,才有可能實現資源的靈活分配。

實現資源池化可以使數據中心的硬件資源管理方式由管理離散的硬件更改為管理虛擬化的共享資源池,管理工作將變得更加簡單和高效,同時還可以提高硬件資源利用率并針對關鍵應用優先進行動態的資源分配。從資源池可以按應用系統需要分配出個性化的邏輯構造塊(包含計算、網絡、存儲和安全能力),根據應用系統需求這些從資源池中獲取的邏輯構造塊經過針對性調整,可提供修改化的服務級別或業務需求。實現資源池還有一個優勢就是可以實現業務的快速部署,將資源池中的資源動態的分配給應用程序。每個應用程序與。個vApp(Virtual Application,虛擬化應用程序)堆棧捆綁,而vApp配有應用程序需要的應用服務器、數據庫和服務器操作系統配置,這使得業務部署變得更加靈活、高效。

2.資源動態管理

資源動態管理可以簡化資源管理、調度難度,實現資源按需獲取和空閑資源快速釋放是云計算數據中心必須具備的能力。變更指定給應用系統負載的硬件資源或硬件資源離線維護時,負載需要在硬件資源之間進行轉移,這需要數據中心對資源池進行動態管理。如何智能化的分配、調整、回收資源池中的資源是云計算數據中心必須解決的問題。數據中心資源的動態管理可有效提高設備利用率和數據中心可用性、可靠性和靈活性。

數據中心資源池的管理和調度可以通過負載均衡設備及虛擬化軟件的DRS(Distributed Resources Scheduler,分布式

資源調度)、HA(VMware High Availability,高可用性)、FT(Fault Tolerance,系統容錯)等功能實現各類應用程序產生的負載在不同的硬件資源上動態移動,從而實現硬件資源的按需分配、動態調整和自動回收。通過多種資源管理技術的實施可以整合工作負載、提高利用率、減少單點故障、實現故障自動切換等功能,使各類應用系統不必再去關心硬件資源的分配及運行情況,應用系統面對的只是一臺虛擬機,虛擬機產生的數據流被靈活、均衡地分配到資源池中,從而實現了資源的動態管理。

3.動態擴展

現有資源池內的資源無法滿足應用系統的需求時,就需要數據中心的資源池可以在不中斷服務的情況下實現快速擴容。采用模塊化數據中心(Portable Optimized Datacenter.POD)的建設方式,在每個模塊里有支撐業務部署的計算、網絡、及存儲資源,這種方式實現了資源的高度整合,縮短了建設周期,避免了大型平臺建設中不必要的銜接問題。同時每個模塊具有獨立承載業務能力,提升了后期設備選型的靈活性。隨著技術的發展,IT行業越來越意識到把應用部署在單一支撐點的缺陷,云計算環境建議采用并行分布部署方式將業務加載到多個物理上完全獨立的模塊上,從而確保云環境下應用的高冗余及業務連續性。通過POD建設方式動態擴展資源池的過程如圖3所示。

三、關鍵設備和軟件的選型

本節將介紹各資源系統實現方法并給出一些高校在建設云計算數據中心時技術、設備選擇的建議。重點介紹計算系統、網絡系統、存儲系統和安全應用交付系統和云管理平臺的建設方法。

1.計算系統設計與實現

計算資源的虛擬化是通過服務器虛擬化軟件來實現的,關于服務器虛擬化軟件的選擇爭議并不大,在高校中應用最廣泛、最具有代表意義的服務器虛擬化軟件是VMware公司的vSphere,也有部分高校使用了少量的Hyper-V、XenServer和Virtuozzo。vSphere是目前唯一可供生產環境使用的虛擬化套件,與同類產品相比其整合比最高,優勢明顯。

在服務器的選擇上首先考慮的是設備的性能,系統最終能否支持海量用戶服務及時響應的需求是系統設計是否成功的關鍵。其次是系統結構應該具有伸縮能力,保證系統能夠在維持系統框架、追加少量備件或設備的前提下,滿足數年內學校業務增長的需要。徐州師范大學計算系統采用統一計算、一體化架構設計,計算能力主要由兩臺Cisco UCS 5108刀片服務器提供。UCS采用了Service Profile和無狀態計算概念,UCS中的所有服務器在沒被啟用前均可視為裸機,其物理特性已經不再重要。配置文件會自動尋找第一個可用的服務器,并和它關聯。當該服務器損壞,配置文件會自動尋找第二個可用服務器。由于配置文件中設置了服務器的物理參數,備用服務器也會獲取和原服務器一樣的物理參數,因此,無需在網絡和存儲設備上做任何重新設置,備用服務器就能具有原服務器所有物理特性,操作系統和應用還可以實現自動重啟,完全無需人工干預即實現了備機的自動上線。

高校公共數據平臺使用的數據庫產品多數是Oracle,因Oracle公司不建議將其產品部署于第三方公司的虛擬化平臺上,同時高校公共數據平臺是整個數字化校園的基礎,對硬件性能、可靠性、可用性要求都非常高。因此在徐州師范大學計算資源中還另外增加了兩臺IBM公司的Power 740小型機供數據庫系統使用,同時服務器負載均衡,這在提升了服務器處理能力的同時實現了雙機熱備,該方案整體性能可滿足學校公共數據平臺運轉需求。

2.網絡系統設計與實現

云計算數據中心網絡區別于傳統的數據中心網絡及校園網,網絡資源調用方式是面向云服務而不是面向復雜的物理底層設施進行設計的。通過網絡虛擬化可以把數據中心的網絡設備以一種與物理位置、物理存在和物理狀態無關的方式進行調用,這是云計算架構中IT資源池形成的關鍵環節。網絡虛擬化是實現網絡資源復用、降低管理維護復雜度、提高網絡設備利用率、保證全局服務策略一致性的關鍵,同時也是為自動化資源調用和配置打下基礎。

高校數據中心承載業務的應用特點決定了其網絡既要考慮傳統校園網絡接入,又要考慮數據中心網絡接入,因此在方案設計上采用超大規模數據中心交換機Cisco Nexus 7000作為核心,在性能上實現了網絡核心和數據中心匯聚交換機資源的共享和復用,解決了核心層數據量和數據中心數據量可能存在較大差異的問題。數據中心核心配備了兩臺10插槽Nexus 7000,通過虛擬交換技術以雙機冗余的方式部署在網絡核心。配置了1塊48端口1/10G板卡,通過選配不同的光纖模塊,可同時實現萬兆和千兆的接入。在網絡虛擬化方面,Nexus采用了VDC(VirtualDeviceContent,虛擬化數據中心)技術,可以將一臺物理交換機邏輯上模擬成多臺虛擬交換機,從而實現更加靈活的、與物理設備無關的跨平臺資源分配能力,為數據中心這種底層設施資源消耗型網絡提供更經濟高效的組網方式,也為管理和運營智能化、自動化創造了條件。

另外還可以通過改進虛機系統平臺內的軟交換機運行方式來提升虛擬化網絡的運行質量。Cisco與VMware聯合推出了一款內置于vSphere系統的分布式交換機Nexus 1000v,替代V/V1ware原有的vSwitch和分布式交換機。該交換機使得在一個集群內主機上的所有虛機可以看成連接在單一的一臺智能化交換機上,如圖4所示,它可實現無論虛機如何遷移,配置在虛擬交換機上的所有網絡策略都隨虛機遷移而自動跟隨,這在降低管理復雜性的同時提升了虛擬機的遷移速度。

3.存儲系統設計與實現

云計算采用分布式存儲的方式來存儲數據,在云計算數據中心對服務器穩定性的要求有所降低,但對存儲可靠性與性能要求大幅提高。存儲系統是數據中心的核心基礎,其性能的優劣、質量的好壞,對全局影響重大,因此如何保證數據中心的存儲系統能夠不斷地完善、發展,保持系統的實用性和技術的先進性是在整個數據中心建設方案中必須重點考慮的問題。在存儲系統平臺的選型上應充分考慮系統應用水平和處理數據量的大小,在云計算數據中心因虛擬化帶來的服務器密度增加,導致I/O(Input/Output,輸入輸出)成為系統性能瓶頸,因此需要根據實際情況重點考慮系統I/O性能。

云計算數據中心存儲系統建設基本原則是利用虛擬化技術和先進的大容量存儲設備,集中、智能管理所有存儲設備,形成存儲資源池。系統應能提供完善、便捷的備份恢復解決方案,保證數據的高可用性。EMC公司VNX存儲系統在以上幾個方面都有卓越的表現,并且和本方案的軟、硬件基礎架構有機結合,形成一個完善的軟硬件存儲系統虛擬化解決方案。徐州師范大學數據中心建設方案中,我們采用一臺EMC VNX5300存儲作為數據中心主存儲,配置兩個SAN(Storage

Area Network,存儲區域網絡)控制器,已提高系統的可靠性,配置一個NAS(network attached storage,網絡附加存儲)控制器以提高系統的靈活性。配置SAS硬盤,用于對I/O性能要求高的應用。為了降低成本,還配置了SAT硬盤用于存儲對容量要求高,但對性能不太敏感的數據。另外設計一臺EMC VNX5100存儲作為數據中心的容災存儲。存儲網絡通過FC(Fiber Chanel,光纖通道)和FCoE(Fibre Channel over Ethernet,以太網光纖通道)共存的方式實現,這樣不僅解決了新舊技術過渡問題,還減少了接入交換機類型、數量和復雜性,整合了網絡資源,提高了數據中心資源部署效率,降低了功耗。

4.安全應用交付系統設計與實現

虛擬化環境下虛擬機的數量及密度迅速膨脹,為了減少防毒過程中的資源消耗、簡化管理手段并加強虛擬機的透明性和安全性,我們在虛擬機安全產品上選擇的是Trend公司的Deep Security。該系統是一套保護服務器和應用程序的綜合安全系統,擁有無安全防護技術,該系統通過與VMware的控管中心整合,無需在虛擬機中安裝任何插件,即可實現對虛擬機的安全防護,這進一步減少了虛擬服務器的資源消耗,提升了計算資源工作的有效性。

虛擬化平臺本身具備部分對平臺內的計算資源、存儲資源的負載均衡能力,可以在運行期間持續監控群集內所有主機和虛擬機的CPU、內存資源的分布情況和使用情況,根據運行情況執行相應虛擬機遷移或提供遷移建議,從而保持計算資源的負載平衡。徐州師范大學數據中心建設中,輕負載通過創建基于VMware vSphere的主機DRS集群和存儲SDRS(Storage Distributed Resources Scheduler,分布式資源調度)集群實現管理。大型負載如選課、統一身份認證的負載分流由F5公司的本地流量管理設備BIG-IP LTM實現。該設備通過與vSphere的深度整合,維護方便,利用虛擬化環境軟件的自動遷移功能,可靠性也較高。

根據主流備份系統的搭建準則,徐州師范大學通過具有重復數據刪除功能的EMC Avama備份系統組建了統一的智能備份系統。通過新的數據備份技術,實現了在存儲系統中完成對所有數據的備份工作,備份工作不再基于數據所處的操作系統,這在大幅簡化數據備份工作難度的同時,提升了數據備份的效率。同時因備份工作不再通過服務器,從而節省了大量的計算和網絡資源,降低了數據中心的負載。Avama直接運行于VMware vSphere虛擬化平臺之上,無需其他操作系統支持。另外系統支持操作系統的快速恢復,且備份的操作系統可以靈活的恢復到不同的硬件服務器上。恢復數據時不需采用全備份疊加增量備份來恢復至指定的時間點,而是采用任意時間點恢復的方式。

5.云管理平臺

云管理平臺負責整個數據中心資源管理,是各資源池的管理和工作負載交付管理平臺,是實現IaaS的關鍵環節。云管理平臺應能針對不同的資源池,提供統一的云管理接口,以實現對本架構中的各資源池集中管理,包括資源管理、監控、配置、診斷、故障檢測、審核及統計數據收集等方面的管理。徐州師范大學云管理平臺是在vSphere為云計算系統提供的基礎設施架構的基礎上,通過第三方個性化開發軟件實現了與vSphere的對接。該平臺具有良好的跨平臺和功能擴展性,系統用戶通過Web界面就可以實現自助式申請和管理,系統管理員不再需要手工生成和配置用戶所要求的虛擬機,而是交由管理平臺自動完成。

6.數據中心拓撲

根據本文論述的建設思路及建設方法,在我校數據中心建設的基礎上結合云計算技術,完成了數據中心的整體方案設計及關鍵設備、軟件的選型工作。數據中心核心交換通過萬兆光纖實現了與校園網的冗余連接。通過POD的建設思路對學校原有硬件資源進行了整合,整個數據中心服務器、網絡、存儲和應用交付設備都實現了冗余和負載均衡,數據中心的拓撲關系如圖5所示。

第7篇:數據中心存儲方案范文

【關鍵詞】云數據中心 虛擬化 云計算 大數據處理 網上證券

云數據中心在證券行業的應用,目的就是利用云平臺技術及服務,將證券行業的傳統證券行情系統、證券資訊系統以及現在需要進行大數據計算處理的智能化行情系統、量化資訊系統等服務外包,讓專業的人做專業的事、讓券商更能專注于核新業務,并節約成本。

一、各券商的網上證券系統存在如下不足

(1)擴容周期較長:網上證券系統擴容周期一般取決于硬件設備進貨周期(大約為半個多月),時間較長。

(2)容量不能按需伸縮:網上證券行情、交易容量一旦部署完成,便基本固定,一般不能隨著行情的周期變化而隨意伸縮;互聯網線路(一般采取長年租用ISP運營商的線路)容量,也不可以隨意伸縮,其擴容周期受制于ISP運營商,一般也較長。

(3)設備資源浪費:服務器等設備資源不論網上證券在線客戶數多少以及CPU、內存等資源的利用率多少,一般均不可隨意變化;同時,硬件設備都有老化、使用周期,需要定期更換,費力費時還不節約費用,并逐年增加報廢設備。

(4)不能按所用計費:互聯網線路等也不可以按流量、按照行業4小時特色需求進行量化策略計費租用。

二、云數據中心提供的服務

云數據中心一般可以涵蓋IaaS(Infrastructure as a Service)、PaaS(Platform as a service)、SaaS(Software as a Service)三個層面的云計算整體解決方案服務能力,可提供基于虛擬化技術的軟硬件一體化的云計算、大數據處理等。

具體地講,虛擬主機、存儲、互聯網線路等可以為網上證券提供硬件設施方面的支持;虛擬化、云計算、大數據處理等可以為網上證券提供軟件方面的支持;安全管理、設備運維管理、7*24小時運維管理服務等可以為網上證券提供管理支持;所有這些,云數據中心可以為網上證券系統提供整體的基于云平臺的解決方案。同時,云數據中心提供的上述服務支持的計費方式可以量化,可根據實際資源使用情況提供靈活的計費模式。

三、問題的解決

通過網上證券系統在云數據中心的應用,目前存在的許多不足都可得以解決。首先,服務器、網絡設備、互聯網線路等資源可以得到更加合理的應用;按所用策略計費,可減少設備4小時外的空運行所造成的浪費;可減少公司硬件設備的定期更新等。其次,更重要的是,通過云數據中心的虛擬化技術的應用,可靈活、快速的進行容量伸縮,滿足券商在行情火爆時快速擴容、在行情低迷時縮減容量的要求。第三,通過云計算、大數據處理等的應用,可以為數據的挖掘分析提供更有力的技術工具。第四,云數據中心可提供專業的安全保障。第五,云數據中心可提供量化的計費模式,做到資源可量化收費,讓券商能有效減少資源(硬件、線路等)的浪費。第六,通過云數據中心的日常專業運維,可減輕券商的日常運維管理壓力。

四、云安全問題及解決辦法

網上證券系統在云數據中心的應用,與傳統應用一樣,一般存在如下安全問題:云數據中心自身安全。主要是云數據中心自身的管理安全和機房安全、設備安全等。網絡接入安全。對證券投資者的接入云數據中心的接入認證、黑客攻擊、病毒、DDOS攻擊等的安全防護。數據安全。云數據中心接入層的日志信息、落地信息的安全保密,以及應用數據、實時數據、歷史數據等的安全保密,客戶信息安全保密等。應用安全。云數據中心的券商應用系統對接云計算、大數據處理應用所產生的數據、算法等的保密和安全保障。實時監控。包括云服務器CPU、內存、磁盤空間等虛擬主機性能及網絡設備等資源使用效率的監控,以及互聯網帶寬、網絡的流量監控,以及病毒、網絡攻擊等安全監控,以及操作系統、應用系統的應用監控等。

解決辦法:

首先,要按照國家、行業的法律法規來約束云數據中心的行為和技術管理,需要云數據中心的承諾和技術保證,如簽署安全合同以及網絡物理隔離等;其次,云數據中心的網絡接入安全應至少做到傳統技術安全措施:采用防火墻技術措施保證不被非法訪問,使用殺病毒軟件保證云數據中心服務器及網絡設備不被感染,用入侵檢測和防御設備防止黑客的入侵等;第三,券商應慎重考慮、平衡需要在云數據中心存儲、落地的數據,在云數據中心存放、落地的數據應加密,應盡可能減少重要數據的落地,應用數據應加密傳輸,同時注重敏感數據的及時清理和銷毀;第四,應對傳統券商交易系統接入層進行適當加固,在技術上,既要應用云計算及大數據處理技術,還要增強敏感數據的安全保密,同時盡可能的減少敏感數據的落地和被竊取;第五,加強監控,券商應自行進行安全監控、資源監控、應用監控等。

五、應用展望

第8篇:數據中心存儲方案范文

高效仍是最大挑戰

在IBM全球科技服務部舉辦的2012 IBM智慧云數據中心高峰論壇上,IBM了該報告。報告顯示,能效仍然是全球數據中心面臨的重要挑戰。只有21%的被調查的全球企業及組織機構的數據中心處于最高效的戰略型數據中心水平,62%的被調查者僅具有中等效率,而17%的數據中心處于運行效率非常低的基礎水平。

從調查數據中我們發現,中國企業的數據中心展現出與眾不同的高效性,高效數據中心所占比例高達64%,是美國高效數據中心比例的兩倍以上,更遠遠高于法國、加拿大、印度、巴西等發達國家和發展中國家的水平。這與中國的很多數據中心都為近年來所建不無關系。

在采用新技術方面,調查顯示,與低效數據中心相比,高效的數據中心會將超過 50%的資金投入到新項目及創新中,而不是用于維護已有的IT系統。而低效的數據中心在新項目方面的投入只占其總預算的35%,相反,他們會把65%的資金用于維護其現有的基礎架構上。從對新技術的接受意愿來看,68%的受訪人表示會積極應用新技術,甚至會成為新技術的首批使用者,并希望通過這種方式抓住新的發展機遇以獲得成長。

高效數據中心四大特征

通過調研,IBM總結出高效數據中心的四大特點,這四點也成為企業打造自身高效數據中心的重要途徑。

第一,優化IT設施,實現存儲容量和可用性的最大化。虛擬化是數據中心能力改善的先決條件,事實上一旦數據中心達到高效的戰略型數據中心階段,它們將會實現服務器、存儲和網絡環境的高水平虛擬化,并且在軟件和自動化工具的應用方面獲得發展。調查顯示,在高效的戰略型數據中心中48%的服務器實現了虛擬化,而處于基礎水平的數據中心的虛擬化率僅為27%;戰略型數據中心存儲虛擬化率達到了93%,而基礎數據中心僅為21%。在服務器與存儲優化方面,中國高效數據中心應用比例比全球高出10個百分點。但中國的基礎數據中心中采用服務器與存儲優化的比例卻只有10%,明顯低于全球平均水平。

第二,實施靈活性設計以支持不斷變化的業務需求。在服務器、存儲、網絡和管理規劃時應用更加靈活的設計,將解決安全威脅和服務中斷等問題。調查顯示,90%的戰略型數據中心擁有雙活配置,基礎數據中心擁有該配置的比例則僅為10%。戰略型數據中心可以通過采用雙活配置提供最佳的可用性以滿足業務需求,從而在發生故障的情況下實現故障切換。47%的戰略型數據中心可以無需中斷運行便可升級機械和電氣設備,相比之下基礎數據中心的這一比例則僅為9%。同時,高效的戰略型數據中心在災難備份等方面也具有比基礎數據中心更加完備的設計與機制。調研顯示,中國處于不同效率水平的數據中心在網絡靈活性方面都低于全球同類型數據中心的平均水平10至20個百分點。由此可見,中國數據中心的網絡靈活性需提升。

第三,利用自動化工具提高服務水平和可用性。引進更高水平的自動化可以實現更大程度的靈活性,有助于支持更高水平的可用性,依靠自動化工具和新技術可以提升系統可靠性,并通過減少系統管理員的工作量來降低出錯率,確保應用性能滿足其服務水平協議SLA的要求。調查顯示,在服務器管理方面,100%的戰略型數據中心利用自動化工具管理他們的服務器環境,還有58%的戰略型數據中心會利用自動化工具來遷移虛擬機,而無需人工介入,但基礎數據中心的這一比例為1%。在存儲管理方面,87%的戰略型數據中心利用存儲服務目錄方法,實現了更高水平的可用性和自動化,與此相比基礎數據中心這一比例僅為3%。在網絡管理方面,30%的戰略型數據中心利用策略管理流程來自動分配網絡服務,而基礎數據中心應用這一工具的比例僅為3%。

無論是在存儲管理或服務器管理方面,中國數據中心中應用自動化工具的比例都比全球平均水平高10個百分點。但在網絡管理的自動化工具應用方面,中國數據中心低于世界平均水平20個百分點。

第四,制定規劃保證與業務目標的一致性。由于面對外部市場環境與企業內部的快速變化,企業迫切需要利用有效規劃實現對復雜變化的應對,這主要包括技術規劃、管理與IT規劃以及對利用IT外包的規劃。

在制定技術規劃方面,戰略型數據中心表現更加積極。調查顯示62%的戰略型數據中心表示會在未來12~23個月內進行技術更新,而基礎數據中心中具有這一規劃的比例是27%。在管理與IT規劃方面,戰略型數據中心對外部環境變化具有更加充分的準備,他們在電力與空間預測、整體擴建方面都有更高的前瞻性。在IT外包方面,擁有戰略型數據中心的組織更了解如何充分利用外部資源以實現高效的IT管理與運營。在戰略型數據中心中,完全依賴自身內部進行IT運營與管理的比例為64%,而在基礎數據中心中,這一比例高達80%。

參與調查的中國數據中心在融合基礎設施、技術更新與新技術應用方面都表現的更加積極,表示會采取上述措施的數據中心比例比全球平均水平高10個百分點。

領先技術

第9篇:數據中心存儲方案范文

關鍵詞:云計算 數據中心 虛擬化 存儲;VMware

中圖分類號:TP333.96 文獻標識碼:A 文章編號:1007-9416(2012)09-0213-02

加強優質教育資源和信息化學習環境建設,推進信息技術與教育教學資源的全面深度融合,加快提升教育信息化整體水平,是教育理念和教學模式的深刻變革,是促進教育公平、提高教育質量的有效手段;是實現終身教育、構建學習型社會的必由之路。是實現教育現代化、建設學習型社會和人力資源強國的堅實支撐。信息技術進入到了新的發展應用高峰期,網絡應用新技術也不斷涌現和成熟:云計算等正在改變著信息化生態環境,信息系統的開放共享正在成為常態,開放系統用開放性換來了規模效應、數據積累和用戶集聚;硬基礎設施建設逐步發展為軟基礎設施建設。云計算伴隨著網絡的發展呈現日新月異的發展。

云計算是一種新型的計算模式,能夠把基礎設施資源、應用系統作為服務,通過互聯網提供給用戶。云計算同時也是一種新的基礎架構管理方法,能夠把大量的、高度虛擬化的資源管理起來,組成一個龐大的資源池,以服務方式進行管理。基于云計算的特點,支持云服務對數據中心基礎設施的需求,解決傳統數據中心的一些不足。同時,通過采用新的技術,持續進行數據中心的優化,將校園數據中心建成一個可信賴的云數據中心。

我單位通過前期調研與測試,決定啟動基于云計算的數據中心項目的建設。利用全新的網絡、存儲和虛擬化技術,將數據、存儲和服務器整合至一個通用、統一、高效、可靠的環境中,大幅簡化和集成原來的服務器和存儲SAN和NAS架構,把大量的、高度虛擬化的資源管理起來,組成一個龐大的資源池,以服務方式進行管理。采用VCE(Virtual computing environment,虛擬計算環境)構建新一代教育云數據中心,利用思科的統一計算系統(UCS)、EMC集中存儲解決方案和VMware虛擬化技術,將各個分散的系統平臺、各個部門的資源,統一集中在學校數據中心虛擬計算環境中,由校園網絡中心按照統一規劃、分步實施、優化資源、集中管理、面向需求、加強應用的建設原則,確保充分而高效地使用教學資源。

1、數據中心計算池

配置8個兩路計算節點模塊,每節點配置2顆Intel至強E7-2860十核CPU;配置DD3內存128GB,內存擴展槽位≥12個,最大可擴容至256GB;配置2端口10GB FCoE接口。

2、數據中心統一交換網絡

配置兩臺統一交換機作為計算節點、存儲、網絡的紐帶,整合計算、網絡、存儲接入與虛擬化。萬兆以太網接口數≥20,支持FCoE,8G FC接口≥6,吞吐量≥500Gbps,轉發能力≥350Mpps;每臺交換實配4個萬兆模塊連接刀片機箱,2個萬兆模塊連接校園網核心交換機,2個8G FC模塊連接SAN網絡。

3、數據中心SAN存儲網絡

采用兩臺8Gb光纖通道交換機部署高速可靠的數據中心SAN網絡,單臺實配有效端口16個,并配置16個8Gb短波模塊。

4、分布式虛擬交換機

數據中心分布式虛擬交換機,可運行VMware vSphere、Microsoft Hypere-V平臺,配置不少于16個CPU的許可。該虛擬交換機在虛擬環境下支持策略移動,接口的配置可以隨著vMotion的移動進行移動。

5、數據中心存儲池

配置兩個存儲控制器實現冗余,要求緩存采用掉電保護技術,意外斷電時能夠將緩存中的數據寫入硬盤,保證長時間停電情況下緩存數據永不丟失。配置8個8Gb光纖通道接口,配置兩個NAS控制器,采用Intel四核處理器,主頻≥2.1GHz;配置≥24GB內存,采用NAS專用操作系統(非windows storage系統),每個控制器配置2個10Gb端口。操作系統支持:Windows、Linux、AIX、Solaris、HP-UX、VMware ESX等。磁盤接口≥4個6Gb四通道SAS磁盤接口,最大可擴展硬盤數量不少于250個, 支持RAID 0,1,1/0,3,5,6等多種RAID類型;配置600G、15000轉SAS硬盤18個,2TB NL-SAS磁盤45個,100G企業級閃盤5個,總存儲容量達到100T。

6、虛機與鏈路負載均衡

提供一套負載均衡設備,可以實現對出口鏈路的負載均衡,支持多條鏈路的智能選路功能,支持所有基于TCP/IP協議的服務器負載均衡;支持最小連接數、輪詢、比例、最快響應、哈希、預測、觀察、動態比例等負載均衡算法。

7、專用云管理平臺

提供本地及遠程方式下對體系架構中的硬件及軟件的訪問、資產管理、配置、診斷、監控、故障檢測、審核及統計數據收集工作等(如圖1)。

該系統在一個萬兆以太網統一陣列中集成了企業級服務器,提供了虛擬機和虛擬化軟件所需的I/O帶寬和功能。思科擴展內存技術為高度虛擬化所需要的大內存提供了一種極為經濟的配置方法。思科統一計算系統(UCS)將網絡訪問層集成為一個能輕松管理的實體,在此實體中,能像物理鏈路一樣配置、管理和移動虛擬機鏈路。該系統繼承了思科長期以來的優秀創新傳統,在架構、技術、合作關系和服務方面都進行了出色的創新。

經過云計算數據中心建設、運行、測試、使用后,得出如下結論:(1)云計算環境下數據中心的資源是高度虛擬化的,需要對資源進行動態部署,全面完備的云管理平臺對校園軟硬件資源合理配置,解決了資源管理與配置問題,同時通過整合網絡資源,為實現數字化校園提供了良好的運行環境。(2)在云計算環境下,應用程序與組件是多對多的依賴關系。一個應用程序出了故障,很難很快地準確定位是哪一個組件出現了問題。因此,問題故障的定位是云計算環境下數據中心管理的一大挑戰。(3)云計算時代的IT資源是通過網絡以服務的形式提供給用戶的,通過實現云數據中心的建設,服務質量通過實際使用一臺新服務器資源的添加能在幾分鐘內完成。(4)云安全帶來的安全問題比以往更為突出,通過雙活或多活云計算數據中心架構,可以很輕松地實現跨數據中心的應用在線移動、無宕機的數據中心維護、數據中心自然災害避免、遷移關鍵應用至另一數據中心。(5)云時代的數據中心,資源全部池化,服務平臺化、自動化,在建設云數據中心的過程中,建設成本可能比傳統的建設成本要高,但從長期的運行管理和應用綜合因素考慮,要比傳統的數據中心應用方便、部署快捷、管理智能化、應用效率高、節約電力資源、節約機房空間。(6)基于云計算技術的校園數據中心運行環境促進了數字校園的建設和應用,利用數據中心的高度虛擬化,將各系統整合到統一的平臺中集中管理,實現統一身份認證、統一信息門戶、統一數據交換和共享數據庫。

云計算數據中心帶來了眾多優勢,可以實現15:1以上的整合率,同時通過管理自動化為關鍵業務應用程序動態分配資源,從而提高效益。但同時它也向數據中心提出了挑戰。如果有統一的I/O配置和足夠的帶寬,在每臺物理服務器上支持大量VM,則資源池的管理會較為容易。資源池將能更快速地應對迅速變化的業務情況和工作負載,新服務器資源的添加能在幾分鐘內完成,然后設置并投入使用,而無需準備服務器接口、固件和設置。通過平衡CPU處理能力和經濟高效的內存配置,提高虛擬機密度,就能夠更輕松地實現服務器虛擬化的經濟優勢。最后,在統一了網絡接入層,并以相同方式對待虛擬機鏈路與物理服務器鏈路時,能夠更高效、更安全地管理虛擬環境,并獲得更出色的服務質量。

參考文獻

[1] 沈立強.云時代的校園數據中心.中國教育網絡,2012(6):20-21.

主站蜘蛛池模板: 中文字幕亚洲一区二区v@在线 | 久久老司机波多野结衣 | 黄在线观看网站 | 91原创在线 | 一级在线免费视频 | 亚洲 欧美 激情 另类 校园 | 欧美性生交大片免费看 | 久色国产| 18免费视频 | 欧美激情精品久久久久久久久久 | 亚洲精品色综合色在线观看 | 国产三级精品久久三级国专区 | 又黄又刺激下面流水的视频 | 国产综合在线播放 | 91精品手机国产在线能 | 久久亚洲国产精品 | 欧美啊v在线观看 | 久久久久香蕉视频 | 在线欧美精品一区二区三区 | 国产午夜免费福利红片 | 中国一级毛片欧美一级毛片 | 九九全国免费视频 | 可以免费观看欧美一级毛片 | 亚洲欧洲日产国码二区在线 | 真实国产精品视频国产网 | 成人在线手机视频 | 欧美一区二区三区在观看 | 久9精品视频 | 成人高清无遮挡免费视频软件 | 久久不射网 | 19+韩国主播青草vip视频 | 波野多结衣在线观看 | 久久久精品久久视频只有精品 | 九九精品视频在线观看 | 成人亲子乱子伦视频 | 二区三区在线观看 | 国产一区二区三区不卡免费观看 | 97青草香蕉依人在线播放 | 国产美女一级毛片 | 高清毛片aaaaaaaaa片 | 中文国产成人精品久久无广告 |