前言:一篇好文章的誕生,需要你不斷地搜集資料、整理思路,本站小編為你收集了豐富的高性能計算主題范文,僅供參考,歡迎閱讀并收藏。
軟件成焦點
“高性能計算面臨的挑戰,不在計算機本身,而是在應用和軟件上。” 中科院網絡信息中心超級計算中心主任遲學斌如是說。只有當計算機硬件、軟件和自然科學領域的應用完美結合起來,才能將高性能計算的功效發揮到極致。
硬件技術的快速發展促進超級計算走向高端計算,軟件技術的緩慢發展則阻止了高端計算走向應用。用戶并行編程能力還有待提高,并行編程要達到良好的可編程性,必須解決結構性、通用性和可移植性問題。
中科院軟件所并行計算研究中心副主任張云泉強調:“程序設計語言要跟上機器的發展,處理器增加以后,可靠性問題凸顯,除了硬件,在程序設計上也要考慮可靠性。”
系統功耗過大是障礙
“500萬~600萬元的高性能計算機系統,一年下來的電費就要60萬~70萬元,真快成買得起用不起了。” 清華大學高性能計算機中心主任鄭緯民提出了功耗這一嚴峻的問題。這不僅是對硬件制造商的挑戰,也對軟件設計人員編制低功耗運行代碼提出了更高的要求。合理處理好這一問題,就能把挑戰變成商機。
深化行業應用是關鍵
來自氣象、石油、航空等領域的專家也暢談了自己在應用方面的需求。“預計到2010年,氣象方面的需求將達到千萬億次。” 國家氣象局高性能計算機室高工洪文董介紹。中國氣象局的高性能科學計算環境為大氣科學及相關領域的科學研究、計劃和業務提供科學計算、數據管理的資源平臺。目前,中國氣象局高性能計算機應用中心擁有以神威Ⅰ系統、神威新世紀集群系統、IBM SP系統、IBM高性能計算機為代表的一批國內一流的高性能計算資源。洪文董說:“硬件是一流的,但是用戶關心的是軟件應用,如何能夠讓設備的運行效率最高,這才是關鍵問題。另一個問題就是如何改造現有程序以適應多核并行應用。”
中石化集團公司信息管理部吳正宏教授也詳細闡述了高性能計算在分子模擬、流程模擬等方面的應用。“以前用15年才能算出地下是什么情況,現在已經縮短到用小時計算了。”在提到高性能計算軟件的時候,吳正宏教授道出了自己的憂慮:“國產的軟件還不成規模,區域適應性較差,但在使用國外軟件時面臨兩大問題:首先是價格昂貴,其次是應用受限。在投標國際性的大項目時,有的國外廠商會限制軟件使用范圍,使競爭力被很大削弱。”
如何深化高性能計算在行業中的應用,由誰來開發并行計算軟件,成了這次會議的一個熱點話題。中科院軟件所并行計算研究中心副主任張云泉提到了計算科學的概念,這一專業培養的人才本身具有較好的數學和計算機基礎,畢業后具有從事科學研究、解決實際問題及設計開發有關軟件的能力。而目前我國一些院校已經開設了相關專業,面向特定行業招收特定的學員。只是目前還比較匱乏。但毫無疑問,計算科學是解決和學科建設相關的復合型人材問題的關鍵。
并行時代將到來
在國內,高性能計算不僅在石油、氣象、生物、科研、國防等科學工程計算領域扮演著重要的角色,而且在教育、商業、企業、政府等信息服務領域也得到越來越廣泛的應用。據IDC預測,到2008年,全球高性能計算機的市場容量將達到76億美元。
高性能計算領域的“皓龍現象”值得我們關注,本文試圖從架構、能效和高性能計算的未來發展趨勢等幾個方面,管窺皓龍迅速崛起高性能計算領域背后的秘密。
AMD64技術開創64位計算時代
AMD于2003年推出的皓龍處理器基于AMD64技術,將x86計算帶入了64位時代。AMD64技術具有獨特的直連架構,在芯片上集成內存控制器,通過超傳輸總線技術,實現處理器和I/O以及內存之間的高速互連,消除了傳統前端總線的固有瓶頸,大大提高了系統的總體性能和效率。另外,AMD64技術還通過集成增強病毒防護技術(EVP)提高用戶計算環境的安全性。
作為業內首款將 32位 及 64 位計算結合在一起的高效架構,AMD64技術在支持64位計算的同時兼容32位計算。對于大量運行32位應用的企業用戶而言,可以在兼容現有32位軟件應用的同時,為將來隨時升級到64位做好準備,保障了其既有投資。
創新架構突破傳統系統瓶頸
AMD皓龍處理器性能卓越,這首先要歸功于AMD獨創的直連架構。很多業內人士都把直連架構視為x86處理器領域最重要的技術創新之一。通過將內存控制器內置入處理器和采用高速串行超傳輸技術(HyperTransport),直連架構使得處理器與芯片組、處理器與內存、處理器與處理器之間都可通過超傳輸總線相連,大大提高了效率,避免了前端總線架構中多個組件共用一條總線造成的帶寬爭搶“內耗”,實現了處理器與其他組件之間的快速響應,最大限度降低了內存延遲。
AMD皓龍處理器的直連架構
超傳輸總線的發展歷程
這種架構的點對點高速傳輸特性讓服務器擴展處理器數量時的性能損耗和難度大幅降低,而其出色的帶寬則讓基于皓龍的服務器在運行企業級數據密集型任務時表現更為流暢。 由于AMD皓龍內置內存控制器,無需通過北橋芯片來訪問內存,處理器降低了系統功耗,提高了穩定性,因此在密集空間中可以部署基于大量AMD 皓龍處理器的超級計算機。
超傳輸總線(HT)搭建多核時代的高速公路
超傳輸總線(HyperTransport)技術是AMD所獨有的新一代芯片互聯總線技術,旨在提高電腦、服務器、嵌入式系統,以及網絡和電信設備的集成電路之間的通信速度。通過減少系統中的布線數量,減少系統瓶頸,CPU到CPU間的雙向帶寬可達6.4GB/秒,多至三條16-bit的超傳輸總線可帶來19.2GB/秒的傳輸帶寬,這消除了所有總線瓶頸問題,令CPU更加有效地在高端多處理器系統中使用系統內存。直連架構和超傳輸總線技術的完美結合,使基于AMD處理器的系統平臺在向未來多核計算擴展時更加靈活和簡單。
2006年,頻率更高,資源配置更靈活的HyperTransport3.0版本問世。HyperTransport3.0將工作頻率從HyperTransport2.0最高的1.4GHz猛增到2.6GHz,提升幅度幾乎達到一倍,同時還提供了32bit位寬,在高頻率(2.6GHz)、高位寬(32bit)的運行模式下,它可以提供高達41.6GB/s的總線帶寬,足以應付未來3年內顯卡和處理器對系統帶寬的需求。
為了加速HyperTransport3.0技術在超級計算系統中的擴展應用,AMD還推出了第一個超傳輸總線的擴展接口規范HTX。基于HTX接口,超級計算機的系統制造商所添加的協處理器可以通過超傳輸總線與AMD皓龍處理器相連,從而顯著提升超級計算系統在特定應用上的計算能力。
真四核皓龍蓄勢待發
繼2005年率先在x86架構服務器中引入真雙核技術后,AMD將在2007年中期推出代號為“巴塞羅那”的四核處理器,據稱是業界首個真正的四核架構,即在同一硅片上整合四顆處理核心。AMD的真四核處理器采用65nm 絕緣硅(SOI)生產工藝、新增可擴展的共享三級緩存、128 位 的FPU(浮點運算單元)。AMD四核處理器的每個核心都具備“改進的分支預測”能力,可以在每個時鐘周期循環內完成兩個128-bit載入、執行最多四個雙精度浮點操作,以及兩個128-bit的SSE數據流,并支持SSE指令集擴展。
AMD實驗室的模擬測試表明,AMD四核皓龍處理器在性能上得到了大幅度的提升,與現有的AMD雙核皓龍處理器相比,四核皓龍在應用某些數據庫軟件時,性能提升高達70%。
除了性能上的提升,AMD四核皓龍處理器還采用了“獨立核心動態調用”(DICE)的四核心電源管理技術。DICE不僅會根據系統負載智能分配各核心需要執行的任務,還可以在處理器核心處于空閑狀態時將其轉入完全休眠狀態,從而大幅降低了功耗。與雙核皓龍相比,AMD四核皓龍功耗相同,從而進一步提高了皓龍的每瓦性能優勢。
開放架構 順應未來超級計算發展趨勢
目前,超級計算多應用于軍事、醫藥、氣象、生物研究等專門領域,全球超級計算系統中除了部分由大量通用計算機形成的超級計算集群外,大部分超級計算機都是針對某些特殊應用而研發的的專用超級計算機,比如排名全球TOP500第二名由Cray公司研制的“紅色風暴”就是為專用計算而設計的。為了能夠進一步提高專用高性能計算機系統的性能,AMD在2006年11月推出了全球首款可滿足高性能計算特殊需求的專用流處理器AMD Stream ProcessorTM。這款處理器專為工作站和服務器等純計算系統而設計,采用被稱為 CTMTM(Close To Metal)的 AMD 新型瘦硬件接口,能夠顯著提高在金融分析、地震偏移分析、生命科學研究和其它應用領域的計算性能。
隨著能源需求不斷增加,全球易開采油田開始枯竭,根據《華爾街日報》報道,即便是石油儲藏富國――沙特阿拉伯,也開始轉向開采難度更大的重油資源。可見,對于油氣資源相對匱乏的中國,如何找到更多的油氣資源,相比于是否易于開采則顯得更加迫切了。
計算能力直線飆升
賴能和也來自中國石油東方物探公司,和“280隊”不同的是,他來自公司研究院處理中心。作為總工程師,他也擔負著一項同樣重要和辛苦的工作――地震波數據處理。現階段最流行、最精準的油氣勘探法就是地震波法,其主要原理就是通過人工地震波,采集傳入地下深處的不同形態巖層形成的反射波,轉變為數據,并通過計算處理模擬勘探區域地下的地質構造。這樣便可以精確地找到存有石油或天然氣的巖層精確位置。由于地震波法勘探收集的數據通常都以TB計,在海洋勘探過程中收集到的數據容量更是會突破PB級,要處理這些海量的數據,必須依靠高性能計算。
賴能和告訴記者,目前他所在的處理中心的運算能力達到528萬億次/秒,比2010年增加了近200多萬億次/秒,其背后的原因就是數據計算量的直線增加。
“以深度偏移數據處理為例,從2008年占所有數據的7%,到2009年的14%、2010年的30%,今年更是已經超過了60%,可見計算量增加了很多。再就是隨著‘逆時偏移’這樣的新算法的增加,它需要更加強大的計算能力做支撐。以目前處理中心計算能力而言,還遠遠不夠。”賴能和說。
中國石油大慶油田公司勘探開發研究院總工程師張鐵剛也向記者表示,大慶油田在三維地震高分辨率地震勘探、大規模油藏計算等油田整體優化的開發和規劃方面也都在加大對高性能計算的應用。
“未來,隨著巖性油氣藏勘探、多波多分量地震數據處理解釋、精細油藏描述、剩余油分布研究等工作的深入,大慶油田高性能計算方面的工作將不斷深入。”張鐵鋼說,“近兩年來,在英特爾的支持下,包括基于最新至強E7平臺的樣機都在我們那里進行了測試,例如多學科協同地震解釋等測試。在這個過程中,我們獲益匪淺。隨著需要分析的區塊越來越大,數據密度也越來越高,這些數據如何來解釋、如何以此提出有價值的地質信息,必須進行地震解釋和地震屬性的計算以及三維可視化解釋,這都需要強大的高性能計算設備來支持。”
集裝箱數據中心大有作為
由于在靈活性、高密度等方面的優勢,集裝箱數據中心越來越受到各方關注。但是往往是觀望的多、談論的多,真正應用的少。不過在石油物探領域,已經有了第一個“吃螃蟹”的人。
來自中國石油川慶鉆探工程公司地球物理勘探公司(下稱川慶物探)的消息,他們已經在實際勘探工作中引入了一套IBM集裝箱式數據中心。
川慶物探湯成兵告訴記者,近幾年來,按照西南油氣分公司對油氣勘探的要求,川慶物探公司所服務的項目,難度越來越大、項目周期越來越短。為了更好地服務油氣勘探,川慶物探公司推進了地震資料采集處理解釋一體化的工作,靠前處理解釋分中心便是一體化過程的較好體現。經過兩年的分析調研,川慶物探最終采用了集裝箱式數據中心。
“這個數據中心采用20英尺鋼結構貨柜為載體,采用高密度機房設計,包含252枚六核至強5650處理器的計算集群,PUE值達到了1.2,處理能力達到了3000平方公里的三維常規地震資料處理。”湯成兵介紹說。
結合到東方物探公司的實際情況,賴能和也認為如果性價比合適的話,集裝箱式的處理中心,對于靠前數據處理是一個很好的應用。“過去有些現場計算項目,就搬了幾臺機器在酒店里租了房子,數據計算結束后設備再搬回總部,實際上成本也是挺高的。對我們下一步的應用,從環保、節能、安全上來說,集裝箱式的處理中心還是有一定的應用前景的。”
平衡計算 應用為本
在東方物探,每年用在數據處理上的電費已經達到了2600萬元,雖然采用了各種節能降耗的手段,每年節省200余萬元,但是電費高居不下,仍舊讓賴能和不敢掉以輕心。為了增加計算能力,東方物探在2011年添置了100多套GPU系統,但是隨之而來的噪音問題,讓東方物探有些吃不消。“由于密度比較大,由GPU散熱風扇帶來的噪音非常大,跟飛機場的噪音差不多。”賴能和說。
能耗、噪音這些問題,已經成為提高計算能力之外,高性能應用必須面對的話題。英特爾公司亞太區高性能計算解決方案架構師David Scott博士表示,石油行業用戶要讓自己的高性能計算機在處理勘探數據時發揮最大效用,就必須從更高的層面考慮,構建一個計算、存儲和網格組件之間性能保持平衡、彼此配合“融洽”,具備性能、高能效、易管理的高性能計算數據中心,這樣才能獲得最高的業務執行效率和最佳的投資回報。
在這一理念下,英特爾認為整個數據中心的IT設備就相當于一個智能的大腦,擔負計算任務的服務器就如同其專門判斷和處理信息的神經元;存儲設備則是可以收納海量信息,并隨時準備接受訪問和更新的記憶細胞,而網絡就是連通所有這些神經元和記憶細胞的神經連接,惟有三者在性能和功能上盡量實現平衡,才能實現最無縫的配合,以及1+1+1>3的應用效果。
英特爾這種從應用出發、平衡計算的理念,也得到了石油行業用戶的回應。“在引進地震處理計算集群以后,包括引進了用于油藏數值模擬的集群以后,英特爾一直和我們一起進行性能優化測試,利用英特爾的性能分析工具,幫助我們優化分析軟件系統,指導系統優化配置和調整。這些都為提高我們地震處理、數模計算的能力帶來了很大的幫助和支持。”張鐵剛說。
浪潮集團高性能服務器產品部總經理劉軍也認為,高性能計算系統峰值性能已經不是衡量高性能計算水平的根本尺度。只有高性能計算與行業應用深入結合,充分匹配和滿足應用計算需求,才能體現出高性能計算產品不僅“好用”,還能“用好”。劉軍介紹說:“浪潮為服務好用戶應用創新專門成立了一支應用軟件開發團隊,近年來在石油領域開展了卓有成效的應用開發和優化工作。浪潮圍繞行業應用需求進行了多項產品技術創新,包括國產32路大內存cc-NUMA高端服務器、8路胖節點、PB級海量存儲系統、千萬億次超級計算機、基于國產處理器的全國產服務器等。”
鏈接
集成眾核架構引領行業走向百億億次計算時代
通用圖形處理器(GPGPU)加速的方式在高性能計算領域應用的趨勢越來越明顯。與此同時,英特爾也在不斷加速對于高性能并行計算專用加速技術的研究與開發。
與其他IT廠商提供的類似產品或解決方案相比,英特爾集成眾核(MIC)架構由于采用了已被業界廣泛接受和應用的IA架構,因此其相關應用的開發和優化也沿用了用戶們熟悉的編程模型和編程環境,這使得用戶可以利用英特爾軟件開發和優化工作的特別版本,在非常短的時間內將其現有的、運行在英特爾架構處理器平臺上的高性能計算應用遷移到基于MIC架構的產品上運行,并通過簡單的優化就能獲得可觀的性能提升,而這將為用戶帶來應用性能的迅速增長和既往軟件投資得以保全的雙重收益。
計算機輔助設計(CAD)在設計企業中已經得到廣泛應用,有效解決了設計效率的問題,例如利用參數化設計,可以對設計進行輕松修改。而工程仿真,也叫做計算機輔助工程(CAE),可以用數值方法模擬設計對象的功能特性,從而完全或部分代替物理樣機或試驗驗證,并引導更優化的設計。對比傳統實驗手段,CAE可以縮短研發周期,優化產品設計,積累研發知識,節約研發成本。在很多制造企業的產品研發和設計中,CAE都承擔著大量關鍵的業務。
不過,由于工程仿真的軟件種類非常龐雜,按照專業不同,可以將其分為:結構力學、流體力學、多體動力學、碰撞仿真、噪聲分析等。如何將這些多樣化的CAE軟件資源統一管理起來并進行動態調配及監控,已經成為企業CAE應用的一大難題。
目前設計行業中的航空航天、能源、冶金等大量使用到ANSYS、ABAQUS、3DMAX等軟件,但很多設計企業仍然沿用單機運行方式,計算資源大多呈現分散無序的狀態,伴隨資源的發展不可避免的呈現出以下矛盾:硬件資源利用無序且低效;軟件資源分配缺乏合理性;資源調度與項目要求不匹配;數據、流程安全保障手段弱;資源請求方式亟需簡化。
而采用高性能計算平臺則能夠很好地解決企業所遇到的這些矛盾。高性能計算平臺能夠將各類CFD、動力學、電磁、噪聲、性能等仿真應用軟件(如NASTRAN、ANSYS、ABAQUS、FLUENT、ADAMS、STAR-CCM+、LS-DYNA等)、高性能計算硬件資源、高速互聯網絡資源以及對資源的管理調度,以一種WEB服務的形式提供給仿真分析人員,從而實現將傳統的仿真軟件工具發展成為“企業云”中的在線計算資源,大幅降低高性能計算資源的利用門檻,有效提高仿真計算工作效率。
在高性能計算平臺的工作場景中,用戶可以從多個層面切身體驗云計算模式的便利性與高效性:仿真分析人員不再需要進行繁瑣的客戶端配置和操作,也不再需要關心服務器端軟硬件資源的配置、管理、維護甚至升級,只需要通過標準的Internet瀏覽器,就能夠登陸平臺,方便、快捷的開展仿真計算工作;
研發管理人員不再需要進行費時費力的仿真研發工作報告的搜集、整理工作,經過流程定制后的管理門戶將隨時可以自動出具當前項目進展報表、軟硬件資源使用情況;
研發機構領導不再需要擔心軟硬件投入理由缺乏論證數據,也不再將企業計算中心視為永遠的成本中心,管理門戶可以用翔實的數據、直觀的圖表闡明計算中心的價值所在,并可以詳細預測后期軟硬件資源的投資需求及短板。
可以預見,隨著工程仿真技術在產品研發中的廣泛應用、CAD-2-Mesh方式的流行、非線性技術的普及、多物理場耦合仿真以及多學科優化等技術的推廣,高性能計算將成為企業研發的重要技術手段。
不過,當企業在設計CAE高性能計算整體解決方案時,要充分考慮需求,比如資金預算、問題類型、分析規模、用戶數量、軟件License個數等,以此來確定最終的硬件選型。特別是在軟件選擇方面,應能滿足以下應用:
1、可以集成數值仿真軟件并進行調用接口封裝工作,將其從固定化軟件工具轉變成實時在線的仿真計算服務資源,方便即需即用;
2、封裝所有的HPC操作指令等復雜操作,普通計算用戶無需參加任何培訓即可使用,同時可以了解自己的資源利用權限;
3、需要智能化監控軟件License資源并實現精細化管理,在保證科學分配計算資源的同時可以提供詳細的License利用情況分析報表,進一步揭示計算資源瓶頸;
關鍵詞:CAE 高性能 計算平臺
中圖分類號:TP338 文獻標識碼:A 文章編號:1007-9416(2016)06-0227-01
1 CAE高性能計算平臺的需求和挑戰
計算機輔助工程(CAE,Computer Aided Engineering)是用計算機輔助求解復雜工程和產品結構強度、剛度、屈曲穩定性、動力響應、熱傳導、三維多體接觸、彈塑性等力學性能的分析計算以及結構性能的優化設計等問題的一種近似數值分析方法。CAE從60年代初在工程上開始應用到今天,現已成為工程和產品結構分析中(如航空、航天、機械、土木結構等領域)必不可少的數值計算工具,同時也是分析連續介質力學各類問題的一種重要手段。
2 CAE的主要步驟
CAE 應用程序基本可以分成兩大類,一類是共享內存應用程序,一類是分布式內存應用程序。其主要有三個步驟,第一步是建模亦即前處理,通常在工作站上進行;第二步是求解過程,這是至關重要的一步,需要占用大量的CPU、內存資源以及存儲空間,通常是在高性能計算機上完成。這個過程涉及到的軟件有Fluent、Ansys、Nastran、Ls-Dyna等;第三步是后處理過程,對計算結果進行處理分析,通常也是在工作站上完成。CAE計算的核心內容是高性能計算。為了使高性能計算機系統能夠更好的滿足CAE應用軟件的需求,需要對主流CAE軟件進行深入分析。
3 CAE高性能的主要解決方案
通過對CAE軟件的分析我們可以了解到,對于大部分CAE應用,對于節點間并行MPI支持非常好,適合在雙路計算節點上運行,做通用計算,而部分CAE軟件對內存的需求比較高,則適合在胖節點上用OpenMP方式來計算,因此我們推薦大內存的四路或者八路服務器作為集群胖節點。通過對于CAE應用性能的專業化分析和匯總,提供針對化的解決方案。在高性能應用集群主要解決CAE軟件應用中的一下幾個主要問題。
3.1 工作站解決方案
主要用于前后處理方面的工作,用于網格劃分和可視化顯示。由于對于服務器顯示和處理能力的要求都比較高,因此我們推薦使用帶有專業級顯卡的工作站配置。
3.2 計算節點解決方案
顯示算法和隱式算法對計算能力的需求不用,方案配置了雙路節點,適合于分布式內存的顯示計算和流體軟件CFD的計算,配置了多路胖節點適合于共享內存的隱式計算。不同架構的設計體現針對化專業化的解決方案。
3.3 網絡帶寬問題解決方案
在大型CAE軟件應用中,并行化對于網絡延時和帶寬的要求很高,因此要根據需求配置了以太網交換環境或者更快的40Gb的Infiniband網絡,滿足所有節點無阻塞的計算交換需求,網絡延時低。
3.4 存儲帶寬問題的解決方案
部分CAE軟件在計算過程中,會產生大量臨時文件,一個優秀的存儲系統能夠滿足軟件對于網絡帶寬的需求。浪潮不僅可以提供了專業級的直連存儲,更有8Gb接口的光纖存儲系統,通過專有的存儲節點構建Lustre并行文件系統,接入以太網,甚至40GB的Infiniband網絡,不至于出現CPU等待數據計算的情況,大大提高了計算效率。
4 解決方案的注意事項
4.1 計算系統緊密結合客戶應用
在高性能系統設計的過程中要充分考慮CAE客戶典型應用,針對客戶應用定制化開發系統。針對隱式有限元分析應用浪潮配置胖節點,可選八路胖節點;針對流體類應用配置雙路主流計算節點,針對前后處理可選圖形工作站,塔式、機架可選;存儲方面可提供NAS存儲、光纖存儲、IB SAN存儲等方案,對于IO帶寬需求特別高的場合,可以配置性能較好、兼容性較高的并行文件系統。
4.2 完善互聯系統
管理網絡采用萬兆為主干的千兆線速網絡,可開辟對教育網/公網的獨立IP,實現廣域網用戶登錄使用集群;IPMI網絡采用非線速千兆交換機,互聯所有節點,管理員通過辦公用機可實現集群的帶外管理;KVM本地監控網絡通過鏈方式,最多實現960臺計算機的KVM監管;計算網絡采用IB網絡全線速互聯,帶寬達到56Gb/s,延時1微秒內,充分保證計算中間數據交互。
4.3 確保調度系統先進高效
集群管理軟件要通過瀏覽器(IE,firefox等)進行操作,全面實現集群的監控、管理、報警的軟件,用戶通過ClusterEngine圖形界面提交自己的科學計算任務,ClusterEngine會根據集群中的資源使用情況和作業的資源要求數量來合理的調度用戶提交的作業,從而達到提高資源利用率和作業的執行效率的作用。ClusterEngine還可以為集群管理員統計作業的資源消耗情況和用戶的資源使用情況,并生成報表,為集群管理員優化系統提供依據。
4.4 確保集群系統綠色節能
所有節點盡量采用80PLUS高效電源,提高電源轉換效率,降低用戶運維成本。結合Cluster Engine節能組件,可以自動將空閑資源設置為待機或者關機狀態,整體節能至少會降低20%。
5 結語
自二十世紀六十年代以來CAE技術得到飛速發展,其原動力是不斷增長的工業需求,這其中航天航空、能源動力等領域是其發展的強大的推動力。如大型復雜飛行器結構的流-固耦合計算,涉及計算空氣動力學、計算燃燒學、計算傳熱學、計算結構力學等眾多學科,目前CAE已成為航空、航天、能源動力等工業領域不可或缺的研究手段。CAE高性能計算平臺的建設,對于企業生產目標的實現,有核心的基礎技術支撐作用。
參考文獻
中國超算的發展速度贏得了世界的關注,國際超算權威專家、TOP500的發起人之一Hans Werner Meuer 博士用“big shocker”極具震撼力來形容中國超算的發展。
就在近日,國際TOP500組織在德國舉行的2015年國際超級計算機大會上全球超級計算機500強最新榜單,中國“天河二號”以每秒33.86千萬億次的浮點運算速度第五次蟬聯冠軍。
談到超級計算機,相信大家都太陌生,它能夠提供超高的性能,其一般主要應用于科學計算、工程模擬、動漫渲染等領域,這些應用大多屬于計算密集型的應用。而云計算則是在近兩年隨著互聯網發展起來的新興計算,其依靠著靈活的擴展能力主要應用于社交網絡、企業IT建設和信息化等數據密集型、I/O密集型領域。
在橡樹嶺國家實驗室有一個研究設施SNS(散裂中子源),它構建于2006年,曾引爆過世界上最強的材料中子束,幫助物理學家和化學家了解材料內部結構是如何形成的。
SNS產生了大量數據,它們需要被徹底分析。而科學家們相信,他們可以利用深度學習算法快速識別數據類型,并提升分析能力。識別數據類型是深度學習的專長。
但問題是,對于科學模擬來說,每次產生700TB數據似乎太正常不過了,不過這比美國國會圖書館所有信息加起來的量還要大。
應用方面,高性能計算機可稱得上是行業應用的強力助手。中石油川慶鉆探地球物理研究所計算所所長鄧亞力在接受本站記者采訪時表示:作為新一代的數據中心,在石油勘探應用方面最受關注的重點依然是性能。此次中石油部署的PMDC集裝箱數據中心也表現優異。其采用了標準的20英尺集裝箱,借助現代化物流可快速部署至全球任何地區。同時,采用高密度設計,使PMDC的占地面積很小,僅相當于同等性能數據中心占地面積的1/4。
據華大基因高性能計算研發主管王丙強博士介紹,GPU多流處理器架構以及超高的顯存位寬和頻率能夠帶來巨大的性能提升,在基因研究方面普遍可以帶來10~20倍左右性能提升,如果說DNA上有一個點發生的基因突變,僅計算那一部分大概就可以提升70多倍。
原來在華大基因自己高性能計算平臺上做,大概要好幾年才能算完,后來轉移到到天河一號A上去,用超級計算機加上NVIDIA Tesla GPU加速,只要5個多小時就能完成。
[關鍵詞]高性能計算中心 辦公自動化 B/S 新聞管理
[中圖分類號]TP311.1 [文獻標識碼]A [文章編號]1009-5349(2013)07-0018-02
引言
隨著芯片的不斷發展和多核與眾核計算機體系結構的出現,高性能計算模型無論在硬件還是軟件上都得到了迅速的發展。應用高性能計算系統輔助科研與教學如今已成為國內各大知名院校的共識,高校高性能計算中心為學校學科建設的長遠發展提供強有力的支撐條件,為科技創新和重大工程應用提供服務,滿足高校多學科領域對高性能計算的需求,有利于高校未來綜合競爭力的提升。[1]針對高校高性能計算中心的服務對象與工作需求的不同,設計集新聞與管理、用戶信息錄入與上機申請提交、資源下載等功能于一體的OA系統成為迫切要求。與傳統單一的具備新聞功能的OA系統不同,高校高性能計算中心OA系統更強調用戶的使用需求,為用戶上機申請提供線上提交支持。本系統采用Tomcat+JSP+MySQL框架、B/S體系結構,增加了中心協同辦公的能力,從而大幅提高了工作效率。
一、系統體系結構設計
本系統采用B/S(Browser/Server)即瀏覽器/服務器結構。在B/S體系結構中,用戶通過瀏覽器向服務器發出請求,服務器對請求進行分析處理,將用戶所需信息返回給瀏覽器。[2]該結構的重點在服務器端的開發與維護,客戶端通過瀏覽器即可訪問web應用。這種結構減輕了系統維護與升級的成本和工作量,簡化了客戶端電腦負荷,降低了用戶的總體成本。[3]B/S三層結構分別為:表示層、功能層和數據層如圖1所示。
(一)表示層
表示層負責從web瀏覽器向網絡中某一服務器發出服務請求、接收服務器端返回的信息結果并把它顯示在瀏覽器上,同時負責簡單的數據驗證和格式化等功能。
本系統中表示層由JSP頁面組成,包括登陸界面及前臺簡單的防SQL注入、上機申請信息錄入和新聞列表與新聞內容動態頁面的顯示等功能。使用css樣式表進行網頁風格設計。
(二)功能層
功能層封裝了實際業務邏輯,是整個web應用系統的核心[4],實現表示層與數據層間的數據通信,包括事務處理、權限處理等操作。
系統的功能層主要進行數據驗證、流向、事務、權限等,將數據層取出的業務數據存在內存中,用于在系統的各個功能模塊間傳輸,而不直接操作數據源。
(三)數據層
數據層為功能層提供與數據源交互的最小操作方式,可以理解為數據層就是數據庫管理系統,負責對數據庫數據的讀寫、存取和管理等工作以及訪問數據的安全性、完整性和一致性,功能層完全依賴數據層所提供的服務。
二、系統開發工具與實現技術
考慮到JSP較高的運行效率與安全性,以及對Java的強大支持,本系統采用JSP作為網頁開發語言。而Tomcat是一個免費開源的輕量級web應用服務器,其對JSP和Servlet的強大支持以及穩定的性能成為本系統部署的首選。而MySQL在網站開發中的廣泛應用和開放源碼顯著降低了本系統開發的成本。基于這些工具的優點,本系統采用Tomcat+JSP+MySQL框架[5-6]、B/S體系結構,應用的主要技術如下:
JSP(Java Server Page)技術是一種類似于ASP的動態網頁技術標準,鑒于JSP[7]開發web應用的跨平臺性,適用于中心基于Linux操作系統下的web開發。JSP頁面中可插入Java代碼以封裝產生動態網頁的處理邏輯,也可在servlet中實現操作數據庫和網頁重定向的功能。JSP將網頁邏輯與顯示分開設計,也就是將表示邏輯從Servlet中分離出來。
JavaScript是通常用來在客戶端給網頁添加動態功能的腳本語言,[8]其用以響應用戶的各種操作,進行簡單的輸入驗證。同時,JavaScript又是面向對象和事件驅動的。面向對象保證了程序的直觀化、模塊化和可重用性。絕大部分事件是由用戶的動作引發的,如點擊鼠標或鼠標指針移動等。JavaScript[9]不需要在服務器端運行,只需在客戶端的瀏覽器上就可執行,顯然減輕了服務器的負擔,但弱點是安全性較差。單純在前臺使用JavaScript進行輸入驗證并不能完全保證系統安全,因為惡意攻擊可能繞過前臺過濾直接對數據庫進行注入,所以系統對數據庫進行存取前應該在后臺同樣進行安全性檢查。
CSS(Cascading Style Sheet級聯樣式表),顧名思義是用來定義網站外觀風格的。常見的樣式表使用方式有三種:網頁鏈接外部css文件、網頁嵌入css和網頁元素內嵌css。外部樣式表使用方式可實現統一多個網頁風格的效果,在樣式表中進行更改便會反映到所有鏈接該樣式表的網頁上[10],嵌入和內嵌樣式表又可以實現不同頁面的風格化。DIV+CSS的網頁布局[11]方法可以實現分離的網頁內容與表現設計,與table表格定位技術相比,頁面代碼更加精簡,從而提升了瀏覽訪問速度和用戶體驗。
正則表達式是指對符合某個句法規則的字符串進行描述或匹配的邏輯公式。[12]正則表達式雖然比較晦澀,但其表達靈活,邏輯簡短,可以用極簡單的方式實現復雜的控制,因此,在字符串處理中得到了廣泛的應用。在計算機科學中,我們經常用正則表達式對字符串進行過濾,也可從字符串中獲得想要的特定部分。
SmartUpload[13]是一個可以實現文件上傳和下載的免費組件。使用SmartUpload使文件的上傳下載及刪除變得簡單易行,并能獲得上傳文件的全部信息,方便對文件進行處理和下載。
數據庫連接池是針對數據庫連接管理以提高應用程序的安全和性能而提出的。數據庫連接池負責數據庫連接的分配、管理和釋放,可以明顯提高操作數據庫的性能。[14]同時,在對數據庫的存取、更新等操作中,使用PreparedStatement接口來代替Statement,不但增強了代碼的可讀性和可維護性,而且提高了操作數據庫的安全性,有效地防止了SQL注入。
三、系統功能模塊設計
結合高性能計算中心[15]的工作需求,系統主要有四大功能模塊,分別為后臺新聞管理模塊、用戶上機申請模塊、用戶登陸模塊和資源下載模塊,具備了新聞采集、整理和以及用戶上機申請信息錄入等中心辦公自動化要求的功能,如圖2所示。
(一)后臺新聞管理模塊
該模塊包括新聞列表、搜索與動態顯示,以及新聞添加、修改編輯和刪除等功能。其中新聞添加時可設定標題和內容,通過SmartUpload組件實現圖片和附件文件的上傳,添加前可進行預覽和修改,為保證系統安全新聞后臺模塊使用RBAC(基于角色的訪問控制)模型[16]進權限控制。
(二)用戶上機申請模塊
有使用中心資源需求的用戶可在此進行信息錄入,完成“XX高性能計算中心上機申請表”的填寫、修改、確認和提交。防止SQL注入,信息錄入和提交時分別在前臺和后臺使用正則表達式對輸入信息進行過濾。
(三)用戶登陸模塊
用戶提交上機申請后可以使用注冊時的賬戶ID和密碼進行登陸,登陸后可查詢用戶信息、修改登陸密碼和打印上機申請表。輸入信息和登陸時同樣分別在前臺與后臺采取防SQL注入措施,同時使用session保持用戶進行“對話”的狀態信息。
(四)資源下載模塊
提供報銷單填寫模板、用戶使用手冊和相關工具軟件等資源下載功能。將資源存于Tomcat中的webapps的相應目錄下,使用超鏈接進行下載。
四、結語
本文結合高校高性能計算中心的服務對象與工作需求,闡述了高校高性能計算中心OA系統的功能模塊設計、體系結構、開發工具及實現技術。系統集新聞與管理、用戶信息錄入與上機申請提交、資源下載等功能于一體,簡化了用戶的申請流程,大大提高了中心的辦公效率。后續的研究工作主要集中在集群日志信息的提取與挖掘、集群監測和故障信息統計與成像功能模塊的設計與實現。
【參考文獻】
[1]李根國,桂亞東,劉欣.高性能計算技術及其應用[J].中國科學院院刊,2007,22(4):306-313.
[2]李書杰,李志剛.B/S三層體系結構模式[J].河北理工學院學報,2002,24(增刊):25-34.
[3]楊杰,劉丹.基于工作流和B/S結構的OA系統設計[J].武漢理工大學學報(交通科學與工程版),2005,29(1):56-59.
[4]趙宏偉,秦昌明.基于B/S3層體系結構的軟件設計方法研究[J].實驗室研究與探索,2011,30(7):65-66.
[5]邊清剛,潘東華.Tomcat和Apache集成支持JSP技術探討[J].計算機應用研究,2003(6):12-14.
[6]胡莉萍.Tomcat+JSP+MySQL整合配置初探[J].中國科技信息,2010,5.
[7]趙曉峰.基于JSP與JavaBean技術的Web應用開發[J].深圳信息職業技術學院學報,2005,3(1,2):39-43.
[8]李軼.基于JavaScript的面向對象程序設計研究[J].江漢大學學報(自然科學版),2010,38(3):52-56.
[9]張云苑.JavaScript在動態網頁設計中的應用[J].科技信息,2007,5:23-24.
[10]車元媛.基于DIV+CSS的網頁布局技術應用[J].電腦知識與技術,2011,7(9):2019-2020、2023.
[11]張麗姿.DIV+CSS技術在網頁制作中的應用[J].電腦開發與應用,2010,23(5):47-49.
[12]杜冬梅,許彩欣,蘇健.淺談正則表達式在web系統中的應用[J].計算機系統應用,2007,8:87-90.
[13]陳煥英,張紅琴.SmartUpload組件在JSP項目開發中的設計與實現[J].漯河職業技術學院學報,2012,11(2):18-19.
[14]羅榮,唐學兵.基于JDBC的數據庫連接池的設計與實現[J].計算機工程,2004,30(9):92-93、111.
[關鍵詞]高性能計算;數據處理能力;石油勘探;云計算技術
[DOI]10.13939/ki.zgsc.2015.20.055
1 高性能計算在石油勘探開發方面的發展趨勢
1.1 國外的發展趨勢
目前,高性能計算機的性能的速度每年都在快速增長,使其不斷向前發展,其應用由主攻科學計算和工程計算領域,延伸到網絡信息服務和商業自動化領域。
為了提高性能,降低系統功耗,減少占地空間和解決編程和管理較麻煩等問題,高性能計算機技術在發展的同時不斷融入許多新的內容。例如,美國,日本和其他國家試圖運用科學和計算機體系結構的發展結合在一起提供一種新的方法,以此開出一條高性能計算機發展的可持續發展道路。同時,基于網格技術和以商業節點為基礎的高性能計算系統發展非常迅速,其系統的性價比高,研制速度快,美國和歐洲的許多國家紛紛在這類高性能計算機系統研發上投巨資。為了進一步提高高性能計算機的綜合能力,美國正在研究采用包括超導、光互聯和超大規模集成電路等多項先進的技術和工藝。此外,基于量子運算的超高性能計算機的研究,目前正處于理論階段。
1.2 國內的發展趨勢
(1)標準化和集成化的需求:將集群技術標準化,促進了高性能計算機生產的快速發展,同時集成化的集群技術,又拓寬了高性能計算機的應用范圍。堅持標準化與集成化特性和不斷創新技術,高性能計算機的應用前景會越來越繁榮。
(2)集群式高性能計算機的發展:集群體系結構的高性能計算機,指用標準化的互聯網絡將高性能部件連接起來而形成的。科學計算、事務處理和信息服務應用等工作都可以在這個系統平臺上進行。其優勢在于它性價比很高并且具有較高的可靠性和可擴展性,低成本和易維護等。隨著計算機性能的迅速提升和價格的進一步下降,集群式高性能計算機的應用呈現出了蓬勃景象。
(3)網格計算技術的應用:伴隨著高性能計算機和互聯網技術的發展,網格計算技術應運而生,是針對復雜的科學計算的一種全新的計算模式。它主要是通過互聯網把許多分散在不同地理位置的計算機連接起來,形成巨大的高性能計算機。該技術,在石油勘探開發領域發揮了很大作用,成效令人矚目。網格計算技術的推廣和應用,定會使石油工業的未來更加繁榮。
2 高性能計算在石油勘探開發領域中的應用
在石油工程中,數據的處理不容忽視,一點誤差就會帶來很大的損失,這就要求計算機系統有非常高的計算能力,尤其在石油勘探中。石油勘探開發是石油工程的重要組成部分,將在石油的勘探開發中采收集的大量數據進行分析,從而判斷油儲的分布情況。一般是先根據這些數據畫出數據場的等值線,再交由專業人員分析油的分布,有多少油,可想而知這樣的處理方式必會受到限制。另外等值線是二維的,不能形成三維立體的畫面,結果浪費大量的信息的同時又沒有得到我們所期望的結果。如果利用計算機技術和可視化技術,就可以從這些龐大的地震勘探數據中構造出三維實體,顯示參數,直觀地再現油藏的地質構造以及油藏參數在石油開發過程中的變化,給專業人員準確分析和解釋原始數據提供了巨大幫助。這樣的分析將更加準確,定位更加科學,降低石油勘探開發的成本。因此,為了取得勘探的最佳效益,使用高性能計算處理這些海量數據成為必然,這也成為高性能計算在石油勘探領域高需求的主因。
目前,在石油勘探中從采集數據、分析數據、油氣藏描述到開發、鉆井乃至管理整個油田生命周期和對生命周期的經濟評價,全都靠計算機完成。高性能計算機技術的應用非常廣泛,隨著科技的發展,不僅應用在石油化工領域,在氣象預報、核能模擬和生物工程等領域都得到應用,取得了顯著的成績。尤其在石油勘探開發領域,高性能計算機的應用占據了不可或缺的地位,在許多方面象征著高性能計算機技術的發展水平。
3 高性能計算面臨的問題
面對石油勘探行業的特殊性和復雜性,高性能計算如何滿足越來越高要求的數據處理能力成為首要任務。但是目前在計算性能、系統建設與運行成本等方面使得高性能HPC集群計算機系統已經面臨著許多問題,主要表現在三大方面:
一是CPU處理器性能無法滿足對計算能力的需求;
二是石油勘探高速增長的數據和存儲擴容越來越不匹配;
三是能耗制約越來越嚴重,高性能計算機體積大、耗電多以及對計算機房空間、空調、電量需求大。
總的說來,就是傳統的高性能計算方法已無法滿足目前石油勘探行業對計算能力越來越高的要求和對數據處理的大需求,更無法滿足石油勘探發展與應用的需要,這必然導致其會成為制約石油勘探發展的因素。面對這些嚴峻迫切的問題,如何盡快找到滿足高性能計算需求的方法成為石油勘探行業關注的熱點。
4 云計算破局石油勘探高性能計算需求
從目前的形式來看,實現靈活的可伸縮性成為解決石油勘探行業面臨的三大困境的唯一解決之道。也就是要構建滿足石油勘探高性能需求系統的幾大重要點:一是使高性能計算機具有可拓展可伸縮性的計算能力;二是能夠實現對相當大的存儲容量的負載和存儲容量的可伸縮性;三是能夠對計算能力和資源進行更好的管理。因此,許多業內人士將打破石油勘探高性能計算需求局面的希望投向了云計算。
其實,對高性能計算而言,云計算這個概念并不陌生。例如存在一種早期的云計算模式,它把昂貴的計算資源集中部署和集群應用,這就是已經發展近30年的超級計算中心。但這種高計算服務不同于當前所談論的云計算。目前的云計算是傳統計算機技術和網絡技術發展融合的產物,這些技術包括分布式計算、并行計算、網格計算、效用計算、網絡存儲、虛擬化、負載均衡等。其目的是運用網絡把一些較低成本的計算實體整合起來,打造一個具有強大計算能力的系統。如果有效的管理和調度這些用網絡連接的計算資源,建立一個計算資源池以服務用戶,成為云計算的核心思想。
[關鍵詞]協同研究 遠程訪問 PLATFORM 一體化應用平臺 自助式智能集群部署
中圖分陳類號:TP393.4 文獻標識碼:A 文章編號:1009-914X(2015)34-0217-01
1 問題的提出
大港油田信息中心當前對于計算資源的使用與管理,采用傳統的集群式管理方案,這種資源固定分配的方式雖然能夠為相應部門分配適用的資源,但是對于部門間需求的改變以及資源的按需調整無法提供一個靈活的、便捷的方法。無形中增加了資源管理部門的工作量以及工作難度,同時也無法將現有計算資源的利用充分的發揮出來。其次,信息中心所管理的數模、建模等應用軟件,希望能夠以桌面云的方式為用戶提供遠程訪問接口,并且按需來自動分配登陸,改變傳統的手動建立VNC登陸服務。
針對于此類問題,為大港油田信息中心建立一套完整的云管理平臺,在此基礎之上再根據信息中心針對于業務系統的使用動態建立高性能計算集群、數模、建模機群,將能在很大程度上解決上述問題,建立起適用于大港油田的、技術領先的高性能綜合管理平臺。
2 研究云平臺建設內容
大港油田經過十多年的信息化建設,在勘探開發信息系統建設方面取得了一定的成績,緊緊圍繞“為油田主營業務發展提供強有力信息技術支撐”這一核心主題,大力推進信息化基礎建設。現已擁有了大中型計算機服務器,如針對勘探開發業務研究,配置了64臺高性能刀片服務器,其中48臺支持常規解釋和數值模擬應用,16臺圖形刀片服務器支Geoprobe、Petrel等三維解釋類軟件應用,存儲容量達到了130TB,整個高性能計算環境達到了128個CPU,1024核心數,內存總量達到8TB,同時支持200個以上的用戶開展勘探開發研究工作。在此基礎上,部署了如OpenWorks、Geoframe地震解釋系統、Petrel/SKUA/RMS/Direct地質建模系統、Eclips數字模擬系統、ComPass以及Assetview鉆井工程設計系統等應用軟件,并通過高性能PCM-AE云管理平臺和獨立仿真等技術,實現了基礎設施及專業應用的集中部署、應用和管理,初步形成了當前大港油田的勘探開發研究環境格局。
3 研究云平臺構架方案
針對于大港油田的云管理平臺建設,以全面整合信息中心現有基礎設施,并為日后新硬件環境的方便擴容為前提,IBM Platform Computing 所推出的云平臺管理軟件 PCMAE 將為大港油田信息中心提供整體的云平臺基礎框架。PCMAE 是一個面向高性能計算的云管理平臺,可以整合數據中心的計算資源、存儲資源和網絡資源,為IT資源的統一整合、管理與分配提供有力的技術支持;同時,提供了最終用戶直接請求資源的自助服務平臺,通過豐富的策略為用戶匹配和供給資源,帶給最終客戶靈活便捷的云資源申請和使用模式。另外,在虛擬化軟件之上提供它們所不具備的虛擬機靈活定制與整體管理功能,對虛擬機集群及上層 HPC 集群進行統一的自動部署、監控和資源調度,實現資源的最大化利用與服務的最快交付。
4 平臺展示
4.1 協同研究云環境全面建成,并投入應用
云計算的核心是多用戶、自動化管控、彈性計算,信息中心通過部署Platform云計算管理平臺,極大簡化研究云環境管理,實現集群快速部署與調整、資源統一管理和自動調度,是中石油第一個全面云化的研究環境。在云平臺基礎上,建立兩套高性能計算集群、遠程可視化、自助式服務。與現有數模建模等應用軟件進行集成。
通過云管理平臺的應用,信息中心可以做到將整個計算資源放置到云端,快捷的部署物理機操作系統,以及快速創建虛擬機并且加入到高性能計算平臺,使得原來需要數周的工作量簡化到一個小時以內。
4.2 主流勘探開發研究軟件的集中管理使用
取代了以往分散式的管理方法,將主流研究軟件全部集中在了云管理平臺之中,用戶通過登錄統一門戶頁面,選擇需要使用的專業應用軟件。高性能調度平臺會在云端資源中分配出最適合的計算節點供用戶使用。
在原有軟件的基礎之上,新部署了OpenWorks 5000.8,Geofrme 4.5兩套地震解釋環境以及Petrel 2013建模系統、Eclipse2013數值模擬系統、隨鉆分析、鉆井設計,軟件種類超過10種,并在不斷擴展之中。
4.3統一的作業管理
當用戶提交計算作業后,用戶隨時可以在門戶頁面上看到作業的運行狀態,并且隨時查看作業計算過程中所產生的數據文件、輸出信息。無論作業的量級多大,都能快速定位,即便數月之前提交的作業數據也能很方便的查看。
作為云平臺管理員則可以查看所有用戶的作業信息,對用戶的使用情況做到清晰了解,當發現任何作業出現異常時,在門戶界面之中就能處理,不必再尋找該作業所運行的節點,登錄該節點后才能處理。
6 應用平臺實現的功能
6.1 自助式智能集群部署
提供了簡單友好的自服務門戶界面,用戶只需通過門戶提供的統一認證功能,只需要一次登錄認證,就能直接調用運行集成在大港油田勘探開發協同研究云一體化應用平臺上的20余種應用軟件,在調用軟件的同時, 系統在后臺自動為用戶完成應用環境、硬盤資源的配置, 解決了用戶應用流程繁瑣, 較大地提高了用戶生產研究工作效率。
6.2 跨平臺軟件資源的共享
在勘探開發專業軟件一體化應用平臺上,整合了新老軟件資源,集成了基于windows、Linux等不同平臺上運行的軟件, 在同一臺客戶端工作站,用戶既能調用windows系統下的專業軟件,也能運行Linux系統下的軟件,實現了軟件資源的跨平臺共享, 大大提高了勘探開發軟件的利用率。
6.3 顯著減少了硬件投資和運行維護費用
使用集中部署和應用虛擬化技術后,客戶端不再需要配備高性能專業圖卡,不再需要不斷升級客戶機硬件,不再擔心用戶數據丟失,不再經常到用戶端安裝部署專業軟件,顯著減少了日后硬件投資和運行維護費用。
7 結論
通過專業研究軟硬件集中部署和自助式智能集群部署技術在大港油田實踐,搭建了支撐油田勘探開發協同研究工作的軟硬件集中部署、數據統一存儲、備份統一管理、應用統一、用戶單點使用的集成應用環境,實現了基于Linux環境下不同平臺應用系統界面集成和軟件資源跨平臺共享,把20多種異構專業軟件統一在一個平臺中集中管理起來,徹底解決了以往單機作戰應用模式帶來各種弊端,保證了油田各項研究工作的高效進行,具有良好的應用前景。
參考文獻
[1]張軍華, 臧勝濤,單聯瑜,等. 高性能計算的發展現狀及趨勢[J]. 石油地球物理勘探,
[2]趙改善, 包紅林. 集群計算技術及其在石油工業中的應用[J]. 石油物探,