高性能計算機范文

時間:2023-03-23 15:32:53

導語:如何才能寫好一篇高性能計算機,這就需要搜集整理更多的資料和文獻,歡迎閱讀由公務員之家整理的十篇范文,供你借鑒。

篇1

從今年7月開始,惠普開展了為期半年、涉及全國20個油田的高性能計算機應用巡展,石油行業用戶對由刀片和集群構建的高性能計算機非常熱衷,對這種高性能計算機所表現出的高性能、低能耗、易管理、易擴展等特性贊賞有加。

無獨有偶,隨著最新一期的全球最快計算機排行榜(TOP500)于11月30日出爐,專家關于刀片+集群快速增長的預言成真。在TOP500中,采用刀片和集群架構的高性能計算機數量大幅增加,成為TOP500中增長最好的一種類型?;萜杖雵鶷OP500的系統中,95%是采用刀片服務器。

刀片保證投資回報

早在兩年前,就有專家預言:未來的2~3年內,刀片式服務器將以其高服務器密度、敏捷式部署維護、全方位監控管理融合、高可擴展性與可用性,全面取代傳統基于機架式服務器的集群系統,基于刀片式服務器的集群系統將得到大量應用。

事實表明,基于刀片服務器的集群系統的潛力正在逐漸釋放。2006年的中國TOP100排行榜顯示,超過70%的系統采用了集群體系結構,而值得關注的是,其中有26套是刀片服務器集群系統,惠普和IBM分別占有13套和11套。在這26套系統中,有17套用于石油勘探,6套用于網絡游戲。

中國惠普有限公司副總裁,商用產品事業部總經理楊諾礎認為:過去,用戶大量采用基于PC服務器的集群系統,并在過去3~5年成為一個主流發展方向。不過在最近兩三年,基于刀片服務器的集群系統開始大范圍推廣應用。在中國,石油行業是采用刀片服務器最多的一個行業。

在分析形成這一趨勢的原因時,江漢油田勘探開發研究院計算機中心的總工程師羅忠輝認為,刀片服務器作為一種高可用高密度的低成本服務器平臺,在高密度、易擴展和低成本方面都更適合地震資料處理等石油行業的關鍵應用需求;同時,刀片式服務器集群節點密度高于傳統的1U機柜,占地面積更少,可以在有限的空間整合巨大的運算能力,即使在未來增加更多的節點,也不需要考慮機房空間問題;在通風、耗電等方面,比1U機柜更適合地球物理的應用;在密集型的高性能計算中,刀片式服務器在布線和相互連接方面比傳統的機架式服務器又有很大的改進。

而楊諾礎認為,石油行業在IT應用上與大部分行業不一樣的地方是更重視投資回報,IT應用與企業的回報率直接掛鉤,勘探的一個誤差會導致幾十萬美元的成本增加。采用刀片構建集群系統,可以降低風險成本,IT投資回報率比較明顯。

兩大典型應用

在中國,高性能計算機應用已經有十多年的歷史,用戶在選擇適合自己的系統上更顯理性。相比用機架式服務器構建HPC,用刀片構建HPC具有更多優勢:它可以節省機柜空間,系統密度高;節省電力,刀片系統的能耗明顯比機架系統低;容易部署和管理,刀片采用模塊化架構,需要就可以插入,沒有太多的線纜,都在機架內完成;集成了網絡設施,可以配置10G光纖通道與Infiniband等。

在中國石油行業,兩大基于刀片的集群系統廣受好評。第一個集群系統是部署在大慶油田公司勘探開發研究院的刀片服務器集群地震資料處理系統。該系統采用惠普開發出的刀片服務器架構,集成了692臺惠普第三代服務器產品――HP BL20PG3、HP DL380G3和HP DL580G3三種服務器,選用了1432個Intel 至強CPU,其峰值浮點計算能力超過 9.8萬億次,位居中國刀片服務器集群系統榜首,是國內處理規模最大的地震資料處理系統。該處理系統用于大慶探區地震資料的高分辨目標處理和疊前偏移處理,使大慶油田公司勘探開發研究院具備了二維地震資料目標處理2萬公里、三維疊前偏移處理1萬平方公里的年處理能力。

刀片服務器集群系統采用惠普的刀片服務器架構。整個系統由常規計算節點、偏移計算節點、管理節點、I/O節點、核心交換網絡和管理網絡組成,并安裝了Redhat Linux AS 3.5版本操作系統、CMU和SIM集群管理及監控等系統軟件,利用惠普公司開發的iLO高級管理技術,實現服務器集群的遠程管理。常規計算節點采用200多臺HP ProLiant BL20pG3刀片服務器,千兆網絡端口直聯,安裝在6個機柜中。HP ProLiant BL20pG3采用2個Intel 至強3.4 GHz DP處理器。而偏移計算節點則采用400多臺HP ProLiant BL20pG3。

另一個典型系統部署在中國地球物理界最大的專業服務公司――中國石油集團東方地球物理公司研究院大港分院。大港分院采用了HP高性能計算集群系統,以HP刀片式服務器作為計算節點,實現二維常規處理12000公里、三維常規處理6000平方公里、迭前偏移處理3000平方千米的年處理能力,使大港分院地震資料處理能力和處理水平大幅度提升。

大港分院選用了由HP提供的包括硬件和軟件在內的整套高性能計算方案,包括119個HP ProLiant BL20P節點、14個基于Intel至強處理器ProLiant DL380G2作為I/O節點,以集群技術組成超級并行計算機作為地震資料處理的主機系統,共131個節點,262個處理器,整體計算能力實現浮點計算達1.4萬億次/秒。

在整套系統中,硬件系統包括:I/O節點采用主頻為3.06Hhz的HP ProLiant DL380G2 2U機架式服務器,計算節點采用主頻為2.8Hhz的HP ProLiant BL20pG2刀片式服務器,監控分發節點采用HP ProLiant DL380G2 2U機架式服務器,物理節點采用HP ProLiant DL360 1U機架式服務器,互連網絡系統采用HP ProCurve Switch 高性能網絡交換機,每套PC-Cluster計算機系統由兩個網絡系統組成,一個為高性能的千兆以太網傳輸數據信息,一個為10/100快速以太網傳輸管理控制信息;存儲系統采用HP Smart Array機群陣列盤柜。

管理和服務最被看重

那么,用戶選擇刀片的標準是什么?江漢油田勘探開發研究院計算中心總工程師羅中輝指出,用戶最看重的是管理和服務。大港分院副總工程師兼計算機服務中心主任張武斌也認為,以刀片服務器為節點的高性能集群系統試運行以來,最大的感覺之一就是系統管理方便了。HP提供的集群系統管理軟件Cluster Management Utility管理功能全面,還具有遠程管理特性,使用戶能夠在任何終端管理集群系統,查看機器的運行狀況?!艾F在,我們在自己的辦公室里就可以管理這套系統,不必再跑到機房了,非常便捷。”

集群系統管理軟件Cluster Management Utility(CMU)是一個Beowulf Cluster系統環境下的管理軟件,它提供了友好的圖形用戶界面。比如,CMU使用了RILOE板并集成了iLO的特性,使遠程文本控制臺在服務器的所有狀態下均可遠程控制服務器電源。無論服務器處于何種狀態,遠程BIOS設置借助獨立于CMU的WEB瀏覽器,遠程訪問圖形控制臺。由于CMU具有將一個節點的系統磁盤分區克隆到其他集群節點的能力,能夠避免對集群中各節點進行系統安裝或配置所帶來的耗時、費力的工作,這一特性使大港分院能夠在3天內就完成了集群系統的安裝。

篇2

關鍵詞:科學計算;大數據處理;超級計算機;模擬仿真;并行計算

1引言

在現代科學研究和工程實踐中,通常使用數學方程式來表示某些自然科學規律,產生了眾多復雜繁瑣的數學計算問題[1]?;谄胀ㄓ嬎愎ぞ邅斫鉀Q這些問題,將耗費大量人力物力,甚至無法得到準確結果。而科學計算[2],利用計算機仿真、重現、預測或探索自然世界萬物運動規律和演變特性的全過程,通過研究合理的計算方法,設計高效的并行算法,研制合適的應用程序,能準確、高效地模擬各領域研究過程,分析計算結果。然而,普通計算機的科學計算能力往往是有限的,現有的計算能力無法高效地解決某些基礎學科和工程技術部門的科學計算問題,如長期天氣預報、石油勘探、飛機整體氣動力等等。

與此同時,地震檢測儀、粒子碰撞器、天文望遠鏡以及高通量分析裝置等大型科學儀器的研制和發展[3],產生了大量非結構化或半結構化的數據,使得“大數據”趨勢變得越來越突出[4]。如今,許多科學發現和見解由大量數據集驅動,“大數據”被認為是除了實驗、理論和計算方法之外的第四種科學范式[5]。數據生成的容量、速度和多樣性構成了分析大數據的主要挑戰。

為提高科學計算能力,解決大數據問題,高性能計算(HPC)[6]技術迅猛發展。高性能計算機代表用于解決計算密集型科學和工程問題的高端計算基礎設施。我國的高性能計算早已突破每秒浮點運算千萬億次的壁壘,并繼續解決性能、可擴展性、可編程性、能效和可靠性等問題,探索新的支持技術以達到e級計算能力。

目前,高性能計算機已在多個領域得到了成功的應用[7],但仍存在大量可供多個研究機構使用的空閑節點。本文簡介了一些高性能計算機系統及其性能,針對近年來在高性能計算機上的各大領域應用實例進行總結,并對在其他領域的應用做出了展望,以促進更高效、全面地使用高性能計算機。

2高性能計算機系統概述

中國首臺千萬億次超級計算機,是“天河一號”?!疤旌右惶枴背売嬎銠C使用由中國自行研發的“龍”芯片,其峰值計算速度能夠達到1.206TFlop/s,同時Linpack實測性能達到了0.563TFlop/s,該超級計算機位居當時公布的中國超級計算機前100強之首,中國成為了繼美國之后世界上第二個能夠自主研制千萬億次超級計算機的國家。

天河一號采用6144個英特爾通用多核處理器和5120個AMD圖形加速處理器,其內存總容量98TB。至于點對點通信的帶寬就達到了40Gbps,而其用于共享的磁盤總容量則達到1PB。該超級計算機系統部署于天津濱海新區的國家超級計算天津中心作為業務主機。

2013年,由國防科學技術大學研制的“天河二號”大型超級計算機以每秒33.86千萬億次的浮點運算速度成為全球最快的超級計算機,位列國際大型超級計算機TOP500榜首。隨后,“天河二號”實現了世界最快超算“六連冠”。天河二號采用基于加速器的架構[8]。在可接受的總成本、功率預算、支持可靠性、可用性和可服務性(RAS)的能力、應用開發和移植的復雜性下提供高的計算性能。

天河二號的硬件系統由五個子系統組成,包括計算系統、通信系統、存儲系統、監控診斷系統和服務系統。它由16000個節點組成,每個節點有2顆基于IvyBridge-EXeonE52692處理器和3顆XeonPhi,每個節點的內存是64GB。所有的計算節點都通過專有的高速互連系統連接。還提供了一個服務子系統的4096個節點,以加快高吞吐量的計算任務,如大數據處理。存儲子系統包括256個I/O節點和64個容量為12.4PB的存儲服務器。天河二號文件系統命名為h2fs,采用麒麟操作系統、基于SLURM的全局資源管理。支持大多數現代編程語言,包括C、C++、Java、Python等。采用的是新型異構多態體系結構(Multipurpose-Heterogeneous)[9]。

天河二號的系統配置列于表1中。

“天河二號”集科學計算、大數據分析和云計算于一體,被認為是滿足工業和社會需求的戰略基礎設施。以超級計算機為支撐的高性能計算應用正加速向各個領域滲透。

Table1SystemindicatorsofTianhe-2

表1天河二號系統指標

width=375,height=252,dpi=110

在國內早期的高性能計算機研究中,2004年6月超級計算機曙光4000A研制成功,落戶上海超級計算中心,標志著繼美國和日本之后,中國是第三個能研制10萬億次高性能計算機的國家。曙光能夠每秒運算11萬億次,進入全球超級計算機前十名。經過十多年發展,曙光E級高性能計算機系統項目現在是國家“十三五”期間高性能計算的重點專項,其最顯著的特點是突破了制約E級計算發展的各個關鍵技術,通過這樣原型機的研制去驗證E級的技術路線,為未來真正實現國產E級系統做技術鋪墊。

width=642,height=303,dpi=110

Figure1StructureofSugon’sCPU

圖1曙光CPU結構

在2016年法蘭克福世界超算大會上,“神威·太湖之光”超級計算機系統成為新的榜首,速度較第二名“天河二號”快出近兩倍,效率提高三倍。

神威·太湖之光超級計算機由40個運算機柜和8個網絡機柜組成。每個運算機柜包含4塊由32塊運算插件組成的超節點。每個插件由4個運算節點板組成,一個運算節點板又含2塊“申威26010”高性能處理器。一臺機柜就有1024塊處理器,整臺“神威·太湖之光”共有40960塊處理器。每個單個處理器有260個核心,主板為雙節點設計,每個CPU固化的板載內存為32GBDDR3-2133。

在2018年的法蘭克福世界超算大會上,美國能源部橡樹嶺國家實驗室(ORNL)推出的新超級計算機“Summit”以每秒12.23億億次的浮點運算速度,接近每秒18.77億億次峰值速度奪冠,“神威·太湖之光”屈居第二。

3高性能計算機各大領域應用實例分析

為充分發揮高性能計算機的優勢,極大限度地滿足客戶需求,自超級計算機在中國開始發展以來,相關團隊都致力于擴展高性能計算在各個領域的利用,迎合各領域應用的計算要求,協助用戶配置應用環境,建立高效模型,設計合理并行算法,以實現各領域的科學計算和大數據處理在高性能計算機上的應用。

3.1生物計算與精準醫療

根據廣州國家超級計算中心的內部統計[10],生物醫學相關應用現在是超級計算中心的主要客戶。生物醫學研究主要包括生物大分子的結構模擬與功能建模,藥物設計與篩選,蛋白質序列分析,基因序列分析與比對,基因調控網絡的分析與建模,醫療衛生的雙數據分析及生物醫學文獻挖掘等。

生物醫學數據繁多,且一直呈指數增長。如世界最大的生物數據保存者之一,歐洲生物信息學研究所(EBI),存儲超過20PB的數據,并且最近每年的數據量都增加一倍[11]。數據源的異質性,包括基因組學、蛋白質組學、代謝組學、微陣列數據、文獻等,使其更加復雜。

針對典型類型的大數據——基因組大數據,在大數據框架(如Hadoop和Spark)的幫助下,云計算已經在大數據處理中發揮著積極作用?,F在,HPC在中國的快速發展使得以不同的方式解決基因組大數據挑戰成為可能。Yang等人[12]強調了在現代超級計算機上增強大數據支持的必要性,提出只需單個命令或單個shell腳本就能使當前的大數據應用在高性能計算機上運行,并且支持多個用戶同時處理多個任務的Orion作為高性能計算機的大數據平臺。該平臺可以根據大數據處理需求,合理分配所需的資源量,并使用HPC系統軟件棧自動建立和配置可回收的Hadoop/Spark集群。以華大基因提供的基因組學大數據作為案例研究,測試基因組分析流水線SOAPGaea的FASTQ過濾、讀取對齊、重復刪除和質量控制四個過程,證明了Orion平臺的高效性。

為更好地了解基因的精細結構、分析基因型與表現型的關系、繪制基因圖譜,DNA序列分析成為生物醫學中的重要課題[12]。

DNA序列的排序是對DNA序列分析的基礎[13]。通常先使用測序儀得到生物體基因組的一些片段,再利用計算機對片段進行denovo拼接,從而得到DNA序列的排列順序。而隨著測序儀的發展,基因組的數據量增大,分析復雜性提高,普通計算工具分析數據會消耗大量時間和空間。張峰等人[14]基于高性能計算機,使用一種新型序列拼接工具SGA(StringGraphAssernbler),對任務之間數據耦合度小的分批構建FM-Index,采用粗粒度的多進程并行;對任務之間數據耦合度較大的FM-Index合并過程,采用多線程的細粒度并行。這種多進程與多線程的混合并行策略,使用并行計算代替通信開銷,測試小規模數據時,將索引構建時間的最佳性能提高了3.06倍。葉志強等人[15]在基因組排序時,引入隨機listranking算法,基于高性能計算機,使用MPI并行實現Pregel框架的線性化步驟,利用節點之間的通信和計算能力,減少了線性化步驟時間。

SNP(單核苷酸多態性)檢測是DNA序列分析的關鍵步驟[16]。它將對齊的read、參考序列和被編排的數據庫(如數據庫SNPP)作為輸入,通過站點檢測對齊的read和引用站點的信息,生成SNP站點的列表。SNP檢測工具SoAPSNP可以用一個多星期的時間來分析一個覆蓋20倍的人類基因組。崔英博等人[17]通過重新設計SOAPSNP的關鍵數據結構以降低內存操作的開銷,設計CPU與XeonPhi協作的協調并行框架,以獲得更高的硬件利用率。并提出了一種基于讀取的窗口劃分策略(RWD),在多個節點上提高吞吐量和并行規模,開發了SOAPSNP的并行版本MSNP,在沒有任何精度損失的情況下,利用高性能計算機的一個節點實現了45倍的加速。

方翔等人[18]利用高性能計算機,構建了由基因組與轉錄組測序數據分析、蛋白質結構預測和分子動力學模擬三個功能模塊組成的生物信息平臺分析水產病原,對約氏黃桿菌等多種水生動物病原進行生物信息學分析。

從生物醫學文獻中提取有價值的信息的一種主流方法是在非結構化文本上應用文本挖掘方法。然而,大量的文獻需要分析,這對文本挖掘的處理效率提出了巨大的挑戰。彭紹亮等人[19]將針對疾病實體識別的軟件DNorm加入可高效識別基因、蛋白質、藥物、基因通路等實體關系的文本挖掘工具PWTEES流水線中,擴充了PWTEES的功能。使用LINNAEUS導入MEDLIN數據庫提供的摘要,并在個人賬戶目錄下,動態使用計算節點,編譯安裝配置了非關系型數據庫(MySQL),將大量非結構化數據(文獻)轉為結構化數據。將平時在普通服務器上需100天能完成的文本挖掘過程縮短為1小時,并利用200個進程并行挖掘7萬篇頭頸癌相關文獻中的關鍵命名實體,得到了80%以上的并行效率。Xing等人[20]開發了一個可運行的框架PARABTM,它能夠在超級計算機上實現并行文本挖掘。以GNormPlus、tmVar2.0、Dnorm三種命名實體識別任務為例,對多個數據集上PARABTM的性能進行了評價。結果表明,使用PARABTM并行處理策略中的短板匹配負載平衡算法(Short-Boardloadbalancingalgorithm),最大程度地提高了生物醫學命名實體識別的處理速度。

3.2全數字設計與制造

數字設計與制造是一種以計算機系統為中心的集成制造方法。隨著制造工廠中計算機系統數量和質量的提高,數字化趨勢迅速。越來越多的自動化工具被用于制造工廠,有必要對所有機器、工具和輸入材料進行建模、模擬和分析,以優化制造過程。而模擬能夠建模和測試一個系統行為特性,讓工程師能夠用更低耗、更快速同時更安全的方式來分析所做的設計會產生什么樣的影響。模擬的應用范圍廣泛,涵蓋了產品設計、過程設計以及企業資源安排[21]。在模擬過程中,利用超級計算機強大的計算能力,使工程師能在幾分鐘或幾小時內仿真和測試數千種設計方案。

利用數字化的方式,可以對產品進行結構力學分析、流體力學分析、電磁設計和多物理場模擬等多種計算仿真。

在計算流體力學CFD(CcomputationalFluidDynamics)領域的一大熱點研究問題就是如何在當前主流的眾核異構高性能計算機平臺上進行超大規模計算。楊梅芳等人[22]在高性能計算機的單個節點上,利用超然沖壓發動機燃燒數值模擬軟件LESAP模擬一個實際發動機燃燒化學反應和超聲速流動的問題,采用OpenMP4.0編程標準,向量化SIMD,優化數據傳輸過程,均衡基于網格塊劃分的負載技術,實現了軟件面向CPU+MIC異構平臺的移植,達到了3.07倍的性能加速比。王勇獻等人[23]面向高性能計算機探索了高階精度CFD流場數值模擬程序的高效并行性。在高性能異構并行計算平臺上進行了多個算例的數值模擬的結果顯示最大CFD規模達到1228億個網格點,共使用約59萬CPU+MIC處理器核,實現了移植后的性能大幅度提高。通過將算法移植到超級計算機進行大規模并行,能夠實現高效的流體力學分析。而文獻[24-26]都是針對空氣動力學中的具體分類利用高性能計算機進行模擬以驗證有效性的研究。利用數字化設計,能夠快速低成本地對設計性能進行分析評估。

在圖像模擬中,Metropolis光傳輸算法能夠利用雙向路徑跟蹤構建出由眼睛到光源的路徑,是MonteCarlo方法的變體。然后,使用Metropolis算法靜態計算圖像中光線的恰當的散射狀態,由一條已發現的光到眼睛的路徑,能搜索到鄰近路徑。簡單地說,Metropolis光傳輸算法能夠生成一條路徑并存儲其上的節點,同時能通過添加額外節點來調整并生成新的路徑。隨著對照片級真實感圖像的要求越來越高,為Metropolis光傳輸算法開發高效且高度可擴展的光線跟蹤器變得越來越重要。主要是渲染圖像通常需要花費大量時間,開發高效且高度可擴展的光線跟蹤器的困難來自不規則的存儲器訪問模式、光攜帶路徑的不平衡工作量以及復雜的數學模型和復雜的物理過程。Wu等人[27]提出了一種基于物理的高度可擴展的并行光線追蹤器,并在高性能計算機上進行了實現,利用多達26400個CPU內核,證明了其可擴展性,能夠從復雜的3D場景生成逼真圖像。

模擬高場非局部載流子傳輸同樣需要3DMonteCarlo模擬方法,通過適當的量子校正涵蓋散射效應,半經典的MC模擬能夠給出準確的結果。但是,MC方法中3D模擬和量子校正都需要巨大的計算資源[28],由效率出發超級計算機的計算能力就至關重要了。文獻[29]中,通過在高性能計算機上使用IntelMIC協處理器,進一步提高了之前工作中開發的3D并行的繼承MC模擬器的并行效率。

對于高性能計算機在全數字設計和制造領域的集成應用,國家超級計算廣州中心推出了天河星光云超算平臺,以云服務的方式提供CAE計算和HPC訪問,大大降低了數字設計的門檻,支持產品設計的全工作流。目前基于該平臺支撐的項目有諸如國產大飛機、高鐵等,都是國家工業生產中重要項目[30]。

3.3地球科學與環境工程

基于該應用領域,超級計算機的主要作用在于變革對自然界中諸如地理狀況、海洋、大氣等種種元素的模擬方式。以超算為平臺,不僅能模擬出地球上每個時期的狀況,甚至是對宇宙中的種種同樣能進行模擬分析,讓地球科學和環境工程的研究范圍不再限于此時此地,而是更廣闊的空間。

在宇宙學的層面,早在2015年就利用高性能計算機模擬出宇宙大爆炸后1600萬年之后至今約137億年的暗物質和中微子的演化過程,并將進一步尋找宇宙邊界的報告[31]。中微子雖然是自然界中的基本粒子之一,在宇宙大爆炸約1s后與其他等離子體物質退耦,形成看不見的宇宙背景,通過物理實驗和實際的天文觀測都無法精確測量中微子的質量。在高性能計算機平臺上,利用3萬億粒子來對宇宙中的中微子和暗物質的分布和演化進行模擬,開創了宇宙學中獨立測量中微子質量的道路。

在地球外圍層面上,大氣變化同樣是一個關注點。Xue等人[32]提出了一種基于高性能計算機的全球性大氣動態模擬的混合算法。通過使用更靈活的域分區方案來支持節點中任意數量的CPU和加速器,算法能夠充分利用超算的優良性能。當使用8664個節點,包括了近170萬個核心時,可以有效地利用節點內的三個MIC卡,對兩個IvyBridgeCPU(24個內核)實現4.35倍的加速。基于成功的計算-通信重疊,算法分別在弱和強縮放測試中實現了93.5%和77%的并行效率。

相較于廣袤無邊的宇宙,大部分人們對于腳下的土地更加關心。自然災害如地震、泥石流等,可能會造成巨大的生命財產損失,而地下油氣資源又是經濟社會發展所必需的,利用超級計算機去探索大地也是發展所需要的。

中石油集團開發的用于石油油氣勘探的GeoEast系統已經經過了十幾年的發展更新,在數據模型、數據共享、一體化運行模式、三維可視化、交互應用框架、地震地質建模、網絡運行環境和并行處理方面取得了多項創新與重大技術突破,是地震數據處理解釋一體化系統。目前GeoEastV3.0版本軟件總體達到國際同類軟件先進水平,為推動中國石油勘探開發領域不斷取得新成果發揮了重要作用[33]。但是,這樣的一體化系統在使用中勢必會產生大量的數據,這就對計算機的性能有了要求。因此,在GeoEast系統聞名世界的過程中,高性能計算機在幕后是功臣之一,保證了系統的順利運行,助力石油勘探工作[34]。而文獻[35]專注于地震模擬,提出了針對英特爾至強處理器的對于軟件SeisSol的優化,以適用于高性能計算機的計算環境中,通過全摩擦滑動和地震波的耦合仿真實現了空前復雜的地震模型。移植到高性能計算機的SeisSol提供近乎最佳的弱縮放,在8192個節點上達到8.6DP-PFLOPS,在所利用的整個高性能計算機上能達到18~20DP-PFLOPS,成功模擬了1992年蘭德斯地震。

3.4智慧城市云計算

城市發展經過多年的調整,已經在經濟上有了相當進展,目前從如何讓人們生活更加便捷出發,許多地區開始建設智慧城市。智慧城市(SmartCity)是指利用各種信息技術或創新意念,集成城市的組成系統服務,以提升資源運用的效率,優化城市管理和服務,進而能夠提高居民生活質量。智慧城市的發展不僅僅是對生活的改變,還能促進生產方式的轉變,解決在城市擴張及經濟高速發展中產生的一系列“城市病”問題。智慧城市,代表的是城市的智慧,由智慧,能夠衍生出智能中、知識和數字等更廣泛的內涵[36]。

迄今為止,廣州、北京、上海、寧波、無錫、深圳、武漢、佛山等國內城市已紛紛啟動“智慧城市”戰略,相關規劃、項目和活動漸次推出。高性能計算機云平臺應運而生,為智慧城市建立堅實、先進的基石。智慧城市由于其性能需求,對依賴的平臺的計算能力的要求會更高,而超算的計算能力就能為智慧城市的建設提供相當助力。在2014年,就有中國首臺千萬億次超級計算機“天河一號”在智慧城市中應用的報道,以其在天津濱海區的應用為例,“天河一號”的建筑信息領域的大數據平臺通過對建筑信息建模,實現對建筑物從規劃、設計、建造到后期物業管理理的全程數字化。此外,城市規劃、氣象預測、生物醫療、裝備制造、汽車碰撞模擬等行業,也能更多地通過“天河一號”,實現大批量數據計算、分析和存儲[37]。

而高性能計算機的持續計算速度進一步達到了億億次,所能提供的服務質量也更高,麒麟云平臺被部署在1920個節點(15個機柜),其中64個節點(兩個機框)作為云平臺控制節點,其余節點為運行虛擬機的計算節點和分布式存儲的存儲節點。為方便管理,將計算節點進行分區管理,512個節點(4個機柜)為一區,用于滿足生產環境、適配環境、測試環境需要。分布式存儲沒有分區,所有節點形成一個全局的分布式存儲池,但在使用時可按需劃分指定容量的區域供不同用途使用[38]。這種云超算服務采用麒麟安全云系統實現虛擬化技術,將虛擬機資源遠程推送給用戶使用[39]??赏ㄟ^互聯網遠程管理虛擬機資源,使高性能計算機云平臺資源能夠被更多人使用,超算的計算能力能夠更好地推動社會各個領域發展。2017年OpenStack的第15個版本中,麒麟云團隊在核心功能解決的Bug數,以及Commits的數量均進入全球前20,麒麟云的發展是非常迅速的,與開源社區緊密結合,貢獻突出[40]。

3.5材料科學與工程

在材料科學與工程的研究中,量子力學、經典動力學、統計力學是三大基礎且主要的研究方向。研究人員致力于材料參數的建模、多尺度平臺開發和新材料的設計、開發和優化。

分子動力學模擬在材料科學、生物化學和生物物理學等領域得到了廣泛的應用。分子動力學(MD)是研究分子和分子的物理運動的計算機模擬方法,它提供分子尺度上的微觀取樣。基于能量細化的輔助建模AMBER(AssistedModelBuildingwithEnergyRefinement)[41]是用于MD模擬的使用最廣泛的軟件包之一。然而,對于具有百萬原子級的系統的AMBERMD模擬的速度仍然需要改進。彭紹亮等人[42]在單CPU上的細粒度OpenMP并行、單節點CPU/MIC并行優化和多節點多MIC協作并行加速方面進行了改進。在高性能計算機上實現AMBER的并行加速策略,與原程序相比,實現了25~33倍的最高加速比。同時,對于計算資源的限制,分子動力學軟件GROMACS不能大規模地進行滿意的操作。Wang等人[43]提出了一種利用卸載模式加速GROMACS的方法。為了提高GROMACS的效率,提出了異步化、數據重組和數組重用等一系列方法。在這種模式下,GROMACS可以與CPU和IntelXeonPHITM多個集成內核(MIC)協處理器同時有效地配置,充分利用高性能計算機資源。

材料輻照效應(Materialirradiationeffect)是使用核能的重要關鍵之一。然而,由于高通量輻照設施和進化過程知識的缺乏,此效應的利用并不好。在高性能計算的幫助下,Hu等人[44]提出了一種新的數據結構,用于大規模并行模擬金屬材料在輻照環境下的演化?;谒岢龅臄祿Y構,開發了一種新的分子動力學軟件——CrystalMD,并在高性能計算機上進行了二兆個原子模擬,對MD輻射效應研究的模擬規模進行了擴展。

3.6其他領域

近年來,隨高性能計算的推廣,政府部門對超級計算機的重視,舊產業轉向新產業的變化及大量有高性能計算需求的企業對超級計算機的需求增大,超算人才培養初見成效[45]。在應用軟件開發等推動下,高性能計算機的適用范圍逐漸向更多領域滲透。

源于人工神經網絡的研究深度學習作為人工智能的一個新研究領域,在模仿人腦的機制來解釋如圖像、聲音和文本數據上有了很大進展。例如,卷積神經網絡(CNN)能準確地對大型圖像進行識別處理,然而CNN的訓練密集程度很高,特別是對于大型具挑戰性的任務,卷積層的參數數據量龐大。而高性能計算機的易訪問、高峰值等性能使學術界和工業界都可以輕松訪問相關平臺,并可以在合理的時間內訓練中等和較大規模的CNN。使用基于輸入展開以將其投影為矩陣乘法(Unfold+Parallel-GEMM)的算法的CAFFE、Theano、Torch7、Chainer、CNTK和TensorFlow等最先進的CNN基礎設施已可以在高性能計算機上進行部署和應用。

增強現實技術AR(AugmentedReality),將真實世界信息模擬至虛擬世界,讓人隨時產生真實感受。通過高性能計算機高效地實現算法,可以數字虛擬孕育“互聯網+”新業態,開發虛擬試衣、模擬試駕等應用項目。

篇3

關鍵詞 故障解決HPS IBM 高性能計算機

引言

IBM高性能計算機系統承擔中國氣象局主要的天氣氣候業務科研模式運行,系統在2004年末安裝以來,運行一直比較平穩。在整個系統中,數據交換是通過IBM HPS(High Performance Switch)網絡實現的,通過SWITCH網絡為用戶的并行作業提供通信。如果SWITCH網絡出現問題,就會影響模式的運行效率,甚至可以導致整個系統不能使用。在2006年9月21日,科研分區的SWITCH網絡故障,導致了整個科研分區的癱瘓,9月24日故障恢復;此次故障對數值預報系統和動力氣候模式預測系統的業務模式沒有影響,只是涉及了科研分區的用戶和作業。

1 故障基本情況

1.1 故障現象

2006年9月21日,科研分區的系統性能下降,用戶作業的運算速度比較慢,檢查發現HPS(High Performance Switch)[1]網絡的通信狀態大面積出現異常,影響了GPFS(General Parallel File System)[2]數據文件系統和作業管理軟件L DLEVEL的正常運行,導致用戶無法使用數據空間和正常提交用戶作業,最終導致了用戶無法使用科研分區;在SWITCH網絡通信正常后,GPFS文件系統中的有些文件不能正常訪問。

1.2 處理過程

在故障發生后,為了確保不影響業務, 對系統上運行的業務模式分析并做應急處理。系統承擔的業務模式包括數值預報業務模式系統和動力氣候模式系統,這些業務模式都運行在業務分區,但是動力氣候模式系統的用戶空間掛接在科研分區的服務節點上,為了避免維護科研分區時影響業務,緊急切換HACMP(High Available Cluster Multi—Processing),使文件系統掛接在業務分區。

在確保業務可以穩定運行后,由于當時用戶已無法使用科研分區,因此首先申請對科研分區進行停機維護,然后分析并解決故障,處理過程如下。

(1)分析HPS網絡通信數據,發現F45一S11和F46一S07的兩塊主板上的芯片內部通信不正常,決定更換這兩塊主板;但由于備件新損的原因,只有一塊主板可用,只更換了F46一S07 SWITCH的主板。

(2)在重新加電啟動完畢后,仍有大量的HPS網絡不能通信,導致GPFS不能穩定工作,用戶無法正常提交作業。

(3)用SWITCH管理界面檢查SWITCH狀態時,顯示大量節點存在光纖卡故障的報錯,但光纖卡的狀態指示燈顯示正常,更換了5塊光纖卡進行檢測,沒有作用,故排除了大批量光纖卡故障的可能。

(4)收集SWITCH的SNAP數據傳給美國實驗室,對數據進行分析;經過數據的多次收集傳遞,美國實驗室SWITCH產品專家對底層數據進行分析后,建議對F20、F21、F22、F24、F28、F30、F34、F36、F38、F45、F46、F47、F48、F49、F50機柜進行電源微碼刷新,刷新為統一的26A6版本后,SWITCH網絡恢復正常。

(5)系統啟動后,對科研分區進行檢查,發現不能正常訪問GPFS文件系統,3個文件系統均報I/O讀的錯誤,但可以正常寫入數據;fsl可以用mmfsck命令進行修復,但fs2和fs3均各有一個NsD(Net—work Shared Disk)的狀態為“down”狀態,然后手工啟動GPFS文件系統,整個系統恢復正常。

2 故障原因分析

2.1 控制信號傳輸過程

從圖1可見,IBM 高性能計算機系統是通過硬件控制終端HMC(Hardware Management Console)對主機和SWITCH的硬件進行控制,通過HMC上的SNM (SWITCH Network Manager)軟件管理HPS,在HMC上啟動FNMD(Federation Network Manager Daemon)進程,實現對HPS網絡的配置、初始化、監視、控制、恢復、分析和診斷。此功能與節點是否安裝操作系統無關,因為這些指令直接由HMC發起,控制指令都是通過電源傳輸的,只要電源正常,就會響應執行,SWITCH的拓撲結構是在電源啟動的過程中通過自檢獲得的。

每個HMC系統有一個RS232串口連接CSP(Common Service Processor)[2],畢業論文實現對主機的控制和管理,如開機、關機、關閉系統、重新啟動等;有兩個RS422串口分別連接節點和SWITCH機柜的兩個BPA(Bulk Power Assembly)電源,實現對BPA的監視和firmware管理。所有的HPS都是通過BPA提供電源,對于每一個SWITCH,通過HMC將信號發送給BPA,再通過BPA 將控制信息通過SWITCH的DCA(Distributed Converter Assembly)電源傳送給SWITCH,來實現對SWITCH的管理。

2.2 SWITCH初始化實現的功能

在啟動SWITCH之前,首先要確保HMC已經正常啟動;在SWITCH 機柜加電后,由SSP(SWITCH Service Processor)控制SWITCH的加電過程,在每一個SWITCH芯片的寄存器中記錄本地以及相鄰芯片的機柜號、端口號等信息。

在節點機柜加電后,每個SNI芯片寄存器中保存自己的機柜號和GX-BUS信息,并將這些信息傳輸給相鄰的SNI芯片寄存器。

由HMC節點啟動FNM進程,對所有的硬件控制器初始化,配置FNM 網絡;網絡配置好以后對FNM初始化,FNM 將與每個激活的SWITCH和SNI網絡部件通信;將FRAME、CHIP、PORT、ROUTE、SWITCH等信息都保存在寄存器中,節點轉入LPAR狀態后將信息保存在內存中,SWITCH初始化完畢。

轉貼于 2.3 故障原因分析

在2006年6月到9月期問,科研分區共更換了7塊BPA機柜電源、8塊SWITCH DCA電源、8塊p655 DCA節點電源。

由于IBM高性能計算機系統的有些電源模塊被更換,并且有些備件號發生了變化,雖然新備件可以實現對原備件的替代功能,但是新舊電源備件的微碼版本部分存在不一致;而SWITCH的控制信息是通過HMC—BPA—DCA進行傳送,電源相關部件微碼版本的不一致影響了信息的正常傳送,進而影響SWITCH的網絡初始化,不能得到正確的網絡拓撲結構,導致不能建立正常的SwITCH通路;而通過刷新一次機柜電源BPA同版本微碼,使電源模塊上的通信進程狀態重新初始化(歸零操作),清除了電源模塊上的錯誤通信信息記錄,可以將控制信息正確傳送,重新建立了正確的網絡通路。

GPFS文件系統不能正常讀寫主要是由于SWITCH網絡通信不穩定,GPFS的通信頻繁發生中斷,所以GPFS的文件系統也會頻繁異常上線或離線(mount或umount狀態),使GPFS文件系統控制的有些硬盤上的NSD(Network Shared Disk)控制信息不一致,GPFS為了保證數據的安全性,系統自動對此NSD進行了隔離操作。

3 故障事件的分析和啟發

從這次發生的故障情況來看,由于在系統本身設計和日常維護的過程中考慮了高可靠性和對于用戶數據的一致性管理,因此在科研分區出現問題的情況下,并沒有影響業務作業的正常運行,這是對系統高可靠性的一次檢驗;但同時通過這次故障事件,也發現了我們的許多不足,并且也為日常維護提供了一個經驗和教訓。

3.1 系統可靠性驗證

由于在系統設計上考慮了用戶文件系統高可用性的設計以及全局的用戶環境一致性,職稱論文 同時在日常維護工作中對用戶文件系統都做了備份,因此對業務用戶沒有造成影響。

3.2 系統本身的問題

SWITCH設備故障率比較高:從系統投入運行以來,SWITCH設備的故障率就比較高。2006年5月1日到10月31日期問,科研分區就出現了39次SWITCH硬件故障,其中光纖卡故障22次,銅卡故障6次,主板故障1次、電源故障10次;業務分區有17次SWITCH硬件故障,其中光纖卡故障8次,電源故障9次。

故障診斷定位難:在對SWITCH設備維護時,光纖卡和銅卡的故障診斷相對容易,故障現象明顯,有冗余連接,一般不影響系統和用戶的正常使用;而SWITCH背板故障及電源微碼不一致等故障,則不容易定位具體的故障點,對系統的影響也比較大。

3.3 日常維護及管理問題

日常維護不夠深入:在日常的維護過程中,主要還是停留在處理現象明顯的軟硬件故障,并沒有對系統的一些潛在故障進行分析研究,而且對系統了解不夠深入,在出現大的故障時不知如何判斷處理。

管理流程不完善:從本次故障來看,備件不能滿足在重大情況下的處理要求;廠家技術支持不暢通,響應速度慢,這都直接延長了故障恢復時問。

4 后續工作和建議

此次故障發生后,陸續完成和制定了一些工作計劃。

(1)完成了業務分區電源微碼的檢查。察看了業務分區SWITCH的微碼版本,發現也存在需要重新安裝的警告提示,但是由于報錯的機柜比較少,并沒有對系統造成影響,目前已經完成對業務分區電源微碼的統一刷新。

(2)制定了IBM 高性能計算機系統業務應急備份方案。當遇到緊急情況時,能夠快速評估當前狀況并進行處理。

(3)完成了系統存儲資源的擴充。擴大了目前用戶的存儲資源,并滿足了業務應用系統備份的資源需求。

(4)完成了HPGS系統的微碼升級。2007年4月已經將整個系統HPS的Service Pack版本級別升級到21。

(5)加強管理。督促廠家人員完善技術緊急支持的響應速度和流程,保證技術支持的暢通;同時要確保備件的充足可用。

(6)加強維護手段和交流。在日常維護中,工作總結 不僅是滿足于簡單的問題解決,需要深入分析診斷,找到問題的真正原因,避免潛在的隱患故障;同時要多通過學習以及技術交流,加深對全系統的了解,不斷提高維護水平,提高自己的故障解決能力。

5 結束語

此次故障雖然沒有對我們的業務造成影響,但是通過此次故障情況,我們看到了我們還存在的許多不足,需要我們在以后的工作中加以改進。通過不斷地分析和總結,維護好我們的系統,保持系統高效穩定的運行。

參考文獻

篇4

盡管如此,我國在高性能計算領域也取得了驕人的成績。目前世界高性能計算機TOP500中,中國已經擁有29臺高性能計算機,占世界總數的5.6%,居第四位。其中,星盈超級刀片計算機因為擁有自主知識專利,設計理念獨到,實力倍為業界看好。

據了解,2004年,蜆殼星盈公司成功推出了一臺運算速度為每秒4.046萬億次,實際運算效率高達84.35%的超級刀片計算機,乃世界同類產品中運算效率最高的。2005年,星盈GT4000型超級刀片計算機被列入了世界高性能計算機TOP500的第100位。

傳統缺陷制約推廣

當今社會,服務器已經進入了技術、應用和市場互動并迅速發展的新階段,越來越多的領域都需要采用高性能計算機提高自身競爭力。如國防、氣象、航天、交通、電信、金融、醫療、商務和科學等。然而,隨著需求的進一步擴大,傳統的高性能計算機在某些方面的不足更顯突出,在一定程度上又制約著高性能計算機的進一步推廣,主要表現在以下幾個方面:

一、機群系統瓶頸。在氣象服務、石油勘探、新材料、新藥物研制等領域對計算任務要求都非常高,它們往往需要在較短的時間內解決一些數據規模龐大,算法結構十分復雜的問題。這就不僅需要對這些數據進行高速運算,而且還要求存儲系統有著巨大的空間來支持。而目前傳統機群系統很難達到相應的高速運算與海量存儲要求。另外,機群系統內部的一些缺陷,如I/O接點的數量與計算節點的數量不匹配、I/O節點與存儲設備之間的吞吐能力、節點間的大量的網絡數據交換等,這些瓶頸都會嚴重的影響系統整體效率。

二、系統的穩定性與安全憂。由于企業常常要對數據進行大規模的海量運算,任何中斷情況都會使之前的數據計算白忙一場,從而影響整個工作效率,因此保持系統運轉的持續穩定性十分重要。而在安全性上,隨著信息技術的發展,對企業來講沒有什么比核心數據失竊更為嚴重的事情了,而傳統設計在數據保護方面考慮相對較弱。

三、可拓展性和現有資源的利用性較差。隨著應用的深入,每一個企業的計算需求都可能逐漸增長,但它們往往不愿意“棄舊換新”,而是希望將新的計算節點循序漸進地添加到原有的系統中去,逐步擴展為一個“包含舊系統”的新系統,從而更大限度地保護原有資源。傳統的機群系統,不僅購入的初始成本高昂,而且升級過程繁瑣拓展性差,再加上各個廠家的技術標準各不相同,產品不能兼容使用。這些問題對企業來講都是頭痛的問題。

四、管理與維戶的復雜性。部署多個服務器是一個耗時和資源密集的過程。管理員需要將每個服務器安裝在機架中,進行電源和網絡布線,并為其安裝軟件。在高密度的環境下,布線尤其是部署中令人頭疼的難題之一。而一般的企業都缺乏專門系統運營與維護人員,一旦發生故障,將會使管理與維護工作十分麻煩。

先進設計理念引領

為了克服上述缺陷,星盈超級刀片計算機采用了一系列革命性的設計理念,其理論運算速度可超過每秒100萬億次浮點,資料存儲量可超過1000萬億字節,達到美日等先進國家高性能電腦的水平。星盈超級刀片計算機中的每個“刀片”就是一個運算單元,可以在不停機的情況下隨時增加或更換。如此設計可以使產品具有以下幾種優勢:

首先,星盈超級刀片計算機采用Infiniband等高帶寬和低延遲的開放和標準的網絡互聯設備, 并且采用的存儲網格更進一步為支持高性能計算機系統提供可伸縮的存儲和I/O能力,消除了I/O瓶頸。值得一提的是,隨著高性能刀片計算機的體系結構向基于標準的、機架密集的服務器的轉變,數據中心將產生許多問題,星盈超級刀片計算機的體系結構將能夠緩解和解決這些問題。使用星盈超級刀片計算機,Linux操作系統和InfiniBand等現代互聯技術來建立的高性能計算機不僅能夠提供高性能,而且能夠提供高密度,改善可管理性,降低功率消耗,增強部署和可服務性,大大降低總擁有成本,可以幫助用戶把計算資源最大化整合,提供了最大化計算性能密度。

其次,星盈超級刀片計算機支持最新RAID-6技術,確保存儲數據安全。RAID-6加速技術使系統能夠以最高性能運行,即使剛剛從多個磁盤故障中得以恢復也不例外。這種存儲加速能力可為星盈超級刀片計算機提供更快的吞吐率,并可提高數據在輸入輸出硬盤時的可靠性。

再次,星盈超級刀片計算機將傳統的高端服務器的所有功能集中在一塊高度壓縮的電路板中,然后再插入到機箱中。在同一系統里,星盈計算刀片和貯存單元可隨時升級。通過獨有的中板專利技術與內存的高性能I/O標準接口,升級只需增加刀片或貯存單元,不需要重新布線或配置,也無需更換系統及操作和應用軟件,具有超長的使用生命,使得總體擁有的成本(包括購買、維護、機房、電力、人員和管理費用)大大降低。

最后,在安裝星盈超級刀片計算機時,管理員只需要對機架進行安裝和布線,單獨的刀片服務器無需布線。由于多個刀片服務器可以共用冗余電源,因此最大限度地減少了機架布線。對于寸土寸金的數據中心來說,根據設計和供應商的不同,星盈超級刀片計算機能夠使服務器的密度比目前1U的機架優化的系統增加100%到800%,更大的節約空間。

星盈高性能刀片計算機

篇5

隨著IBM高性能計算機“走鵑”于2008年6月誕生,高性能計算機(HPC)邁入千萬億次門檻。用戶對高性能計算需求的持續增長,推動著HPC規模越做越大。在由CPU構成的高性能計算的世界中,由于CPU計算性能的提升速度遠遠落后于高性能計算需求增長的速度,增加CPU的個數便成為提高HPC性能的主要途徑。如今全球高性能計算500強(Top500)中已經出現內核累計總數多達20多萬個的HPC。

但是,在提升性能的同時,CPU個數的增加也給HPC增添了復雜性,并帶來可用性降低、系統功耗驚人、成本高居不下等問題,讓HPC廠商日益感到頭痛。于是,高性能計算廠商開始探索新的提升HPC性能的途徑。IBM的“走鵑”就是采用CPU和Cell處理器的混合架構,AMD和Intel也都分別對外了各自的CPU+GPU(圖形處理器)的混合架構。

作為GPU領域龍頭老大的NVIDIA自然不會放棄在高性能計算這一CPU的傳統領地炫耀性能的機會。它先是推出了CUDA架構,使得程序員可以用C語言對CPU和基于CUDA架構的GPU進行統一編程,從而解決了因編程復雜而被程序員敬而遠之所造成的GPU應用難以普及的問題。進而,它又推出了面向高性能計算的Tesla系列GPU。2008年11月21日,NVIDIA在美國德克薩斯州奧斯汀市舉辦的2008超級計算大會上聯手HPC的巨頭Crayon推出個人HPC。與此同時,會上公布的Top500中,采用Tesla技術的HPC首戰便占據了第29名的位置,標志著NVIDIA從個人HPC和高端HPC全面切入高性能計算領域。

為此,本報記者獨家專訪了NVIDIA高性能計算事業部總經理Andy Keane。

HPC中的GPU

記者:GPU在高性能計算中的性能已經到達了何種地步?

Keane:CPU的運算速度在很大程度上還取決于緩存的大小,而GPU則是在任務并行化后用大量的線程來進行運算。雖然CPU已經多核心化,可以多達8個內核,但在并行計算時,顯然不是GPU上千個線程的對手。

比利時有所大學,以前用的是512個CPU組建的HPC,當他們了解到GPU的運行功能很強后,試著自己搭建了一臺配置有8個GPU的臺式機,結果性能竟與以前512個CPU的HPC不相上下。

記者:既然GPU的性能遠遠超過CPU,那么NVIDIA何時開始關注GPU的計算能力?

Keane:15年前,我們就開始針對3D游戲開發GPU了。但GPU的編程很復雜,因而應用主要是集中在圖形顯示領域。之后,我們開發了CUDA架構,你可以把CUDA想象成與x86相似的硬件架構,它允許應用開發者用他們熟悉的語言對GPU進行快速編程,從而為GPU拓寬了應用范圍。現在,NVIDIA所有的GPU都支持CUDA架構。

記者:懂得計算機的人都知道,并行編程要比串行編程復雜得多。程序員如何在CUDA平臺上對CPU和GPU統一編程?

Keane:盡管CPU與GPU之間在架構上存有很大的區別,但我們覺得CPU與GPU的結合才是最好的計算架構。于是我們在CUDA上推出了C語言編譯器,程序員在開發應用程序時,只要對序列執行的程序代碼和并行執行的程序代碼簡單地進行標注,C編譯器就可以向PC解釋哪部分該由CPU做,哪部分該由GPU做。

記者:CUDA的編程看來不難,那么搭建一個個人HPC難不難?

Keane:用Tesla組建個人HPC是件很容易的事。你只要把買到的Tesla卡插到PC主板上的PCI插槽,你的PC就變成了1臺個人HPC。

記者:Tesla貴嗎?

Keane:4個GPU的價格在9500美元~1萬美元之間,3個GPU的Tesla價格為7000多美元。但與同等價位的工作站相比,我們的性能應該有百倍的提升。

競爭對手

記者:我們看到現在全球性能最高的HPC“走鵑”所采用的CELL處理器實際上就是一個集成了8個流處理器和一個CPU內核的處理器,而GPU也是由數百個流處理器構成的。你是如何看待CELL的?

Keane:CELL的編程要比CUDA復雜得多。CUDA本身就是一個GPU架構,我們所有GeForce、Quadro和Tesla產品線都可以很完美地對其提供支持。它的編程模式是很簡單的,語言與C語言非常接近,編譯器與C語言也基本一致。唯一的改變是將之前的串行計算更新為并行計算。在過去的一年中,CUDA積累了大量的應用程序,而且在美國,也有很多活躍的論壇討論CUDA的編程問題。我們也在CUDA中文網站上開設了CUDA中國專區,上面有144個使用的案例。對于程序員而言,這些編碼都是開放的。

記者:在基于Tesla搭建的HPC中,GPU與CPU從指令集上看是異構的。而英特爾最新展示的具有80個內核的Larrabee卻采用的是x86指令集,從而實現了CPU和GPU在指令集上的兼容,對于程序員來說,這是否會比Tesla編程更為容易呢?

Keane:我并不這樣認為。在NVIDIA的CUDA平臺上,不管面對何種架構,編程人員都可以用很普及的C語言去對CPU和GPU進行統一編程。對于程序員來說,Tesla的編程是很簡單的。而Larrabee無法用C語言來編程,程序員要學習這種新架構和它的語言并用兩種語言分別對CPU和GPU進行編程。

記者:AMD選擇GPGPU(通用GPU)來切入高性能計算領域,對此你有何見解?

Keane:關鍵要看它的普及率了。這里有兩個數據:英特爾x86處理器市場占有85%的份額,AMD只占15%;同時,AMD的FireStream只有5%的使用率。你為客戶定制產品的確會又好又快,但如果產量不高,成本無法有效攤薄,價格就會非常高。 而我們主要針對主流市場,用更加標準的界面來制作,讓用戶很容易使用,而且有能力承受。我們能夠讓很多研究人員將原本要跑到數據中心去做的計算轉移到插有Tesla卡的工作站上,并很容易地獲得高性能計算的體驗。

應用領域

記者:TOP 500中,x86架構CPU已經占據了90%的地盤。請問Tesla進入高性能計算市場的機會有多大?

Keane:幾乎是100%。我們強調的是異構計算,GPU不可能完全取代CPU,只是能顯著地減少CPU的數量。如果我們從另外一個角度上看這個問題,其實全都采用一樣的架構未必是件好事。如同在GPU領域,因為有我們GPU、Intel的Larrabee和AMD的ATI的存在,因此大家可以互相激勵,充分開展競爭,刺激創新。但是服務器領域的架構幾乎統一,這對創新是不利的。

記者:那么在工作站方面呢?

Keane:工作站的限制主要在于工作站機箱內部空間的限制,例如工作站的電源只能提供1000W的功率,那么,我們可以在這1000W之內給你提供盡可能高的計算性能,比如說1T的性能。

記者:無疑,Tesla個人高性能計算機的性能遠好于現在的工作站,但目前工作站上的很多應用軟件都是基于UNIX系統,廠商們愿意把它們移植到Tesla平臺上嗎?

Keane:這些開發商面臨著決定應用何種并行運算解決方案的選擇。其中之一為多核CPU解決方案,即將計算工作分配到雙核、四核甚至八核上。這樣,對于開發人員來說,如果他們要想通過并行計算來得到性能的提升,就必須將應用分解為4塊甚至8塊。這其中最大的挑戰是如何將計算工作劃分為完全均衡的4塊或者8塊。另外一種解決方案類似Intel的Larrabee,開放人員可以用比多核解決方案更為簡單的方式解決并行計算的問題。但是針對并行運算,GPU架構可以非常簡單地實現非常大規模的并行計算。如果你要按照時間和效率來衡量這幾種選擇方案,GPU無疑是效率最高的。

記者:未來工作站會不會被Tesla個人超級計算機替代?

Keane:對于任何使用集群的用戶,都有應用Tesla GPU的需要。我將努力說服他們中的所有人。利用工作站進行高性能計算的用戶也是我們的目標人群,我們也希望讓他們認識到我們的好處。事實上,如果用戶很看重預算和效率,對成本和時間很敏感,那么Tesla對他們來說就很有價值。

未來發展

記者:在CPU領域,虛擬化是一個很時尚的話題,Tesla也能虛擬化嗎?

Keane:如果CPU可以做到虛擬化,那么GPU也可以做到虛擬化。因為他們都是基于處理器架構的。就好像將GPU作為CPU的一個資源,只要CPU可以實現虛擬化,那么GPU也可以作為CPU的資源實現虛擬化。

記者:Tesla現在使用C語言編程。我們知道C語言與硬件很容易結合,也易于控制。聽說NV還要在Tesla上使用Fortran,這樣會不會影響到效率?未來還會有其他語言嗎?

Keane:Fortran是非常結構化的語言,并行計算的性能非常好,在GPU上的執行效率甚至更高。同時,在未來我們還將增加C++等語言。

記者:既然在Tesla計算機中,Tesla GPU要與CPU協同工作,那么,未來GPU和CPU會不會集成在一個芯片上?

Keane:我們不認為GPU和CPU將會融合。因為目前GPU的設計比CPU還要復雜,GPU擁有更多的核心,更高的內存容量,芯片的面積也很大。我們的客戶也對計算性能和內存提出更高的要求。我們所能做的是提升制造工藝,從而降低芯片的面積。

我們當然可以把一個小型CPU集成進來,但這樣對GPU計算性能的提升并沒有益處。就高性能計算而言,高速異構計算架構是一個CPU搭配多個GPU,然后更多的CPU搭配更多的GPU,這樣,GPU就可以發揮加速器的作用。

篇6

有人問,浪潮對高性能計算機有什么看法?也許發問的人應該首先弄清楚高性能計算機是什么。高端計算機=高性能計算=HPC=linpack?高端應用=高性能計算 =高性能科學計算=科研計算?事實上,我們應該把高端應用理解為高性能計算機,把高性能計算機理解為高性能科學計算,這與國外的理解是不太一樣的。

像IBM和HP,在這一領域稱得上壟斷者,他們花了很少的精力來講高性能計算,花了更多的精力來講高端服務器,他們為什么這么做?其實,在總結了這些廠商在國內外的盈利情況之后,我們發現,高性能計算產品并沒有為IBM這樣的廠商帶來很大的利潤,反而是商業應用為他們帶來了更多的收入。但目前我國做高性能計算研究的企業主要面向科研和高效市場,而要讓這些用戶拿出很多的錢來買一個產品是不現實的。這又是一個我國與國外的差異所在。

另外的差異就體現在研究方面。在國內,無論是企業界還是學術界,大家在講到體系結構的時候會比較注重于集群,在其他重要體系結構的研究上投入較少,也就是說,國內的高性能計算體系結構以集群為主,對SMP/NUMA等體系結構的研究較少,過于依賴國外底層技術,對處理器、芯片組、交換互連的研究投入不足;重單一指標,不重綜合指標,重系統浮點計算性能指標,對綜合應用能力的重視不夠;重視數值計算類應用,強調高端系統數值計算能力,不重視OLTP指標、SPECWEB等面向商業應用的指標。即使在高性能計算領域也有這樣的問題,如比較注重計算能力的提升,而對應用建模的研究和算法這些方面的研究就比較弱一些。所以在這種情況下,我們應該在戰略的角度上更加關注高端商業產業的發展,提供一些基礎技術。

從目前來看,無論是國內還是國外的企業都很注重虛擬技術,對于如何把高端的服務器產品折合成小的服務器產品滿足不同的應用,或者如何把小的產品整合成大的產品,來滿足大的需求,也有不同的看法。未來的一個發展方向是,我們做出的中高端服務器產品要是一流的產品,而且能逐漸應用在越來越多的領域中。

篇7

第一,基于多核CPU技術的刀片服務器已經成為高性能計算的發展趨勢。值得關注的是,排名全球第一的高性能計算機“走鵑”,采用的就是混合架構,并且涵蓋了CELL芯片。

第二,GPU技術會給地球物理、高密度運算、可視化處理帶來新機會。GPU技術被證明是一項加快計算、可視化、圖像分析、模式識別、計算機視覺完美結合的技術。東方地球物理公司研究院(以下簡稱東方地球)也在做應用GPU技術的相關實驗,并且應用了768個節點。整個中石油一共用了7套系統做實驗,應用環境就是油田,并且目前已經取得了一些進展。國外的一些同行公司也在應用了GPU的混合架構上成功地開發了自己的應用軟件。隨著地震軟件商對GPU技術的支持,可視化處理解釋系統、疊前遷移數字建模的效率很可能會大幅度提升。目前這項技術存在的最大問題是很少有支持這個平臺的應用軟件。

第三,高密度、多路服務器技術將會成為地震處理和綜合解釋研究的新平臺。我們與專家交流后認為,四路服務器可能是比較合適的選擇,不僅胖節點可以采用多路服務器,包括東方地球現在進行的信息化建設也是采用多路服務器來作為一個大平臺,分區給不同應用使用。

第四,萬兆以太網將給高性能計算的發展帶來新生機。盡管目前由于成本太高,萬兆以太網和Infiniband的應用市場不及千兆以太網,但它們還是相當有競爭力的。1995年新興的網絡技術只能提供10兆以太網,到1998年,已經發展成為千兆以太網,1999年更推出了萬兆以太網。如今,超萬兆以太網已經脫離了實驗階段。有專家預測,到2011年~2018年的時候,網絡技術才會出現比較大的改進,萬兆以太網也會因為成本的降低而逐步替代目前的千兆以太網。

篇8

關鍵詞:高性能計算;應用;中醫藥

中圖分類號:R-3 文獻標識碼:A 文章編號:2095-5707(2016)06-0010-03

Abstract: High performance computing (HPC), as a new and important research tool, has been applied in many fields successfully. Application of HPC in the TCM field is still in the exploratory stage. HPC in the future may be innovatively applied in the field of genomics Chinese herbal medicine, virtual medicine screening of new TCM, TCM data mining and big data analytics, modeling and simulation and so on.

Key words: high performance computing (HPC); application; TCM

高性能計算是計算機科學的一個分支,研究并行算法和開發相關軟件,致力于開發高性能計算機。高性能計算是世界各國競相發展的前沿技術,是體現一個國家綜合實力和科技競爭力的重要指標。

科學計算作為科研方法變革的產物,已經發展成為與傳統的理論、實驗并駕齊驅的第三種科研方法,并且日益成為越來越重要的科研方法??茖W計算方法的運用,是高性能計算應用的基礎和前提條件,而使高性能計算真正發揮作用主要取決于高性能計算的應用研究水平[1]。本文對于促進高性能計算未來在中醫藥領域的應用、豐富中醫藥信息學的研究內容及由此產生的中醫藥科研方法的創新具有推動作用。

1 高性能計算應用概況

1.1 我國在高性能計算應用領域仍處于落后水平

在高性能計算的研發和應用領域美國一直處于世界領先水平,日本和歐洲國家緊隨其后長期位居世界先進行列。近年來,我國在高性能計算硬件的研發方面取得了突破性進展,通過自主創新逐步掌握了一批硬件研發的關鍵技術。中國國防科技大學研制的天河系列超級計算機連續多次在世界超級計算機排行榜中名列首位,標志著我國高性能計算的硬件研究水平目前已經接近國際先進水平。但在應用軟件方面的發展嚴重滯后于硬件的發展水平,自主開發的高性能計算應用軟件嚴重匱乏,需要大量購買和引進國外開發的應用軟件,重要和關鍵部門的應用受制于人[2]。應用軟件是高性能計算應用的基礎,由于應用軟件研發水平的嚴重落后,目前我國在高性能計算應用領域仍處于落后水平。

1.2 國內外高性能計算主要的應用領域

高性能計算作為嶄新和重要的科研工具,目前已經在眾多的領域得到了成功應用,各種前沿科學研究、技術開發和工程設計都越來越多地使用了高性能計算,高性能計算已經日益成為科技創新的重要力量。目前主要的應用領域包括氣象數值模擬與預報、地震預報、納米技術、生物醫學、環境科學、空間科學、材料科學、計算物理、計算化學、流體力學、地震三維成像、石油勘探、天體星系模擬、大氣與海洋模擬、固體地球模擬、工業設計、核武器研究、全球氣候模型、湍流分析、飛行動力學、海洋環流、流體力學和超導模型等[1]。在生物醫學領域的應用目前主要集中在人類基因組學、蛋白質組學、藥物設計、分子動力學模擬等方面。

1.3 高性能計算應用的瓶頸

高性能計算雖然已經在眾多領域得到了成功應用,但由于技術難度等的限制,仍然屬于高投入高產出的非普及型應用。目前制約高性能計算應用的主要問題包括軟件開發的技術難度非常大,系統使用成本過高,不僅體現在軟硬件購置費用昂貴,而且系統運行維護成本過高,大型系統的年電費需上千萬元[2]。比較高精尖的應用范圍、非常高的技術要求和過高的使用成本,這些都限制了高性能計算的廣泛應用。

2 高性能計算在中醫藥領域應用的可行性分析

2.1 高性能計算在領域應用的前提條件

高性能計算在領域應用的條件首先需要應用領域具有較高的科研水平,特別是能夠通過科學計算的方法建立相應的數學物理模型和應用軟件來解決實際問題,利用高性能計算才有可能促成應用領域研究水平的大幅度提高。通過對高性能計算應用領域的最高學術獎戈登獎獲獎項目的分析,這些獲獎的應用項目絕大多數都具有多學科交叉融合的背景,這反映了高性能計算的應用需要應用領域與計算機科學、數學等學科的跨學科合作[3]。隨著高性能計算的應用,近些年高性能計算與應用學科的交叉學科不斷涌現,產生了計算化學、計算物理學、計算生物學等許多新興學科,這些交叉學科的產生標志著高性能計算在這些領域得到了高水平應用。

2.2 計算生物學的啟示

計算生物學是一門以生命科學中的現象和規律作為研究對象,以解決生物學問題為最終目標,通過模擬和仿真的方法對生物學問題進行定量和定性研究的新興學科。計算生物學與生物信息學比較,最大的不同之處在于生物信息學側重于生物信息的采集、存儲、處理和分析,而計算生物學側重于對生命現象進行研究、解決生物學問題[4]。目前計算生物學領域的研究主要集中在蛋白質行為的模擬、藥物分子的篩選、基因測序等方面。

雖然目前中醫藥領域還不滿足高性能計算的應用條件,但通過借鑒計算生物學的研究方法,未來有可能在中醫藥領域開展具有創新性的高性能計算的應用研究。

3 高性能計算在中醫藥領域應用的展望

3.1 中藥植物藥的基因組學

基因組學是遺傳學的一個分支,研究生物基因組和如何利用基因,涉及基因作圖、測序和整個基因組功能分析,研究內容包括以全基因組測序為目標的結構基因組學和以基因功能鑒定為目標的功能基因組學?;蚪M學是高性能計算應用的一個重要方向,沒有高性能計算人類的基因組計劃就不可能實現,高性能計算已經成為基因組學研究不可或缺的科研工具。隨著基因組學研究的深入、技術的成熟和成本的大幅度下降,使得基因組學的研究逐漸由人類的基因組學擴展到動物、植物等多個相近領域。利用高性能計算在基因組學方面成熟的應用軟件開展中藥植物藥的基因組學研究未來有可能是高性能計算在中醫藥領域的重要應用。

3.2 中藥新藥的虛擬藥物篩選

利用高性能計算進行虛擬藥物篩選目前已經成為西藥新藥開發的一條嶄新和重要的途徑。新藥研發的核心工作之一是從大量的化合物樣品庫中發現有藥理活性的化合物,計算機虛擬篩選輔助新藥開發是利用統計學和分子模型化技術來指導新的先導結構的發現或設計,從而減少實驗室的工作量,縮短開發周期、降低開發成本。近年來對多靶點藥物的研究已經成為國際上新藥開發的一個重要的研究熱點,中藥是天然的多靶點藥物,蘊含著巨大的新藥創制的潛力[5-6]。應用高性能計算開展中藥新藥的虛擬藥物篩選有可能成為中藥新藥開發的嶄新途徑。

3.3 中醫藥數據挖掘和大數據分析

數據挖掘是從大量的、不完全的、有噪聲的、模糊的、隨機的實際應用數據中,提取隱含在其中的、人們事先不知道的、但又是潛在有用的信息和知識的過程。大數據分析是指對規模巨大的數據進行分析,目前世界各國對大數據分析技術高度重視,大數據被視為國家重要的戰略資源。數據挖掘和大數據分析是高性能計算應用的重要領域之一。目前中醫藥領域的數據挖掘和大數據分析主要集中在對方劑配伍規律、中醫證治規律等的研究,現有的研究水平還不能構成對高性能計算的迫切需求。隨著數據挖掘和大數據分析在中醫藥領域應用水平的提高,數據研究的內容、方法和結果的日趨豐富,隨著數據量的積累和研究方法復雜度的提高,中醫藥數據挖掘和大數據分析未來有可能成為高性能計算在中醫藥領域富有潛力的應用。

3.4 模擬與仿真

模擬與仿真是依靠計算機通過數值計算和圖像顯示的方法,對工程、物理、生物等各類問題進行研究。高性能計算不僅具有強大的計算功能,還可以模擬或代替由于受經濟或者其他條件限制不能進行的實驗。2013年10月,哈佛大學教授Martin Karplus、斯坦福大學教授Michael Levitt和南加州大學教授Arieh Warshel因“為復雜化學系統創立了多尺度模型”而獲得諾貝爾獎,評委會聲明中稱這一成果意味著對于化學家來說計算機已經成為同試管一樣重要的工具[1]。

計算機模擬方法在生命科學中已經得到了迅速的發展和廣泛的應用。高性能計算應用領域的最高學術獎戈登獎獲獎項目“在20萬CPU核和異構體系結構上的千萬億次持續性能血流模擬”,該項目模擬了血液流動狀態,可以輔助血栓的早期病理學診斷及抗血栓藥物的研究。另一項獲獎項目“呼之欲出的貓:包含109規模神經元、1013規模突觸的大腦皮質模擬”,對神經元和突觸規模與貓大腦相當的大腦皮質功能進行了模擬,并以此為基礎開展了認知計算的研究[3]。此外國內外大量的高性能計算被用于分子動力學模擬,分子動力學模擬是一種數值模擬方法,通過將分子抽象為由化學鍵連接的質點按照基于牛頓力學的數學模型迭代求解分子體系的行為。利用高性能計算進行分子動力學模擬已經成為化學和生物學研究中與實驗手段相當的標準研究方式[7-8]。模擬和仿真技術在中醫藥研究中的應用未來有可能成為高性能計算在中醫藥領域創新性的應用。

4 小結

高性能計算的應用是使高性能計算真正發揮作用的軟實力,是高性能計算領域重要的研究內容。高性能計算的應用需要多學科的交叉與合作,計算生物學的產生標志著高性能計算在生物醫學領域得到了成功應用。

高性能計算在中醫藥領域的應用目前還處于探索階段,尚不具備大規模應用的條件和基礎。未來有可能通過借鑒計算生物學的研究方法在中藥植物藥的基因組學、中藥新藥的虛擬藥物篩選、中醫藥數據挖掘和大數據分析、模擬與仿真等領域進行開創性的應用研究。高性能計算在中醫藥領域的應用將會對中醫藥科研方法的創新與發展產生深刻的影響。

參考文獻

[1] 顧蓓蓓,武虹,遲學斌,等.國內外高性能計算應用發展概況分析[J].科研信息化技術與應用,2014,5(4):82-91.

[2] 周興銘.高性能計算技術發展[J].自然雜志,2011,33(5):249-254.

[3] 張理論,鄧小剛.戈登獎――分析與思考[J].計算機工程與科學, 2012,34(8):44-52.

[4] 徐書華,金力.計算生物學[J].科學,2009,61(4):34-37.

[5] 朱偉,羅頌平.治療輸卵管阻塞性不孕的中藥多靶活性成分計算機虛擬篩選[J].時珍國醫國藥,2012,23(6):1531-1532.

[6] ,孫曉波.網絡藥理學:中醫藥現代化的新機遇[J].藥學學報,2012,47(6):696-703.

篇9

技術的進步正在帶來資源的解放。在石油勘探領域,這絕不是一句空話。在高性能計算逐漸成為石油勘探海量數據分析的基礎保障后,每一次技術的演進都會帶來勘探效率的提升及勘探技術革新的可能。所以,對于更強大的高性能計算技術的出現,石油勘探行業甚至已經從“需求”變成了“渴求”。業內眾多研究機構一直在期盼數年后才會成熟的、比目前全球最先進高性能計算技術強大數百倍的百億億級(即每秒能實現百億億次浮點計算)高性能計算技術能夠更快到來,為其所用。但在今年召開的以石油行業應用為核心的第七屆高性能計算(HPC)及企業解決方案研討會上,記者發現,隨著國內石油勘探難度的加大,用戶對更強、更先進的高性能計算平臺和相關技術的需求也出現了新的變化。

開源+節流 化解“找油難”

在今年的研討會上,東方地球物理公司研究院處理中心總工程師賴能和特別強調了石油勘探行業目前面臨的三大“計算”挑戰:可控震源高效采集技術的快速發展和廣泛應用,使日產數據采集量直線上升,計算壓力進一步加大;高密度高覆蓋采集提高了勘探的精度,使精細化的數據分析成為可能,對計算能力的提升產生了更強烈的需求;高密度采集成為一種新趨勢,數據體越來越大,導致了計算效能的降低。

和去年相比,東方地球物理公司研究院處理中心今年承接的高密度海量數據3D項目更多、數據體也更大。賴能和告訴記者,處理中心目前承載的薩科桑3D、塔里木哈7、新疆瑪湖、新疆大慶3D、博孜3D等30個寬方位資料和科研攻關項目共涉及19029平方公里、384.8TB的數據量,均是采用高密度海量數據處理。這對處理中心的軟硬件處理能力、技術和資源配置都帶來了巨大壓力。

事實上,東方地球物理公司研究院處理中心的壓力恰恰來自“找油難”。石油是不可再生資源,當大區塊開發告一段落后,石油勘探業一方面要用更精細化的手段在原有開采區塊發掘新機會,一方面則要積極向海洋拓展或到過去“看不上”的區域去找油。這種轉變帶來的直接影響正是賴能和所說的因數據體量飛速增長而產生的計算壓力。“地質結構越來越復雜,對計算的需求也會越來越大。以海洋石油的開采為例,其計算量往往要比陸地石油開采大好幾倍。近年來主流軟件的演變從時間偏移到深度偏移再到逆時偏移,計算量越來越大。盡管集群單個節點的計算性能在提升,但集群節點量的增速也并沒有降低。”英特爾(中國)企業解決方案部能源行業資深企業客戶經理杭曉東認為石油勘探行業產生的“開源”需求,僅依靠提升CPU的計算能力已無法滿足,這也是讓英特爾改變產品發展方向,從異構向微異構調整的原因。今年,英特爾推出的Xeon Phi協處理器就是這樣的產品,在提升單點性能

得到大幅提升,從而讓高性能計算的效能提升。

在英特爾數據中心及互聯系統事業部技術計算和平臺應用支持團隊平臺架構師何萬青看來,高性能計算技術不僅能幫用戶“開源”,還能幫用戶“節流”,以提高產量。他說:“Xeon Phi的出現提供了一種可能性——用比較少的節點提供更高密度的計算能力。如野外的數據采集工作,就可以因為顯卡被集成到處理器中的特性而實現現場粗粒度的計算處理工作,減輕數據總量負擔?!痹婆c大數據應用的可能

高性能計算與可視化應用難以落實到云計算系統的現實,曾一度讓業界認為“云”將與石油勘探行業無緣。目前,對非結構化數據的分析更有價值的Hadoop,對于幾乎沒有非結構化數據的石油勘探行業似乎也是無用之物。云計算與大數據真的不適合石油勘探行業嗎?這個問題已經出現了新的答案。

在石油行業,斯倫貝謝、蘭德馬克、Nice等服務公司正在提供功能較為完整的石油軟件云服務解決方案,并已被多家國際知名石油公司所采用。中石油也已經啟動了云技術平臺建設項目。

“三年前我們開始探討虛擬化機制,嘗試勘探開發上的一些應用。去年正式立項做云計算的技術測試、跟蹤并組織隊伍,主要進行四點應用的實驗,今年爭取搭一個實用的環境。”中國石油大慶油田公司勘探開發研究院總工程師張鐵剛如是介紹了中石油云計算平臺項目的進展情況。他說,目前中石油總部的云計算平臺主要在考慮如何實現數據中心的整合、資源優化、高效利用,結合能源應用的特點,讓云平臺在地學綜合研究、辦公經營管理業務以及生產管理方面發揮價值。

對于高密度采集這類應用,中石油已經完成了基于虛擬化技術的實驗,實驗證明云平臺確實可以大幅降低地學應用研究的成本。張鐵剛很看好云平臺在中石油生產管理效率提升和辦公運維管理簡化方面的前景。據他介紹,初期測試結果顯示,通過資源整合,中石油可以將各單位門戶服務器的利用率從20%提高到70%,將專業應用服務器的利用率從20%提高到40%。他直言,在中石油云技術平臺建設項目中,英特爾提供了很多重要的技術支持,特別是將其為互聯網公司構建云計算系統的經驗,傳遞到了高性能計算領域。

在石油勘探業,高性能計算集群規模越來越大,卻未必能帶給用戶最佳的投資回報。計算的高峰期資源不足,低谷期資源卻被閑置。特別是,在集群空載狀態下同樣要支付巨額電費。與互聯網企業的需求一樣,不少高性能計算用戶也希望能彈性調配計算資源,分享低谷期的計算平臺,用于日常生產、辦公。今天,中石油的嘗試已經把云的設想變為現實。

石油勘探行業是個典型的海量數據行業,但它對數據處理的需求與大數據目前的定義還存在很大差距。雖然目前石油勘探行業的典型應用還沒有必須依賴Hadoop的需要,但賴能和認為,這項新技術依舊值得他們長期跟蹤。因為如果Hadoop發展到了適合其應用模型時,就會成為大幅降低硬件采購成本的一個選擇。

相關鏈接

跳出“石油”看高性能計算

篇10

關鍵詞:聚羧酸系高性能減水劑混凝土 減水率

前言

近年來,我國的基礎建設如高鐵、公路、機場、大壩、市政工程等一直保持高速增長,同時也推動了混凝土外加劑技術的飛速發展。混凝土外加劑的發展大致可分以下幾個階段:第一階段是起步階段,以普通減水劑木質素為代表;第二階段以萘系高效減水劑為代表的發展階段,涌現了三聚氰胺、氨基磺酸鹽系、脂肪族減水劑等多種減水劑;第三階段即現階段,是混凝土外加劑走向高科技領域的階段,以聚羧酸系高性能減水劑為主要代表。自20世紀80年代后期,歐美等國家開始對聚羧酸系減水劑進行研究開發,并于90年代中期開始推廣應用,其中日本推廣比較成功。與傳統的減水劑相比它具有摻量少、減水率高、堿含量低、強度增加大、塌落度損失小、環境友好等特點。同時,萘資源的緊缺 、工業萘價格的不斷上漲、萘系減水劑生產周期較長、環境污染等問題日益突出,也使聚羧酸系減水劑的應用勢在必行。它必將代替萘系減水劑,成為主流產品。本文介紹的聚羧酸系減水劑生產工藝過程簡單,所有原料基本全部轉化為減水劑,不需要分離提純,無三廢排放,所合成的減水劑質量穩定,非常適合工業化生產。

1聚羧酸系減水劑的作用機理

混凝土中摻入減水劑后,可在保持流動性的條件下顯著地降低水灰比。減水劑產生減水的效果主要是由于混凝土對減水劑的吸附和分散作用。而減水劑實際上就是一種使水泥粒子高度分散并使分散體系穩定的表面活性劑,分散效果越好,體系越穩定,減水效果越好,其混凝土的性能就越好。而水泥粒子的分散穩定性又取決于吸附表面的活性劑的靜電斥力和立體穩定效應。據DLVO理論,水泥在水溶液中醚鍵的氧與水分子反應形成強力的氫鍵,并形成親水保護膜,據分析立體保護膜提供了分散穩定性。

傳統的減水劑在被水泥顆粒表面吸附后呈剛性鏈平臥吸附狀態,立體穩定效應沒有發揮出來。而聚羧酸系減水劑一方面由于-COOH、―SO3負離子提供靜電斥力,另一方面聚羧酸系減水劑分子結構中醚鍵與水分子形成氫鍵,從而形成親水性立體保護膜,該保護膜既有分散性又提供了水泥粒子的分散穩定性,因此聚羧酸系減水劑在低水灰比條件下能夠更好的保持混凝土的工作性能及坍落度 。

2試驗

2.1合成原料:聚乙二醇(分子量1000)、引發劑、阻聚劑、甲基丙烯酸、丙烯酸羥丙酯、催化劑、自制A料和B料。

2.2儀器設備:電子稱、分析天平、電熱套、磁力攪拌器、溫度管、燒杯、恒溫水浴鍋 、水泥凈漿攪拌機、60L單臥軸式強制攪拌機等。

2.3試驗原料:鼎鑫普通硅酸鹽水泥、曲寨普通硅酸鹽水泥、正定河砂、鹿泉人工碎石

2.4合成步驟

大單體的合成:稱取定量的溶融的聚乙二醇、催化劑和阻聚劑在100℃~120℃下進行酯化反應,時間約2個小時,測定酯化率合格后,反應結束。

減水劑的合成:將定量的大單體和甲基丙烯酸、丙烯酸羥丙酯等按比例混合,加入助劑A料和B料在水溶液中聚合,時間約為5小時,然后用濃度為32%的液堿中和至 pH值6-7即得。

2.5水泥凈漿流動度試驗

試驗參照GB8077-2000《混凝土外加劑勻質性實驗方法》進行,稱取水泥300g,水87g,外加劑摻量為0.20%時測定摻不同羧酸減水劑的水泥凈漿流動度,并以此作為表征其性能的參數。

2.6混凝土減水率試驗

減水率測試按國家標準GB8076-2008《混凝土外加劑》測試坍落度損失。

2.7 凝結時間的測定

參照GB/T1346-2001《水泥標準稠度用水量、凝結時間、安定性檢測方法》測定水泥凈漿凝結時間。

3結果與討論

3.1減水劑的勻質性指標

按照國標GB8077-2000《混凝土外加劑勻質性實驗方法》檢測所合成的減水劑勻質性項目指標.見表1.

表1 聚羧酸系減水劑勻質性指標

由勻質性指標可知,所合成的減水劑氯離子幾乎沒有,堿含量也比較低,完全符合混凝土配制的要求。

3.2水泥凈漿流動度試驗

分別用鼎新水泥P.042.5和曲寨水泥P.042.5兩種不同品牌的水泥,用本試驗羧酸(代號為A)和某品牌羧酸減水劑在三個不同摻量(摻量以固體計)下進行對比試驗。見表2

表2水泥凈漿流動度試驗情況

從上表可以看出,A 羧酸系減水劑對不同品牌的水泥適應性較好,在摻量允許范圍內隨著摻量增加,凈漿流動度逐漸增大,且狀態良好。與同類羧酸減水劑相比性能也具有一定的優越性。但從經濟角度講,推薦摻量為0.20%。

3.3不同摻量的減水率試驗情況

本實驗采用鼎新水泥P.042.5和基準水泥P.042.5 兩種水泥分別進行測試,且分別采用0.12%、0.16%、0.20%三個不同的摻量予以確定。 結果見表3。

表3A羧酸減水劑減水率情況表

從上表可以看出A羧酸減水劑的減水率隨著摻量的增加明顯的增大,而且其在摻量較低時仍具有很高的減水率。

3.4混凝土性能試驗情況

本實驗采用鼎新水泥P.042.5 為試驗水泥,比較本試驗羧酸(代號A)和某品牌羧酸在相同摻量0.20%下的混凝土性能。詳見表4

表4不同羧酸的混凝土性能試驗表

從上表可以看出,A羧酸減水劑所表現出的性能指標均符合GB8076-2008標準要求,且在同摻量下性能指標優于某品牌羧酸產品,所表現出的高減水率和增強性有利于配制高標號或大坍落度要求的混凝土。

4結論:

用聚乙二醇、催化劑和阻聚劑、甲基丙烯酸、丙烯酸羥丙酯等原料兩步合成出性能優異、質量穩定的聚羧酸系高性能減水劑。

本工藝生產的聚羧酸系高性能減水劑堿含量小于1.5%,且基本不含氯離子,無毒,對環境無污染,屬綠色環保產品。

本工藝生產的聚羧酸系高性能減水劑具有較高的減水率,適于配制商品混凝土、泵送混凝土、高強高性能混凝土等。

參考文獻

[1]郭延輝等.聚羧酸高性能減水劑及其應用技術―現狀、發展趨勢和我們的任務.聚羧酸系高性能減水劑及其應用技術.北京:機械工業出版社 ,2005.8

[2]姜國慶.日本高性能AE減水劑的研究進程及應用現狀.化學建材,2000(2):42

[3]朱俊林等.聚羧酸系高性能混凝土減水劑的研制.聚羧酸系高性能減水劑及其應用技術.北京:機械工業出版社 ,2005.8