据新华社长沙10月29日电 中国首台千万亿次超级计算机“天河一号”诞生之际,计算机专家对这台全方位的结构、特点与功能进行了全方位解读。
千万亿次是一个质的变化
随着“天河一号”研制成功,中国高性能计算机的峰值性能提升到了每秒1206万亿次。这个数字意味着,“天河一号”计算一天,一台配置 Intel双核CPU、主频为2.5GHz的微机需要计算160年。就共享存储总容量而言,“天河一号”的存储量相当于4个藏书量为2700万册的国家图书馆。
在超级计算机不断提高运算速度的过程中,千万亿次是一个难以逾越的“瓶颈”。
美国早在上个世纪90年代就提出了做千万亿次巨型计算机的目标,直到2007年才实现。截至2009年6月,世界上仅有3台千万亿次的计算机。
“国际计算机界认为,从百万亿次提升到千万亿次是一个质的变化,不可能通过单纯扩大规模来实现,而是需要体系结构上的改变。”国防科技大学教授窦文华说,“天河一号”采用了全新的多阵列可配置协同并行的体系结构,从而实现了系统性能的提升。窦文华认为,这种体系结构具备构建下一个量级即万万亿次计算机的能力,将会成为下一代高新计算机的主流结构。
“某些领域的现实需求,已经超出了目前巨型机的能力。”窦文华说,气候预报、环境控制、飞行器设计、系统生物学等领域都需要千万亿次甚至更高性能的计算机。因此,“天河一号”投入使用后,必将推动科学研究的速度。
七大技术四大特点
一台千万亿次的“天河一号”,是否等于10个百万亿次巨型机之和?中国科学院院士周兴铭说,系统的效能绝不是各单元计算效能的简单叠加。
“如果用高性能微处理器直接堆出一个千万亿次的系统,功率会大得惊人,用户可能连电费都付不起,同时机器的可靠性很低,根本无法稳定工作。表面上看‘干活’的器件多了,结果却是‘三个和尚没水吃’。”周兴铭说,“天河一号”采用7项关键技术,使得“一加一”的结果尽量接近“二”,从而发挥出机器最大的整体效能。
这7项技术包括:多阵列可配置协同并行体系结构、高速率扩展互联通信技术、高效异构协同计算技术、基于隔离的安全控制技术、虚拟化的网络计算支撑技术、多层次的大规模系统容错技术和系统能耗综合控制技术。
周兴铭介绍说,这台计算机具有四大特点:
——高性能。无论是1206万亿次的峰值性能,还是563.1万亿次的Linpack实测性能,均位于国内榜首、世界一流。
——低能耗。能耗是每瓦电创造的计算效能,“天河一号”目前能效为每瓦4.3亿次运算,与2009年6月公布的Top500(全球超级计算机前 500强)排名第一的美国“走鹃”(Roadrunner)相当。参照2009年6月公布的Green500(全球绿色超级计算机前500强)排名,“天河一号”可以位居第5。
——高安全。“天河”实现了不同用户间数据和工作信息的相互隔离。对用户来说,相当于到银行租个保险柜,钥匙掌握自己手里。
——易使用。“傻瓜化”的操作界面和菜单、鼠标等常规操作,让机器的使用变得简单。同时,作为一台国际通用的标准化的超级计算机,“天河”上能运行来自各行业的各种程序,不存在兼容性问题。
公共服务设施承载三大功能
“天河一号”将于2009年底至2010年在天津市滨海新区落户,成为国家超级计算天津中心的业务主机,面向国内外提供超级计算服务。
“天河”工程办公室主任李楠说,“天河一号”在投入使用后将实现三大功能。
第一,作为提供超级计算服务的全球公共科研设施,“天河”向国内外用户开放。无论身在何处,用户都可以通过国际互联网使用“天河”进行科学计算。
第二,作为产业带动平台,“天河”上集中的当今时代最先进的信息技术将逐步转移到其他产业,从而解决国家与社会发展中的各种问题。
第三,作为吸引人才的平台,“天河”将进一步汇聚来自世界各地的尖端技术人才,对国民经济和世界科技的可持续发展作出更多贡献。
李楠说,“天河”将用于石油勘探数据处理、生物医药研究、航空航天装备研制、资源勘探和卫星遥感数据处理、金融工程数据分析、环渤海生态动力和污染数值模拟、基础科学理论计算等方面。
能代替人脑吗?
“计算机无法代替人脑。”国防科技大学教授李思昆说,人脑与计算机的一个根本区别在于,人能够发现规律,而计算机只能根据人发现的规律和设计的方法进行计算。
李思昆说,超级计算机之所以能与人对弈,就是因为人们把下棋的规律转化成了可以计算的模型。
“辩证法认为,世界是有规律的。但还有很多问题比如爱情,人类尚未发现其中的规律,而已经发现的规律中也有可计算的和不可计算的。换句话说,只要人类能够发现规律、并且找到方法把规律变成可计算的问题从而建立起物理和数学模型,计算机就能够替代人类在这些问题中的劳动。”李思昆说。
人脑的奇妙性,让科学计算与世界无限未知的哲学命题紧密相连。
仅就代数计算而言的话,“天河一号”一秒钟能进行1206万亿次计算,人却只能进行大约一次运算。然而,记住对方的长相这样一个人在瞬间就能完成的图像识别工作,计算机却要经历一个极其复杂的并行计算过程。
“今天看来不可计算的规律,在未来某天也许能够进行计算。但人类又会不断发现更多未知的领域和更多不可计算的规律。”李思昆说。