我们的手机会突然有一天天超越天河二号吗?那将会是什么时候。超这样的速度。。。

当前位置: >>
&& 天河二号
超级计算机清华大学教授、国家科技重大专项&核心电子器件、高端通用芯片及基础软件产品&(简称&核高基&专项)总体组副总师魏少军3月2日表示,根据该专项&面向大规模科学计算的高性能多核CPU&课题计划安排,2011年,中国将采用FT-1500CPU构建全自主国产千万亿次计算机&&&天河二号&。相关信息清华大学教授、国家科技重大专项&核心电子器件、高端通用芯片及基础软件产品&(简称&核高基&专项)总体组副总师魏少军3月2日表示,根据该专项&面向大规模科学计算的高性能多核CPU&课题计划安排,2011年,中国将采用FT-1500CPU构建全自主国产千万亿次计算机&&&天河二号&。中国科技部重大专项办公室当天就国家科技重大专项进展情况举行媒体吹风会,魏少军教授介绍&核高基&专项情况时透露了上述信息。他说,2009年,中国首台千万亿次计算机&天河一号&研制成功,运行&核高基&专项支持研制的银河麒麟操作系统,列当年底国际超级计算机500强排名第五位、亚洲第一位,使中国成为继美国之后世界上第二个能够研制千万亿次超级计算机的国家。相对上世纪颇负盛名的&两弹一星&,&核高基&专项被誉为中国新时期的&两件(核心电子器件、基础软件)一芯(高端通用芯片)&,主要涵盖核心电子器件、高端通用芯片、基础软件产品三个方向,掌握其关键技术并实现产业化,对于中国实现以信息化带动工业化、确保国家信息安全至关重要。在高端通用芯片方向,&核高基&专项重点部署了高性能服务器多核CPU、安全适用计算机CPU及嵌入式CPU;基础软件产品方向,重点部署了操作系统、数据库、办公软件、中间件、重大信息化应用等基础软件。国际TOP500组织在6月17日公布最新全球超级计算机500强榜单,由中国国防科技大学研制的&天河二号&以每秒33.86千万亿次的浮点运算速度成为全球最快的超级计算机。这也是中国超级计算机时隔两年半之后重返世界之巅。未来展望目标是到2020年,形成中国高端通用芯片和基础软件产品的自主研发与产业体系。面向3G移动通信网络的智能手机嵌入式软件平台以及3G应用网络化运行平台的研发及产业化,&核高基&专项安排了&智能手机嵌入式软件平台研发及产业化&和&面向新型网络应用模式的网络化操作系统&课题,目前已经取得较大进展。运算速度以每秒千万亿次计算的超级计算机&天河二号&将进驻广州,它将如何影响我们的生活?昨天,国防科学技术大学计算机学院副院长、天河二号工程副总指挥、天河超级计算机系统新闻发言人李楠做客市科信局举办的&珠江科学大讲堂&。应用多与国家重大工程相关&所谓超级计算机,就是在同时代里,运算速度达到最高级别的大容量巨型计算机!&李楠比喻:&比如,使用千万亿次超级计算机计算1小时,相当于13亿人同时用计算器计算20年。&李楠介绍,超级计算机有五个超级,就是速度超级快、容量超级大、耗电超级多、造价超级贵。&目前,超级计算机的应用已与国计民生密不可分。它的应用多与国家重大工程相关,比如日本的&京&,主要用于地震海啸预测、生命科学、新药研制,而美国的&泰坦&主要用于研究气候变迁、核研究、材料科学等等。&&超级计算机已经变成&国之重器&,世界各国在超级计算机的研制上竞争激烈。&据介绍,2010年时,我国研制的首台千万亿次超级计算机&天河一号&曾在全球500强计算机中排名第一,但在2011年时被日本的超级计算机&京&超越了。到了2012年,美国&泰坦&又超越了&京&。一期工程将于下月17日发布李楠还向在场听众披露,&&天河二号&已被确认为正在建设中的&国家超级计算广州中心&的主机,其一期工程的标志性成果即将于6月17日国际国内同步发布,二期工程2015年底前完成。&他说,&天河二号&的计算速度达到110P,11亿亿次;容量达到1.5亿亿个字节,相当于15000个1T硬盘的总容量。&预计&天河二号&约300个机柜,它的性能是美国超级计算机&泰坦&的4倍,体积是&泰坦&的1.5倍。&&天河二号&今年能否在国际超算大会中打败美国超级计算机,夺得&头位&呢?对此,李楠充满期待却不愿评论,他表示,&到时要看结果才知道。&可大大提高天气预报准确率李楠还向在场听众介绍:&超算中心的进驻与老百姓生活也有很大关系。比如超算在天气中的应用,可以大大提高天气预报的准确率,又比如在娱乐产业的应用,阿凡达的电影中,超过三分之二的人物与景象都是通过超级计算机计算出来的。&峰值性能的飞跃2008年9月下线的中国第一台超百万亿次超级计算机&曙光5000A&,运算峰值速度为每秒230万亿次。一年后,随着&天河一号&研制成功,中国高性能计算机的峰值性能提升到了每秒1206万亿次。 这个数字意味着,&天河一号&计算一天,一台配置Intel 双核CPU、主频为2.5GHz的微机需要计算160年。就共享存储总容量而言,&天河一号&的存储量相当于4个藏书量为2700万册的国家图书馆。 &我听到&天河一号&研制成功的消息时很震惊,我们原来预计千万亿次的计算机要到2010年底才在中国出现。&中国科学院软件所研究员张云泉说,&这是我国高性能计算机发展史上新的里程碑。& 高性能计算机又称巨型计算机或超级计算机。在超级计算机不断提高运算速度的过程中,千万亿次是一个难以逾越的&瓶颈&。 美国早在上个世纪90年代就提出了做千万亿次巨型计算机的目标,直到2007年才实现。截至2009年6月,世界上仅有3台千万亿次的计算机。 &国际计算机界认为,从百万亿次提升到千万亿次是一个质的变化,不可能通过单纯扩大规模来实现,而是需要体系结构上的改变。&国防科技大学教授窦文华说,&天河一号&采用了全新的多阵列可配置协同并行的体系结构,从而实现了系统性能的提升。 窦文华认为,这种体系结构具备构建下一个量级即万万亿次计算机的能力,将会成为下一代高新计算机的主流结构。 千万亿次计算机的出现,为中国高科技计划的实施提供了一个更为广阔的平台。 &某些领域的现实需求,已经超出了目前巨型机的能力。&窦文华说,气候预报、环境控制、飞行器设计、系统生物学等领域都需要千万亿次甚至更高性能的计算机。因此,&天河一号&投入使用后,必将推动科学研究的速度。中国第一七大技术四大特点打造&中国第一& 一台千万亿次的&天河一号&,是否等于10个百万亿次巨型机之和?中国科学院院士周兴铭说,系统的效能绝不是各单元计算效能的简单叠加。 &如果用高性能微处理器直接堆出一个千万亿次的系统,功率会大得惊人,用户可能连电费都付不起,同时机器的可靠性很低,根本无法稳定工作。表面上看&干活&的器件多了,结果却是&三个和尚没水吃&。&周兴铭说,&天河一号&采用7项关键技术,使得&一加一&的结果尽量接近&二&,从而发挥出机器最大的整体效能。 这7项技术包括:多阵列可配置协同并行体系结构、高速率扩展互联通信技术、高效异构协同计算技术、基于隔离的安全控制技术、虚拟化的网络计算支撑技术、多层次的大规模系统容错技术和系统能耗综合控制技术。 周兴铭介绍说,由于采用了一系列创新技术,这台计算机具有四大特点: &&高性能。无论是1206万亿次的峰值性能,还是563.1万亿次的Linpack实测性能,均位于国内榜首、世界一流。 &&低能耗。能耗是每瓦电创造的计算效能,&天河一号&目前能效为每瓦4.3亿次运算,与2009年6月公布的Top500(全球超级计算机前500强)排名第一的美国&走鹃&(Roadrunner)相当。参照2009年6月公布的Green500(全球绿色超级计算机前500强)排名,&天河一号&可以位居第5。 &&高安全。&天河&实现了不同用户间数据和工作信息的相互隔离。对用户来说,相当于到银行租个保险柜,钥匙掌握自己手里。 &&易使用。&傻瓜化&的操作界面和菜单、鼠标等常规操作,让机器的使用变得简单。同时,作为一台国际通用的标准化的超级计算机,&天河&上能运行来自各行业的各种程序,不存在兼容性问题。 公共服务设施承载三大功能 按照工程计划,&天河一号&将于2009年底至2010年在天津市滨海新区落户,成为国家超级计算天津中心的业务主机,面向国内外提供超级计算服务。天河功能&天河&工程办公室主任李楠说,&天河一号&在投入使用后将实现三大功能。 第一,作为提供超级计算服务的全球公共科研设施,&天河&向国内外用户开放。无论身在何处,用户都可以通过国际互联网使用&天河&进行科学计算。 第二,作为产业带动平台,&天河&上集中的当今时代最先进的信息技术将逐步转移到其他产业,从而解决国家与社会发展中的各种问题。 第三,作为吸引人才的平台,&天河&将进一步汇聚来自世界各地的尖端技术人才,对国民经济和世界科技的可持续发展作出更多贡献。 目前中国的巨型计算机用户主要集中在石油勘探、天气预报、基础研究等领域。上个世纪末期,西方发达国家的汽车、建筑、动漫等行业已经开始普及巨型计算机。 &我国对高性能计算机的需求已经进入一个高峰期。&李楠说,&天河&将用于石油勘探数据处理、生物医药研究、航空航天装备研制、资源勘探和卫星遥感数据处理、金融工程数据分析、环渤海生态动力和污染数值模拟、基础科学理论计算等方面。 与国家超级计算天津中心同时开始建设的,还有位于深圳的中心。这一南一北两个国家级的超级计算中心,将成为中国高科技发展的重要引擎。 超级计算机是否只是科学研究者的&专利&?李楠介绍说,超级计算机的应用与老百姓的生活息息相关,最常见的天气预报就是超级计算的结果。而随着超级计算机的服务能力在未来进一步拓展,很可能会诞生一个庞大的巨型机服务产业,面向个人用户提供服务。 &比方说,未来的天气预报可能进一步定时化,个人可以随时询问某个局部区域在某个特定时间段的天气情况。&李楠说。 超级计算机会代替人脑吗? 如同一场你追我赶的比赛,每过几年甚至更短的时间,全世界超级计算机的运算速度就会刷新一次。超级计算机的能力有极限吗?它们是否会在未来代替人脑?科幻电影中计算机统治世界的故事,让人们对这一古老话题的猜想从未停止。 &计算机无法代替人脑。&国防科技大学教授李思昆说,人脑与计算机的一个根本区别在于,人能够发现规律,而计算机只能根据人发现的规律和设计的方法进行计算。 李思昆说,超级计算机之所以能与人对弈,就是因为人们把下棋的规律转化成了可以计算的模型。 &辩证法认为,世界是有规律的。但还有很多问题比如爱情,人类尚未发现其中的规律,而已经发现的规律中也有可计算的和不可计算的。换句话说,只要人类能够发现规律、并且找到方法把规律变成可计算的问题从而建立起物理和数学模型,计算机就能够替代人类在这些问题中的劳动。&李思昆说。 人脑的奇妙性,让科学计算与世界无限未知的哲学命题紧密相连。 仅就代数计算而言的话,&天河一号&一秒钟能进行1206万亿次计算,人却只能进行大约一次运算。然而,记住对方的长相这样一个人在瞬间就能完成的图像识别工作,计算机却要经历一个极其复杂的并行计算过程。天河一号第一台国产千万亿次超级计算机日在湖南长沙亮相,作为算盘这一古老计算器的发明者,中国拥有了历史上计算速度最快的工具。超级计算机系统每秒钟1206万亿次的峰值速度和每秒563.1万亿次的Linpack实测性能,使这台名为&天河一号&的计算机位居同日公布的中国超级计算机前100强之首,也使中国成为继美国之后世界上第二个能够自主研制千万亿次超级计算机的国家。这个速度意味着,如果用&天河一号&计算一秒,则相当于全国13亿人连续计算88年。如果用&天河一号&计算一天,一台当前主流微机得算160年。&天河一号&的存储量,则相当于4个国家图书馆藏书量之和。相关报道中国&天河二号&成为全球最快超级计算机6月17日电 据央视报道,今日公布的全球超级计算机500强排行榜中,中国&天河二号&成为全球最快超级计算机。2013年5月,我国研制成功世界上首台5亿亿次(50PFlops)超级计算机&&&天河二号&,这是国家863计划&十二五&高效能计算机重大项目的阶段性成果。天河二号双精度浮点运算峰值速度达到每秒5.49亿亿次,Linpack(国际上流行的用于测试高性能计算机浮点计算性能的软件)测试性能已达到每秒3.39亿亿次。由国防科技大学等单位研制的天河二号5亿亿次超级计算机,在体系结构、微异构计算阵列、高速互连网络、加速存储架构、并行编程模型与框架、系统容错设计与故障管理、综合化能耗控制技术以及高密度高精度结构工艺等方面,突破了一系列核心关键技术。与2010年11月获得TOP500第一的天河一号相比,天河二号峰值计算速度和持续计算速度均提升10倍以上,计算密度(单位面积上的计算能力)提升了10倍以上,系统能效比(单位能耗的计算速度)是天河一号的3倍。天河二号拟于2013年底前在广州投入实际运行,目前,正在开展技术人员培训、机房建设等工作。天河二号将服务于珠三角地区以及包括香港、澳门在内的周边区域。我们的手机会有一天超越天河二号吗?那将会是什么时候。超这样的速度。。。_百度知道要怎么理解有人认为“然并卵”的天河二号“六连冠”
据说,超算的运营费用非常高,电费一年就1000w;据说,超算短时间内还无法&连接&实际应用&&&&&&然并卵的事情这么多,那么,国家花费大量人力物力投入到超算的建设和发展中到底是为了什么?超长分析文给你答案!
据新华社电,新一期全球超级计算机500强榜单16日在美国公布,中国&天河二号&超级计算机连续第六度称雄。
据国际TOP500组织发布的榜单,第一名&天河二号&的浮点运算速度为每秒33.86千万亿次,第二名美国&泰坦&的浮点运算速度为每秒17.59千万亿次。第三名至第五名依次为美国&红杉&、日本&京&和美国&米拉&超级计算机。实际上,这5台超级计算机的排名自2013年6月以来就没有变化。
对此,有人媒体评论:一次两次叫幸运,连着6次就只能说是实力了。但也有人指出,中国的超级计算机在500强的榜单中获得了斐然的成绩,然而这份成绩还是过于表面化了。
据悉,国外建设超级计算机的目的是为应用,而中国的超级计算机一般都是租给第三方。从建设超级计算机的角度来讲,中国和日本、美国以及欧洲的水平其实不相上下,但在建设思路上,中国却与其他国家截然不同。其他国家一般是先统计超级计算机在各领域所需的数量,而中国的思路是先做大再说。撇开其他原因不谈,中国能够在这一领域迅速发展的原因与注重数量不无关系。这多少有些&冒进&的意思,如果照这个思路下去,那么将来如果有&天河三号&,估计还会是世界第一。
到底,我们该如何理解天河二号的&六连冠&以及中国超级计算机的发展,知乎网友曾针对天河二号的几次夺冠以及相关信息进行讨论,让我们来看看他们的回答(以下内容精选自知乎)。
问题一:&天河二号&获全球超算&五连冠&意味着什么?
关于天河二号本身,知乎上已经有过讨论。所以我想题主是想针对「五连冠」这点。
其他答案提到,前五名最近几年都没变。相反,在 Top 500 上,美国占 233 台机器,中国占 37 台(去年的数字是 61 台)。
你觉得是去到处招客户,让一个大机器高效运行容易还是让每个科研机构有一台够用的机器运行容易?所以问题就是没有那么大需求去烧钱造个大新闻赶超天河二号。
说句后话,Top 500 开始的时候是计算能力短缺的年代。而现在是计算能力过剩的年代(至少对于数据存储的地理分布来说是局部过剩的)。你可以说我们怎么都能黑中国,问题是中国在这些指标上发力的时候往往是指标本身的意义已经发生变化的时候。
反对&@冯东的最高票答案。
你觉得是去到处招客户,让一个大机器高效运行容易还是让每个科研机构有一台够用的机器运行容易?所以问题就是没有那么大需求去烧钱造个大新闻赶超天河二号。
事实上,让每个科研机构都有一个集群才是莫大的浪费。 国内现在很多中小实验室热衷于自己购买机器,其实并没有那么大的必要性。分散的大量集群,闲置率远远高于集中式的(比如拿来挖比特币的事情已经爆料过好几次了),维护代价还高,过几年因为落后而淘汰了。&
超算系统并不简简单单的一台机器, 可以实现云计算一样的弹性分配。一个用户要用多少节点,系统可以直接配置分配多少节点给你。在这个意义上,这样的共享式的大机器更加有效率。中国科研管理机构应该学习美国对超算的使用方式,鼓励科研机构使用超算中心的机器,减少服务器购买的重复投资。美国的许多超算都是由能源部下属的国家实验室建造管理,以计算资源的形式分配给各种科研项目。
说句后话,Top 500 开始的时候是计算能力短缺的年代。而现在是计算能力过剩的年代(至少对于数据存储的地理分布来说是局部过剩的)。
计算能力真的过剩吗? 我想无论是以互联网公司大数据的视角还是从科学计算的角度都谈不上过剩。 现在的问题并不是计算能力太多,而是缺乏算法设计和应用开发的技术来充分利用这些计算能力。简单的说,就是现实需要这样甚至更高的计算能力,但问题是现在瓶颈就在于利用这样高的计算能力还有很多现实局限,需要继续去探索。
你可以说我们怎么都能黑中国,问题是中国在这些指标上发力的时候往往是指标本身的意义已经发生变化的时候。
在别人已经到达终点的时候,你还剩下几圈,并不是什么丢脸的事。因为不坚持,就永远没有追上别人的时候。中国现在在做的很多事情,都还是在前200~300年落下的课。超算代表的不仅仅是堆一堆机器,还有看不到从芯片、架构、网络互联、存储、操作系统、编译、算法、应用开发一系列的生态技术链,无法跨越。天河仅仅是一个承载体和一个里程碑。 未来能不能够超越别人,没人敢肯定。但是今天不走这样的路,就永远没有机会。
ps: &天河一号闲置一年& 需要补充说明一些。 首先澄清一点,闲置的&天河一号&并不是天津超算的前世界第一的超级计算机,天津的是&天河1A&。媒体报道的天河一号是&天河1A&的试验机。天津的天河1A现在已经是饱和运行,用户需要排队使用了。
问题二:全球最快计算机天河二号的研发意义是什么?
作为曾经的业内人士,也就是之前卖超算的,随便说点吧,有些算是科普,有些算是自己的想法。另外作为国家级别的大项目,细节也不是我能知道的,所以很多数据可能不是非常有说服力,请读者不要太较真了。这将是一个长答案,我慢慢写。
首先,扔出一个公认的、公正的超算排行网站:Home | TOP500 Supercomputer Sites,这上面的数据可以被认为是权威和可信的。
然后,给出天河二号在其上的数据,然后再分别解释一下几个名词
前三个就不说了,从第三个开始:
Cores: 很简单,就是整个系统总共的处理器核心数量。这里不是处理器的数量,是核心数量。比如该系统使用的intel xeon E5-2692 处理器和intel xeon phi 3100系列协处理器搭建的。而一颗E5-2692有12个核心,一片phi 3100系列协处理器有57个核心。拿着两种处理器一样不一样呢?这个我们稍后再讲。当然这里面还有我们国产的处理器,这个也稍后再讲。
Rmax(TFlop/s): 这一项是整个系统的实际最大计算能力,也就是这个榜排名的依据。这个数越大,排名越考前。天河二号排名第一,也就是说这个数在2013年6月分榜单里面最大。
Rpeak(TFlop/s):这一项是整个系统的的理论上的计算能力。这个数排名的时候没有意义,但是在说明技术实力的时候,那是真真的重要。这个也稍后再说。
Power(kw):这个就很简单了,整套系统的功耗。这里面不包含机房里面UPS、精密空调、照明、新风等等等等的耗电量。
更新分割线----------------------------------------
以上就是简单的名词解释,从最基本的参数来看,天河二号是这样一套系统:
Rmax,即实际的最大计算能力,是33862.7万亿次每秒。这个数据在2013年6月份的榜单里排名第一。
(注:TFlop/s是超算计算性能的单位,即每秒钟进行一万亿次双精度浮点运算)
那这个数据是怎么算出来的呢?使用一种叫linpack的benchmark测试出来的。简单来说,跑这种软件,给定一个初始值,只要计算出来结果,那么该软件进行的双精度浮点计算次数是固定的。在整套系统(注意,理论上是包含所有的核心一起跑)之上运行这个软件,用所需的计算次数除以运行的时间得出的结果,即是Rmax,系统的实际计算性能。
下面来说一下系统隐含的参数。不负责任的讲,在这个排行榜上,隐含的参数更重要,更能代表超算系统建设的技术实力:
1、计算效率
刚才说了,Rpeak非常重要,就重要在计算效率这个参数上面了。
Rpeak是整个系统的理论计算能力。他是怎么出来的呢? 他是算出来的。
怎么算呢?一个类型的cpu,都有它的固定参数。以E5-2692这个处理器为例,它的主频是2.2G,核心数是12核。intel这代处理器,一个时钟周期可以计算8个双精度浮点数。所以这么一颗处理器的理论计算能力为多少呢? 2.2&12&8=221.2GFlops,即是大约0.22TFlops。那么有多少这种核心,再乘起来就行了,就是这种核心的计算性能。
所有不同类型的处理器,计算性能相加,即是理论的超算计算性能。
具体到天河二号,里面除了上述的这个处理器外,还有phi和国产的,他们算法跟E5不一样,咱稍后再说。总之,天河二号的理论计算性能为54902.4TFlops。
计算效率,即是Rmax/Rpeak的比值。天河二号的计算效率为61.7%。
为什么这个参数很重要?天河二号这个效率又处于什么水平呢?
继续分割线----------------------------------------
为什么计算效率这个数据很重要?就是因为它代表了超算系统设计和建设的技术水平。这个数据越高,说明建设者的技术实力越强。举个例子,天河二号的计算效率是61.7%。如果有个土豪,它有的是钱,那他搞10倍的投资,上10倍的处理器核心,但计算效率只有10%,可以说它拿到排行榜第一,没有任何问题。
所以不能说咱第一,咱骄傲。做最大的月饼、最大的火锅,这种事做的已经不少了。
那61.7%的计算效率,在超算是个什么水平呢? 让我们对比一下前十其他几个系统吧。以下是前十第二到第九的系统:
第二名Titan,效率64.9%
第三名Sequola,效率85.6%
第四名京,效率92.9%
第五名Mira,效率85.3%
第六名Stampede,效率60.7%
第七名85.3%,第八名85.3%,第九名91%,第十名(中国的天河一号)54.9%
好了,从上面的数据能得出什么结论?计算效率天河二号倒数第三,倒数第一是天河一号,从这个结论能得出什么结论?中国上榜的超算技术实力都很烂?
话可不能这么说
天河二号和天河一号计算效率低是有原因的,原因在于他俩都大量使用了协处理器。二号用的是intel phi,一号用的是Nvidia的GPU。效率中倒数第二的第六名Stampede,也是用了大量的intel phi协处理器。
关于协处理器,又是一个啰嗦的话题,这里暂时给两个小结论,有空的时候再丰富起来:
1、协处理器计算性能超强,一块像显卡一样的PCIE卡子,计算性能在1TFlops以上。而且一台服务器能插3到四个卡子,也就是3-4T的理论计算能力。而刚才算过的E5系列,一台服务器双处理器,理论计算性能才0.4T多一点。但是有一点,目前的的linpack测试,得出的协处理器的计算效率不高,所以拉低了所有大量使用协处理器系统的计算效率。这里面有测试软件的原因,也有协处理器本身规格的制约。尽管如此,由于协处理器价格便宜量又足,即是效率不高,大量使用还是比普通的处理器合适的。
2、协处理器应用范围还是比较窄,其他答案说的很多像流体力学、化学、物理、生命科学、影视渲染、金融分析,能在协处理器上跑的相对普通处理器来说,实在太少了。具体少到什么程度,大家可以到intel过nvidia的官网上看一下,可用软件都是有数的。有兴趣的同学可以找一下。但在超级计算领域,协处理器仍被广泛的看做是一种趋势,今后能在上面跑的软件会越来越多。
所以说,一号和二号的技术水平,其实是不差,但也说不上是多好。这里面有技术扩散的原因,也有我国科研工作者积极探索和研究的原因。妄自菲薄和孤芳自赏都是不好的,不好的。
为什么中国两个最大型的超算,都要大量用协处理器,而且还是不同平台的?中国不缺钱,再多花点钱,都用普通的处理器,做到计算性能和计算效率双丰收,不是什么难事。但为什么不呢?
首先,中国建这两个系统的目的与美国、欧洲的不太一样。
我们造的是超级计算中心,主要的目的是租给别人用,不管是高校也好,科研院所也好,商业企业也好,都是别人用。不管是天津的一号,还是广州的二号,建设者都不用来计算。
国外,尤其是美国建设的,以示区别,造的是超级计算机,是建设方自己用。比如Titan,就是美国能源部建来进行核试验模拟的。
这两者的区别就是,前者需要准备不同的计算平台,以适应不同用户的需求。要cpu就跑cpu,要gpu就跑gpu,要mic(intel phi)就跑mic。后者仅需要适应自己的应用即可,计算平台要求单一。
因此排名前十的,除了中国的两个,剩下的8个中的七个都没用协处理器,就是他们需求单一的缘故,也就是说,他们要跑的应用,在协处理器上都跑不了。
总结一下吧,建设超算,注意是建设,中国从技术实力上跟欧美日都在一个水平线上,不超前,也不落后。如果说天河二号建设的意义,包含证明中国有实力、有财力、有能力建设一个能够为国家的科学研究提供计算平台的超大型超级计算机,是没有问题的。
但是、but、however
以上是废话的分界线&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
正是因为我国和欧美建设超级计算机的思路不同,导致了两种截然不同的结果。欧美是根据所需计算量设计系统,需要多少计算能力就把超级计算机计算能力设计成多少。而中国是先建起来再说,那建多大呢,建能排名第一的。所以说,当年中国建的第一个巨型超算天河一号,就是世界第一,现在的超算二号,也是世界第一,相信不久之后的天河三号,仍旧是奔着世界第一去的。
回到题目的问题,建设天河二号的意义在哪里呢?
首先,刚才已经说了,为了证明我们有能力、有实力、有财力建设世界第一的超级计算机,是意义之一。我们设想中的意义之二,是让大量的科学研究的应用跑在上面,加快科学研究的速度,提高科技实力。但要实现这种意义,最基本的条件是要让整个系统跑起来,不满负荷跑,也得高负荷跑。闲着肯定啥意义都没有。
但能高负荷跑吗?有这么多计算需求需要租天河二号吗?现在系统刚建起来,还不好说。那我说说现在中国超算行业的现状吧。
目前中国的超算资源绝对是供大于求。大部分超算资源处于低负荷甚至是闲置状态。
开头说过,我以前就是卖超算的。对这个行业还是有所了解。曾经有个客户,某高校,买了百十来万的超算。验收的时候开了一次机,两年后又招标要买,去机房调研,两年前买的机器第二次开机。
这个仅是个个例,不能说明普遍情况。但普遍情况是,全国各大高校和科研院所,每年都有预算购买超级计算机。天河二号造价30亿人民币,够多吧。其实每年超算市场的规模都不少于10亿,30亿也不奇怪。
随便一个211,985高校,只要不是纯文科学校,没个几十万亿次计算能力的超算,出门都不好意思跟人打招呼。清华、北大、交大、复旦,哪个学校不是百万亿次以上的计算规模。甚至一个系就搞百万亿次以上的规模。如果哪位211,985出来的同学,说自己学校超算性能在10万亿次以下,请告诉我;匿名用户列举的那些华南的高校,有哪个没有自建超算,请告诉我。
超算使用大户中国科学院和各地科学院,只要需要超算的,没有不自建的。如果哪位同学知道有没有超算的院所,也请告诉我。
你指望那些北京的院士、千人计划学者、国家科研津贴获得者、教授、博导,拿着动辄几十G甚至上T的数据往天津超算跑啊还是往广州超算跑啊。想从网络传?我等不及,超算不就是讲究个快吗?我突然冒出的灵感等不及啊;寄过去?我数据丢了你负责啊,这可是从比超算更贵的实验仪器里面出来的。
再说了,科研是螺旋上升的过程,是困难和曲折的,我哪能知道什么时候要用,用多长时间,你让我每次要用都去跟超算中心谈商务、谈合同,跟学校要预算、填申请,一大堆流程,我耗的起吗?
所以说在高校和科研院所,很少有人跑到超算中心去跑应用。实际上,越是科研能力强的高校和科学院,越容易拿到国家的拨款,都是自己建自己用,或者几个人合伙建公用。当然也不排除那些科研实力不足的学校和科研院所,要不到预算,自己建不了。但这样的加起来,对超算计算资源的需求也没有多少。
还有超算使用大户就是石油公司和军队,更是不可能拿到超算中心去了,谁都能租的东西,安全性行吗?石油公司丟数据,顶多还是经济损失。国防军工丟数据,军事法庭估计都得给你传票了。
以上说的是自建自用的,再举几个建了以后出租的:
国家超算天津中心天河一号,2570TFlops
国家超算济南中心神威蓝光,1100TFlops
国家超算深圳中心:1270TFlops
还有多个城市的超算中心包括上海超算中心魔方:230TFlops等
这些超算中心的利用率多少,除了内部人士谁也不知道,就算知道了可能也不会说出来。排名前几的匿名用户说的天河一号将近满负荷运行,我从评论上质疑了以后,也没能拿出哪怕是官方宣传的关于使用率的数据来。我所了解的情况是,各大超算的利用率都比较低,甚至有的比较惨,电费都挣不回来,别说回本了(这个我还真给不出证据,除非是超算的工作人员,或者能看到超算财务报表的,可惜他们都不可能公开数据)。
说到底天河二号建设的意义在哪里呢?一句话,如果用起来,意义非常,排名考前的两个匿名用户说的已经非常清楚了;用不起来,则是空谈的意义。空谈误国,实干兴邦啊!!!
虽然已经非常长了,但是还想啰嗦几句&&&&&&&&&&&&&&&&&&&&&&&&&&&&
为什么美国建这么多超算就行,美国拿第一就行,中国拿第一就这么多人跳出来质疑?
因为人家美国是真都能用起来啊,人家放弃核试验全都用超算泰坦进行模拟;人家这么多大型石油公司石油勘探;人家这么多大型医药公司进行药物开发;人家国防部供货商造武器;人家福特通用造汽车;人家波音造汽车;各大高校物理化学诺贝尔奖呼呼的拿,哪个不需要用超算啊。这些都不算,人家这么多电影做渲染,你中国都比不了。这个再有异议,请看知乎各科技差距比较问答,先进国家的先进技术大多都是有超算这个工具在后面不断推动的。
其实更为重要的,硬件是钱,软件是魂啊。硬件CPU、内存、硬盘都是用的美国的,至少有些互联芯片啥的还是中国自己造的,软件呢?请问各位用过超算的知友们,有用过国产软件的吗?有想用国产软件的吗?你们研究的方向有国产软件吗?、
要说的太多,就此打住。文中有些说稍后再说的,实在写不动了,十分抱歉。有兴趣的自己google吧,相关信息都很容易找。
@三毛钱人品
我就是来挑战排名第一的答案的------天河2号没有传说中那么牛X-----我就是搞并行计算异构的
我想说:我国的并行计算非常的弱,提高人才素质,提高并行计算软件的品质才是最重要的。那些认为我是在说超算没有用处的人,请重新回高中提高语文阅读理解能力;那些认为我只是在骂领导的人,我很遗憾你没有生在奴才可以生活的更好的朝代:满清。
很高兴有这么多人关注超算的发展,我本人也是相关专业的博士,我认为国内的宣传有过度夸大天河二号意义之嫌;虽然最近几年中国一直组建各种超级计算机,然而并行计算领域的核心问题我们仍然没有涉及:一是超大规模;二是超高精度。在这上面,我们的政策,领导的眼光明显有偏失。即使现在我们有了天河二号,我们仍然不是世界第一,我们甚至不是世界第二第三第四第五;这是事实。我们在超算的运行、管理、维护、使用上的差距是如此之大,你直接去参观中国任何一个超算中心的网站,然后对比NERSC的网站就能有一个直观感受。
这种言论并不是我一家之言,中科院超算中心主任迟学斌,中科院计算机所教授张云泉(中国TOP100list的发起人)曾经在采访中多次提到我国重硬件而不重软件的做法不可取。请自己点击:
迟学斌:脱离开发利用 超算就是一堆破铜烂铁/t//content_.htm
张云泉:超算应有国家战略
天河二号的网络不错,这是天河二号的优点。其余的都是买的,操作系统是我们盗版研发的,没有必要吹牛逼。至于架构,其实就是你购买的INTEL的硬件,根本也不必讳言。从专业角度看,这台机器的能耗一般,使用效率不清楚,但是可以确定的是,缺乏应用软件。而国内统一口径的一片夸奖之声,明显是统一口径宣传。今天天河二号的linpack实测峰值又刚刚蝉联五次世界第一,我只是关注,明年我们能不能出一个Gordon Bell获奖人。
因为最开始的帖子写的语气特别重,一直在骂人,自己反省,觉得对不起D和人民的培养;所以,我本着减少人间戾气的原则,重新修改了帖子的开头部分,以后有时间,可能重写全贴。特此。
-----日--------
Gordon Bell奖作为世界上并行计算最高奖项,我国从未得过。2014年,国防科大计算机学院院长( 多谢@陈络腮&提醒,之前错写为校长)的名字终于出现在Gordon Bell Finalist(最后候选名单)里面了。 参考:SCHEDULE: NOV 16-21, 2014&你看到的没错,是第8作者,我自己妄测,是因为德国人用了中国人的机器,觉得不好意思,把他加为第八作者了(晕,数错了,是第九);很遗憾,德国人并没有获奖。关于廖湘科教授,请各位爱国主义分子参观:廖湘科_百度百科&如果你感兴趣,或者能够翻墙,请参观廖湘科院长曾经研发的麒麟操作系统:&https://zh.wikipedia.org/wiki/%E4%B8%AD%E6%A0%87%E9%BA%92%E9%BA%9F&,当然了,这里的麒麟是&中标麒麟&,是由廖院长之前的&银标麒麟&和中标linux合并的。这里有网友质疑麒麟抄袭的文章:麒麟操作系统内核同其他操作系统内核的相似性分析 :: 文章 :: Dancefire's website&忘了说了,廖院长就是&天河二号&的总指挥。
请各位网友自己品评,并且得出结论。
从硬件上说,对比美国的Titan,以及将来的Summit项目,我们的天河2太耗电了,美国人2017年的机器才会到10MW,我们现在就到了17.8MW。我们的软件远远赶不上硬件。
以下来自wikipedia:
整机功耗17,808兆瓦,在搭载水冷散热系统以后,功耗将达到24兆瓦,无论水冷系统的搭载与否,都是目前TOP500里功耗最大的。尚未全速运行时一年的用电费用就高达1亿元人民币,全速运行的话更高达1.5亿元。
2017年筹建的美国的Summit功耗10WM,比现在的Titan快2-5倍。但是仅仅比Titan的9MW多用了10%的电。资本主义的&多快好省&比我们看起来要实用的多啊!上周在San Jose参加NVIDIA的一个workshop,NV的人说DOE(美国能源部)是他们最抠门的用户。
下面是美国橡树岭国家实验室主任报告中的PPT截图:强烈提醒大家注意最后一行的耗电量!橡树岭国家实验室拥有世界上排名第二的机器Titan,它的下一个机器是Summit,2017年的耗电量才是我们&创造的&的伟大的天河二号机器的1/2左右。我们确实得到了第一,但是我们必须明白是以一个什么代价得到的第一!
就在功耗是最大的问题的趋势下,我们最近还在筹建更大的超算,据说今年应该有大项目:100P的机器 (&十亿亿次&超级计算机曙光7000开始研发)。每年电费无数,草草草!!我骂你都不解恨!!!
一楼的同学:一年1.5亿元的电费,研究什么容错,好像你们课题组长需要去找安定医院郝医生。
-----日--------
说起top500 list,人们肯定首先提起的是Jack Dongarra, 他在听到中国人造了&天河一号&的时候,只是说了一句&中国人真有钱!& ,前几天去田纳西,我还曾经专门跑到他的办公室门口膜拜一番,下图就是他办公室,各种获奖:
-------------------------------------------------------------------------------------
Figure 1. 诸葛亮论HPC发展的关键因素
--------------------------------------------------------------------------------------
首先阐明观点,超级计算机是他妈的有用的!!!!请注意,这里说的是超级计算机,不是特指某个机器。
其实,我想跟一楼讨论一下。一楼确实像是学体系架构的,首先说,你说的很多地方都比较对。但是我还有点意见跟你相左。最主要的问题是,超算造出来是干什么的?
要是仅仅为了研究什么容错,什么架构,建造天河二号这么大个计算机根本就不值得。---&学体系架构和做容错的同学不用不爽,你自己去想想就知道我这话不假。
我想说的是:超算建起来,就是为了解决实际问题的!!那些超算上的应用才是真正的关键!!!
作为科普贴的第一部分,我觉得还是说明一下超级计算机能干啥。
1. 超级计算机的本事。
超级计算机不是万能的,不是什么问题都能解得,但是话说回来,能在超级计算机上解得问题,在一般的小机器上也是解不了的。它一般用来解计算量非常非常大得科学问题----&请各位注意,是科学问题,用来玩游戏的,就是机器够庞大,也不叫做科学问题(所以那些用超算做电影渲染的,纯粹是拿着卫星当MP3放歌曲的一样,超算根本不是用来做这个的,好不好,大哥!!!----其实这里也涉及到商业模式的问题,下面讨论)。以天气预报为例,为了能够快速的出来准确预报结果,我们得用更多的CPU来模拟天空中的云和空气的流体运动,并且模拟的尺度越小,得到的结果就越准确。这里就有一个问题,那就是,模拟尺度小的时候,计算量会呈指数增加。所以,准确而快速的天气预报是必须使用超级计算机来解的。快速这个问题就不用说了,因为如果我明天天气的预报结果到了后天才出来,就一点意义都没有了。大家平时觉得天气预报不太准,但是其实随着预报模型的不断研究和超算的不断发展,今天的天气预报比10年前准确多了。 这其实是一个超算跟我们生活相关的应用。其他的还有很多,比如,核武器爆炸模拟(如果大家感兴趣,可以去查一查,之所以美国人不再核试验,其实跟他们可以用超算来模拟有巨大关系)---美国Livermore的那个机器就是造出来干这个事儿的。所以你去网上搜索&红杉&这个机器,基本上没有图片和什么信息。
再说回来。超算的本事是什么?
超算可以计算一些看起来很没用-----&比如有个兄弟说的,在整个江南地区都用不着的各种问题-----&但是这些东西对于国家的发展(有些和人民生活有关,比如天气预报)确实有重要作用。这些计算对于基础学科和高新尖学科有很重要的贡献,我不想举例了。 有兴趣的人自己去搜索。这些贡献,在目前看来不一定有直接作用,但是这种作用不能被忽视。如果你放眼全球,你就会发现,大家都再用计算来代替实验,好吧,下面我就说说,为啥要用超算,以及超算的发展过程 。
2. 钱决定了超算的地位和发展历史。
许多人都说:为啥要用超算啊????为啥啊,这么大,这么贵,而且造出来以后这么多得运行费!! 其实我想说的是,在科研方面,使用计算,而不是实验是趋势,这个趋势有两个原因,1.一些问题根本就实验不了 2. 计算更便宜。
实验不了的问题其实挺多的,比如天气预报,天文模拟,你总不能再神奇般的造一个宇宙出来。所以只能用计算来模拟。
我主要说第二种:钱的问题。大多数问题,不是非得计算不可的;比如,挤压钢材给材料带来的硬度变化(我是学计算机的,这句话可能不太科学,但是意思就这个意思),一个地区是不是有油,汽车撞击之后是不是会散架......等等。以挖油为例,有同学就举手问了:&我直接打井钻,不就得了,就是不算& 。当然了,这样做是一种方法,但是,你知道一口井造价多少吗? 几百万美元!你要在哪儿挖,挖多深,你知道吗?最关键的问题是,挖下去是不是有油出来,出来的油能抵上这个井钱么??刚刚我问的这些问题,用超级计算机算出来,就可以回答,而且,计算的费用远远低于打井的费用(几万块,人民币)。我想等我说完这些问题后,那个主张用去打井的同学乖乖的就去计算了。当然了,有些同学就是喜欢钻牛角尖,于是问出了下一个问题:你怎么知道你算出来的是对的???好吧,这个问题是并行计算界的大杀器。因为,计算出来的结果可能也不怎么正确。我在下一章回答这个问题。
下面说历史:计算机的历史比较简单,当初这个东西就是造出来打仗用的。最早的时候是,用来打炮的。对方的炮弹打过来,你首先想做的事儿是,算出丫的在哪儿,也把炮弹打过去。三维坐标里面的计算,超算算的很到位。另外就是破译密码,这玩意儿就是用来做这个事儿的。后来就发现,有些东西也可以算,但是普通的计算机,如ENIAC就不够用了,于是就出来一个老头子叫做CRAY,他跟几个年轻人一起,弄出了一台超级计算机。CRAY也被称为超级计算机之父。那时候的超级计算机都是特定架构的,跟现在的计算机架构不一样。CRAY创办了CRAY这个公司,现在还有很牛逼的CRAY机,也是以CRAY的名字命名的。在(好像记错了),CRAY的公司垄断了世界上超级计算机的生产和研发,牛逼的要死。中国有谚语"福兮祸所依&,这时候,伟大的钱就要发挥作用了。有人发现,可以把一些普通的芯片放在一个个的机柜里,然后用网线连起来。也就是集群出现了。集群又便宜,又容易组装,根据牛逼的劣币驱逐良币的原理,集群瞬间搞定了市场。现在大家用的系统,基本上都是集群系统。&
好吧,有些人就要出来说了,那MPP,也就是现在的500强机器里面的许多计算机,是怎么定义的?其实MPP也是cluster,只不过,只不过是网络拓扑结构有点复杂而已,比如3D torus或者5D torus。其实在节点内,差不多。不过是分出来个概念,多卖钱而已。
后面我说点儿容易被人骂的。集群系统好搭建么??请见第四章
3. 并行计算及其正确性。
科学不是上帝,它不是万能的!
首先装个13, 从科学开个头。科学,跟宗教一样,其实也是一门用来解释世界的方法。人类老早就开始用这个来解释世界了,这个方法有两个地方不好: 1. 太慢,总是需要跟现实去匹配,实验。 2. 政治性不强。相信科学的人总倾向于问为什么,所以总是在政治性比较强的时代死的比较惨。比如中世纪,比如中国历史上5000年,比如文革。用宗教解释世界是最简单的,佛说....(毛主席说....),大家就信就得了。根本不用去跟实际来比较,你要是来比较,别人首先问的是:你居心何在!
科学问题的研究一般是这样的,首先,物理学家提出一个物理模型(比如大名鼎鼎的薛定谔方程)。这时候,谁也不知道对不对。然后,进入下一个阶段,用这个模型来解释相关的问题。如果能够解释,并且非常对,那我们就认为,在这种情况下,它是对的。也就是说,科学作为解释世界的方法,是不断进步的。
并行计算作为科学的一个极小的分支,它是要跟事实进行比较的。它是在不断进步的,不断演化来让自己跟事实更加符合,来逼近事实。它的做法跟其他科学做法一样,要建立模型,使用数学工具进行求解,然后用结果来跟实验结果比较。验证其正确性。许多目前的计算不是十分准确的,但是,可以说,这是目前人类科学发展的结果,我们只能做成这样了。 而且,目前许多模拟已经很靠谱了。相关的研究可以自己去查阅。
4. 超级计算机到底有多难搭建?它的核心技术是什么??
这个问题如果我说的太狠了,估计就要被河蟹了。 我决定还是先说第二个问题:超级计算机的核心技术是什么? 超算的核心分两个部分 a. 硬件 b. 软件
先说硬件:
说实在的,硬件上,大家都是用Intel/AMD的CPU,加速部件用个NV的GPU或者intel的MIC,像神威这样的纯粹国产的机器,还是很少见的。 现在超算真正注重的是:网络!许多计算机核心共同工作,必须增加核心之间通信速度,所以,其核心技术就是构建网络拓扑来减少数据传递时间。其他的东西,都是从市场上买的,大家甭装逼。骗自己玩儿没意思。
再说软件:软件分两部分,基础软件和应用。
说到基础软件,我就为自己是一个中国人感到强烈的自豪。我们国家地大物博,什么东西都产,也有钱,啥都能买来。基本上,除了硬件要买,软件也全是买的。编译器,操作系统,中间件,等等等等。基本上国内自己搞的,没几个。对不起,忘了麒麟操作系统了,这个系统,没法说,水太深。据说在上面uname -a一下,麒麟就现原形了。
应用软件也是一样。基本上都是用国外的。真正自己研发的产品很少。
说到这里,我想读者和我一样,有另外一个问题:中国码农不少啊,为什么这个领域就发展不起来呢?
其实这个问题很好回答,领导不关心。中国人最实际,从来不花钱在&虚&的东西上。领导喜欢超算这样的大家伙,因为可视度比较高,看着气派。但是软件这东西,看不见摸不着,也不能参观。一般就是摆设一下,就完了。这就带来了下面的一个本文作者最想讨论的问题:草XX,没有软件,你的超级计算机是吃屎的啊!!!!
众所周知,天河1A和天河2号都是世界第一台,架构与之前机器不同的超级计算机。也就是说,之前的应用软件根本就不能直接拿过来运行,相应的移植工作又没有大力支持,所以根本就没有足够的应用软件在上面跑!!!!这是为什么这两台机器饱受争议,因为,建起来之后,没有足够的应用来跟它们配套。只能坐在地方财政上烧钱!!
相对比而言,美国人从来不干这种傻逼事儿。他们在去年才上了Titan超级计算机,Titan和天河1A是一样架构的机器,美国人晚出来了2年。为什么?因为,别人在研发在GPU异构上的应用!!!!应用出来以后,你的超级计算机才有意义!!!!否则,造出来研究个鸟啊,研究架构,研究容错,我擦,亏你说的出口!!!!给你个100核的机器不照样能研究啊。
机器的硬件是买的,没问题,因为,国内国外都是买,而且都买这几个厂商。编译器,操作系统是买的,也没问题,因为这部分咱们的研发确实比国外慢很多,其他的国家也是买的。但是,最让人不能忍得是,你买来之后,就是个大玩具!!! 用来跟美国合作跑渲染,这有什么好意思说的!!! 用卫星做MP3玩儿,有意思,是吧?
别的不多说了,总结把。
超算这东西,很有用。但是,要用对地方,拿钱买是正常。但是,你总得有几个真正牛逼的成果出来吧。LD们。
--------以下部分为日加上的-------------------------
说点儿闲篇儿,中国人的实用主义。
中国人其实是世界上最讲究实用的民族。凡是不够实用的东西,我们都摒弃了。许多假大空的理论都在历史中一次一次被中国人民给扔到鸟不拉屎的地方去了。但是我们也接受了一些别人扔掉的理论,比如某个马先生发明了一套理论,在本国没搞下去,被我们拿过来,整合了一下我们的情况,现在还在用。&
我们的实用主义表现在具体的方面:就是大妈的讨价还价,就是公家的钱使劲儿花,自己的钱使劲儿捂着。我惊异于这种情形不仅仅发生在中国人身上,也发生在每个来了中国的鬼子身上。可能这是人的一种劣根性吧。
不管如何,这种实用主义用在领导身上的时候,凸显的情形是:不做无表现力的事情。举例说明:我如果有50个亿,造出10栋楼来,那结果是显而易见的,不管我的哪个领导来了,都能清清楚楚的看到我的政绩;如果我全部补贴了食堂,那即是学生每顿饭的饭钱从10块降到了2块,领导是看不到的,就需要让学生来替我说明我的政绩;可是,如果我用来推动了教育的发展,研发了一款对国家科技极其有用的软件,我的领导的想法是什么?他肯定会说:&草泥马,你丫脑子进水了!!!&&
为什么会有这种情况出现? 我想过几个原因,列出来是这样的:
1. 水平有限。 我这么说LD,其实心里也很忐忑。我怕因为实话说太多,被人叫去喝茶。LD学得专业,一般都是比较杂的,很少有对口的领导管对口的事儿。 于是经常出现瞎指挥的现象。不多说,大家自己去查找例子。
2. 为了屁股。其实很多人也非常清楚这事儿不靠谱,可是为啥还要上?利益驱使。说白了,做决定的时候,用的是屁股而不是脑袋在想问题。位置决定了他的角度。
3. 怕贪污。其实之所以许多公款都要求你不能发给个人,一个原因是怕贪污。给你50亿做项目,结果你拿了49.9亿去做等等等等那些事儿,剩下1000块搞个码农写个破网站,就交差了。我们的有些人真有这个胆子,比如铁道部的某某人,我猜丫的就敢。
以上这些原因会导致:
大家都追求硬件的发展,而忘却了软件的发展。
其实所谓硬件,大多数的核心硬件都是买来的(我感觉,一楼在这里试图误导大家)。这个情况很正常,因为国内国外能够生产效率很好的硬件的厂商就那几个。欧洲人的机器也是从美国买的。需要提一句的是日本人,他们的硬件许多都是采用的国产的,很让人钦佩。因此,所谓的机器架构上的优势,没必要来炫耀。
想再说一下钱的问题。
超算的运营费用非常高,电费一年就1000w,很正常。这么多得钱,国外的原则是,用的是纳税人的。也就是政府拨款。另外,支持一个超算中心运营需要很多人,账号管理,机器监控,运营,故障排查,等等吧。国外也是政府来给他们付工资。所以,任何人使用超算,都是在使用政府的资源,基本是不付钱的。也就是说,超算和国家图书馆一样,是开放性单位,国家负责支付。(主要是个人埋单搞不起,所以,姑娘们,如果有个富二代声称自己家牛逼,就让他买个超算玩儿再说)
超算的人才是很难培养的。由于我们对于软实力的一贯忽视,目前国内的基本情况是:不专业,不智能,不关心。并且,和国外不同,国内的超算一般是自负盈亏。也就是你来超算中心算题,需要向超算中心付费。这是阻碍超算发展的一个策略。我待会儿说为什么。
随着科学算法的进步,我们能够模拟的事情越来越多,而且计算量越来越大。衡量超算水平的一个重要指标是计算规模的大小(使用了多少个核心,算了神马问题,用了什么算法)。目前国际上最高奖项是Gordan Bell奖。中国到目前为止得了多少次这个奖呢?你猜的是对的,零蛋!!其中一个主要原因就是,首先国产的应用少,其次,国产应用一般都难以计算非常大得规模。为什么?就是因为那个可耻的规定----计算要花自己的钱,所以,我们都尽量使用少数几个核心,算一算就得了。没人来研究大规模。
应用上的缺陷带来了必然是机器使用上的巨大漏洞:我们现在的巨无霸机器上跑着都是几十核心,几百核心,甚至是串行的代码!!!!!
问题三:「天河二号」成为最快超级电脑,真能彰显竞争力吗?
首先,天河二号是否彰显国家竞争力?答案是肯定的。
那么,为什么它能彰显国家竞争力?这就需要知道这种超级计算机研制的难点在哪里。
现在全球投入使用或将要投入使用的超级计算机,几乎全部都是集群式计算机。这种计算机简单说就是将大量的微型计算机通过网络系统连接起来,使用专用的操作系统控制来执行大规模的计算任务。搭建超级计算机所使用的节点,通常都使用市场上能买到的工作站/服务器使用的CPU、GPU等芯片。例如天河2使用的就是Intel的Xeon E5 V2处理器和Xeon Phi协处理器(后者类似GPU,负责一些特殊的计算任务),这两种芯片都是在公开市场上销售的。(Xeon E5 V2的正式销售要等到第三季度)类似地,超算的内存、存储单元等一般也是标准化的产品,没什么特殊和神秘的。
超级计算机研发的真正难点在于网络系统和软件系统。集群计算机系统在处理单一计算任务时,集群中的各个节点之间的通信是非常复杂的。不仅节点间传输的数据量巨大,延迟要求严格,而且动辄就需要数百数千乃至上万个计算节点之间同时传送计算数据。当网络系统的效率不足时,大量的数据会在网络上发生拥堵,可能会极大地降低整套系统的运算性能。整台超级计算机的运算速度越强,集群内的节点数目越大,对网络系统的要求就越高。因此,网络系统性能是硬件上制约超级计算机运算能力的最主要瓶颈。正因为存在这一瓶颈,厂商不可能通过无限制地堆砌节点数量来增加计算能力&&当总的运算能力超过网络系统最高负荷后,继续增加的节点不仅不能提高计算能力,反而会让性能下降。
另一方面,控制大量的计算节点执行同一个或少数一些计算任务,对软件系统的要求是和我们日常接触的应用完全不同的。软件系统必须对硬件高度优化才能充分发挥硬件的潜力,否则就会产生瓶颈。此外,由于超算的节点众多,少数节点损坏是家常便饭,软件系统必须做到部分节点损坏时不影响任务的持续。当然,系统更不能频繁出现死机、崩溃等情况,对稳定性的要求远高过一般的家用、商用电脑。满足这些要求的前提下,系统还需要做到尽可能的易于使用,这样才便于执行多种多样的计算任务,处理各行各业的需求。
因为以上两大限制的存在,超级计算机的研制事实上是技术含量非常高的。节点的芯片随便可以买得到,但网络系统和软件系统都是超算研发厂商自己的实力所在。
再来看看天河2。
天河2使用了自主研发的网络系统和操作系统,其中网络系统使用了国防科大自主研发的,基于SPARC指令集的飞腾1500处理器来处理网络数据,操作系统则是自主开发的麒麟。天河2目前有大约13000个计算节点,每个节点使用了两颗Intel的Xeon E5-2692 V2 CPU和三张Xeon Phi 31sp Co-processor。Xeon E5-2692 V2是Intel开发的CPU,尚未上市,每颗CPU有12个核心,主频2.2GHZ;Xeon Phi 31sp则是Intel开发的协处理器,专门用来执行密集浮点运算,其形态为类似显卡那样的PCIe扩展卡,卡上有一颗芯片和8GB高带宽内存,芯片内有57个主频约1GHZ的核心。Xeon Phi的一个特点是浮点运算效率较低,其在运行浮点运算基准测试linpack时,实际性能只相当于理论最大运算性能的60%左右&&相比之下,Xeon E5 CPU运行相同测试时的效率在80%以上。但是Xeon Phi的理论最大运算性能较高(每张卡1T Flops,亦即每秒1万亿次浮点运算),大大超过Xeon E5的212G Flops(每秒2120亿次浮点运算),因此一张Xeon Phi的实际运算能力可以达到三颗Xeon E5的水平。
天河2的整机理论最大浮点运算性能达到54900TFlops,而实测运算性能达到33860TFlops,效率达到60%左右,这是非常不容易的:这意味着拥有1.3万计算节点的庞大计算集群,效率和单个节点是差不多的水平。这说明天河2的网络系统和软件系统的水平是非常高的,在1.3万节点的水平下几乎没有网络和软件瓶颈的出现。相比之下,一些较小的使用较落后网络系统的超算,几百个节点下的运算效率相比单节点的效率几乎减半,说明瓶颈是非常严重的。现在的天河2只是完成了一期工程,未来通过增加节点和改用更快速的计算卡(后者类似于我们常说的电脑升级)预计可以达到超过5万TFlops的运算能力,这都要感谢国防科大自主研制的高性能网络系统和软件系统。
对于现代工业国家来说,超级计算机是增强研发能力、增强工业竞争力的一个重要的环节。一台超算既可以处理少量的超大计算量的任务(比如军事上模拟核试验),也可以处理大量的计算量较小的任务(比如为众多用户同时处理不同的计算需求,如计算产品的流体测试数据、为电影后期进行三维渲染、为学校物理实验提供科学计算支持等),其用途是十分广泛的。国内已经建成的超算中心都有各行各业的大量用户在使用,效益还是很不错的。经过多年发展,中国的超级计算机研发能力已经达到了仅次于美国日本的水平,在世界上属于第一梯队。虽然与美国的差距仍然较大(主要体现在核心芯片与软件系统上),但发展的前景是越来越好的。很多外行不明就里,动辄就说超算就是堆芯片没有技术含量,其实只是在证明自己的无知与自大罢了。
大家都围绕硬件,架构,能耗说了一大番。根据我自身的经验,用过曾经的国内top1的超级计算机magicube以及美国的top3计算机nersc旗下的hopper,简单说一下用户系统等软件架构的差别(距)吧。
国内的系统,特别是用户系统这块不用说开发,连部署都没有做好。超级计算机的日常应用其实大多数是中小任务的并行计算,需要的计算峰值并不高,所谓测试排名的计算规模实际的应用场景不会超过1%(个人感觉,无数据支持)。因此,用户系统,包括作业调度、排队,优先级设定,以及并行的组合设定,如内存,cpu数目等,国内的系统基本处于原始的阶段。虽然无关核心,但是从运营的角度这些都是关键。
说一些技术之外的政治背景。若干年前,美国国会有一个一年一度可以影响(虽然程度不深,但毕竟可以)中国政策的举动 && 最惠国待遇审查。而后,美国国会通过了授予中国永久最惠国待遇的决议。此后国内风气的发展,见仁见智吧,不说全受这个影响,也至少有 10% 吧。而游说永久最惠国待遇的大集团之一,就是 Intel 。
再说银河 II 型,这个东西搞的时候目标就很明确 && 根本没法用!就是告诉美国国会:我们也造的出来,赶紧卖给我们 IBM 巨型机吧!
所以,美国商人的逐利行为,不仅乐于承担中国的巨型机建设,还乐于向国内说明这是中国人自己的功劳。
=== 以下是原来的答案(得 10 票)====
天河二号显示的是我们国家在某些方面出于某种目的发挥出的集中资源的能力。它并不能彰显不可缺少的竞争力。芯片用的是 Intel 产品。软件方面如果没有意外,通常也外包给 Intel 不少。可以说在这些方面美国已经不怎么「封锁」中国。决定因素不过是有没有消耗这些计算能力的市场。至于这些计算能力是政绩工程还是消耗在某些验证工程方面就不得而知了。当然,如果用来计算材料分子仿真或者天气预报,那自然是极好的。
@唐羽&的答案,看得振奋人心,我当年也激动不已。不过业内对这篇文章的水分早就有澄清。芯片技术基本上是 18 个月集成度翻番的水平。在有大量公开设计的情况下,落后一到两年也就跟工业上落后二十年差不多。龙芯基本上就是 MIPS clone。
看过本文的人还看过
最新图文推荐
大家感兴趣的内容
&&<a rel="nofollow" class="red" href="" target="_blank" color="red新版网站排行榜
===全新上线===
网友热评的文章}

我要回帖

更多关于 有一天 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信