所有文章 > 正文

英特尔发布世界上最快的学术超级计算机Frontera

作者: Jansfer

时间: 2019-09-05 09:44

2018年8月,戴尔EMC和英特尔Intel宣布共同设计Frontera,这是一台学术超级计算机,由美国国家科学基金会提供的6000万美元赠款资助,该计划将取代德克萨斯大学奥斯汀德克萨斯高级计算中心(TACC)的Stampede2。该计划在今年6月份实现,当时两家公司部署了Frontera,并于9月3日正式公布亮相。

0904--1.png

图|TACC的Frontera系统(图片来源: Intel英特尔)

英特尔声称,Frontera可以达到每秒38.7千万亿次浮点运算(petaflops)的峰值性能,使其成为世界上最快的计算机,专为建模、仿真、大数据和机器学习等学术工作负载而设计。(而Stampede2仅达到18千万亿次浮点运算的峰值性能。)今年早些时候,Frontera在LINPACK基准测试中以23.5千万亿次浮点运算的速度获得了年度两次Top500排行榜的第五名,该基准测试是世界上功能最强大的非分布式计算机系统。

英特尔副总裁兼英特尔极端计算组织Trish Damkroger总经理表示,“Frontera系统将为研究人员提供前所未有的用于学术研究的计算能力和人工智能功能。借助英特尔技术,这款新型超级计算机为科学和工程开辟了新的可能性,推动了研究,包括宇宙理解、医疗治疗和能源需求等领域。”

戴尔EMC PowerEdge服务器内置的数百个28核第二代Xeon可扩展(Cascade Lake)处理器处理Frontera的大量计算,和Nvidia节点一起用于单精度的计算。该芯片架构基于英特尔的高级Vector Extensions512(AVX-512),这组指令与上一代相比,可使每个时钟的FLOPS次数增加一倍。

Frontera的大多数节点都采用液体冷却,与戴尔EMC从系统集成公司CoolIT和Green Revolution Cooling提供水和油冷却不同,Frontera的冷却利用Mellanox HDR和HDR-100互连来传输数据,每条链路以高达200Gbps的速度在连接其8008个节点的交换机之间传输。预计每个节点将消耗大约65千瓦的电力,除了利用太阳能,其中大约三分之一是TACC从风力发电信贷和风力发电中获得的电力。

在存储方面,Frontera采用了四种不同的环境,这些环境由DataDirect Networks构建,总共超过50PB,并配备3PB的快闪记忆体。(这可以达到每个节点大约480GB的SSD存储空间。)其中三种是通用的,而第四种拥有每秒1.5TB的高速连接。

最后,Frontera利用Intel Optane DC持久存储器,这是由Intel和Micron Technology开发的非易失性存储器技术,与DDR4兼容,并结合了大型缓存与较小的DRAM池(每节点192GB)来提高性能。与最新一代的Xeon可扩展处理器配合使用,英特尔将Optane DC PM的性能提高到每秒287,000次操作(相对于传统的DRAM和存储组合的每秒3,164次操作),重启时间仅为17秒。

Frontera已经被像罗彻斯特理工学院天体物理学教授Manuela Campanelli用于开发一种模拟,这种模拟可以解释中子星合并过程中能量爆发的起源。德克萨斯大学奥斯汀分校的George Biros教授则利用Frontera建立了脑肿瘤发展的生物物理模型,以更有效地诊断和治疗胶质瘤(一种脑肿瘤)。北卡罗来纳大学教堂山分校的助理教授Olexandr Isayev正在使用Frontera训练人工智能模型,该模型可以根据分子的三维结构来描述分子的力场和势能。

Frontera加入了目前在TACC部署的十多个先进计算系统,包括Lonestar和Maverick,预计将连续运行五年。下一阶段Frontera将涉及特定应用的加速器,包括量子模拟器和张量核心系统,这两者加起来将会把整体计算速度提高10倍。

美国国家科学基金负责计算机和信息科学与工程的助理主任说:“Frontera将为全国各地的科学家提供前所未有的计算建模、仿真和数据分析功能,Frontera代表了NSF三十多年来对先进计算能力的支持,确保美国在该研究前沿保持全球领先地位。”

参考:https://venturebeat.com/2019/09/03/intel-unveils-frontera-the-worlds-fastest-academic-supercomputer/

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多