客车厂家
免费服务热线

Free service

hotline

010-00000000
客车厂家
热门搜索:
产品介绍
当前位置:首页 > 产品介绍

浪潮信息互联网公司加速布局人工智能ai服是嘛

发布时间:2021-07-11 16:28:48 阅读: 来源:客车厂家
浪潮信息互联网公司加速布局人工智能ai服是嘛

浪潮信息:互联公司加速布局人工智能 ai服务器受追捧

2018年,人工智能热度依然不减,可谓年度it关键词之一,随着将人工智能上升为国家战略,我国的人工智能行业便如火如荼地展开。互联行业和传统的制造业将经历一场大的变局,为了在这场变局中生存,各大互联公司纷纷在人工智能方面布局,抢滩ai时代的制高点。

bat三巨头有百度的自动驾驶,阿里的城市大脑,还有腾讯基于自己软件应用场景做的各种智能化尝试;新兴的人工智能巨头如科大讯飞的智能语音,今日头条的智能推荐等等,都在改变着人们的生活方式。而实现这一切的背后,离不开强大的ai服务器。

浪潮信息agx-2(nf5288m5)是目前全球唯一可在2u空间支持8颗nvlink2.0高速互联gpu加速计算的ai服务器,能满足ai云、深度学习模型训练和线上推理等各类ai应用场景对计算架构性能、功耗的不同需求。每u搭载4颗gpu的密度、960tflops的性能、ns级的延迟等强大性能的背后,必然对功耗、密度、稳定性带来极大的挑战,这背后又有哪些黑科技呢?

ai计算加速器agx-2

为了提升计算效率、满足多样化ai场景需求,agx-2变异构为同构,消除了异构通信带来降低计算效率的烦恼。为了更大幅度地提升服务器计算效率,满足ai应用对计算力的需求,agx-2在架构设计中将计算密度做到了极致。而为了满足客户对弹性架构平台的需求,agx-2②.对1些小实验力的夹具创新地采用pci-e连接资源,实现更加灵活的拓扑。

浪潮信息ai服务器agx-2

极致效率、异构变同构:agx-2抛弃传统异构计算架构模式,在2u空间内支持部署8块nvlink或pci-e 接口的nvidia? tesla? p100 gpu,可以在不依赖cpu的前提下,实现机内点到点通讯,减少了异构通讯的次数;并在业界率先支持nvlink 2.0和最新发布的nvidia? tesla?系列gpu,可以实现gpu间高达300gb/s的互连带宽,并提供极低的延迟,让多块gpu并行的效率大幅提升超过60%。将gpu同构,把agx-2的并行计算效率尽可能推到极限。

极致密度、更高计算力:与浪潮信息支持2u4卡的nf5288m4对比测试,agx-2采用p100的linpack浮点运算性能达29.33tflops,是同样采用p100 nf5288m4的2.47倍;在ai深度学习模型训练上,当采用tensorflow框架和 googlenet模型,agx-2处理速度为每秒1165幅图片,是搭配4片tesla? m40的nf5288m4性能的2.49倍。在实现了性能和效率双提升的同时,机箱仍然保持了和上一代一样的2u高度,实现了最高的gpu卡部署密度。在超大规模ai训练集群或hpc集群引用时,可以帮助客户节省数据中心的基础设施资源,更有利于数据中心的空间分配。

极致灵活、弹性计算拓扑:agx-2采用pci-e线缆的方式连接cpu和gpu资源,可以灵活调整cpu的连接带宽和连接数量,在应对不同的ai应用时,更好的做到pci-e资源按需分配。灵活的计算架构可以让一颗或两颗cpu管理8颗gpu,也可以通过gpu扩展box的方式,实现最大16gpu的纵向扩展。而服务器提供的pci-e i/o,8个u.2插槽, 或多达4块100gbps infiniband卡,都可以根据计算灵活调整拓扑。a而原料结构多元化的关键影响因素是油价gx-2弹性的异构平台,足以支撑多样化的ai场景。

极致设计背后带来的极限挑战

agx-2通过优秀的设计,实现了性能、灵活性和密度的多维度增强,然而这背后带来的却是对互连、供电和散热设计的三大极限挑战。如何在一个系统中实现gpu卡的灵活配置,满足高达3000w的供电需求,并在有限的空间内解决散热,只要配备不同的夹具就能够进行不同的测试了成为了开发这款产品的三大难题 。在此就给大家一一揭秘agx-2是如何做到的。

300gb/s聚合带宽的cube mesh拓扑

互连挑战:有别于业界异构服务器cpu和gpu紧耦合的互连方式,agx-2采用解耦式设计,不但提供灵活性,同时还支持高达300gb/s的nvidia? nvlink?gpu互连带宽。浪潮信息

结合刀片服务器的设计思路,把这些组件紧凑的布局到2u空间中,并基于8路服务器的设计经验,确保nvlink?的走线长度、信号都处在最佳状态,以保证gpu的性能发挥。

供电挑战:8块功耗高达300w的gpu,以及服务器内其他的计算、存储和i/o资源,整机的功耗需求达到3000w,供电如何走线成为最大的挑战。agx-2借鉴了浪潮信息在整机柜服务器的供电设计方式,对单服务器内部采用无线缆供电设计,减少了供电线缆对空间的占用以及对散热气流的影响。在保证供电能力的同时,对空间、散热的影响降到最低。

散热挑战:3000w的供电,意味着3000w的峰值发热量,6倍于传统的2u服务器,散热成为一个绕不过的难题。agx-2在设计之初,从布局、风道和气流多个方面统筹进行考虑。低发热量组件前置,高发热量组件后置,避免局部热点,让空气在服务器的内部均衡的升温,再通过高速风扇将热量快速带出服务器,最终agx-2可以和传统服务器一样工作在35℃的环温下。并且为了支持低pue数据中心,还可以配置气液混合散热,甚至可以支持45℃的高环温运行。

100%的计算密度提升、960tflops的计算力、200倍的单机ai训练性能,agx-2无愧是一款最高密度、最高性能的ai服务器,无论是在面向人工智能训练还是hpc应用时,都将为用户提供极致性能体验。和传统概念的高性能集群相比,gpu同构、灵活拓扑和【丈量显示系统】该机采取光电编码器收集试样的改变角度超高密度的整体架构,让应用和硬件的结合,变得更为高效和紧密。

(免责声明:此文内容为本站刊发或转载企业宣传资讯,仅代表作者个人观点,与本无关。仅供读者参考,并请自行核实相关内容。)

:heping

德令哈试验机厂家
泰安试验机厂家
温州工服订做