智算无限 持续赋能 | 智微智能高性能AI服务器
来源:智微智能 编辑:站台丶 2023-10-09 10:25:36 加入收藏
为了推动国家AI产业的发展,一系列的支持性政策陆续出台,加上海量数据的增加、算法模型的复杂化以及应用场景的深入发展,中国AI算力规模正在持续扩大,算力需求的持续释放带动算力基础设施产业迎来增长新周期。据IDC数据显示,AI的应用与普及促使2022年我国智能算力规模近乎翻倍,达到268EFLOPS,超过通用算力规模。2026年我国智能算力规模将达1271.4EFLOPS,21-26年复合增长率预计达52.3%,而硬件占AI支出比重的49.8%。其中最大投资是服务器,占AI硬件支出比重84%以上,AI将成为未来服务器市场新一轮快速增长的主要推动力。2021年全球人工智能服务器市场规模达156亿美元,同比增长39.1%,2022年约为183亿美元,预计未来人工智能服务器市场将继续高速增长,2023年市场规模将达到211亿美元。
资料来源:IDC
AI服务器概述
服务器随场景需求分为通用服务器、云服务器、边缘服务器、AI服务器四种模式。AI服务器采用GPU增强其并行计算能力,CPU+GPU是AI服务器的核心部件。AI服务器可分为深度学习训练型和智能应用推理型,训练对芯片算力要求更高,推理对算力的要求偏低。中国AI服务器推理负载占比约55.5%,未来有望持续提高。当下AI服务器通常采用异构形式,在训练模型或者应用推理等情况下,CPU+GPU组合仍然是实现数据中心加速的首选。
► 训练:属于非实时业务,所耗时间可能数天也可能数月,具体取决于模型参数量的多少和算力芯片性能的高低,因此在算力芯片和服务器的投入上,属于用户对阶段性模型训练需求的一次性高投入成本。
► 推理:属于实时业务,需要响应客户端触发的实际需求,算力需求取决于活跃用户数和设计并发数的级别,因此算力芯片和服务器的投入,会随着模型的商用流行度以及吸引的活跃用户数持续增加。
加上数据量的剧增,不同应用场景对AI服务器的芯片散热、整机设备散热和电源功率及效率要求大幅提升,RAID控制卡随数据量同步增加,PCIe接口传输速率也随之迎来升级。此外,为了保障数据安全,AI服务器必须加强数据加密技术,并建立定期备份和恢复机制,以满足不断增长的AI应用需求,并确保AI服务器性能和可靠性的持续提升。
智微智能AI服务器
智微智能AI服务器目前拥有SYS-80215R、SYS-8029R-S06、SYS-8049RG 三款产品。产品均采用Intel 至强可扩展系列处理器平台,为AI领域提供强大支持,满足实时数据处理、训练和推理等关键需求。工规级设计,适用于各种复杂场景下的部署和应用。
SYS-80215R 是一款2U双路高性能AI服务器,采用Intel C741高性能芯片组,支持第四代英特尔至强可扩展系列处理器。整机提供16个DDR5 RDIMM内存槽,最大支持4TB内存扩展,支持最多12个3.5寸热插拔SAS/SATA3.0硬盘;提供4个PCIe 5.0 x8和2个PCIe 5.0 x16高速插槽,方便扩展各类PCIe设备(如高性能GPU、FPGA加速卡、RAID控制器、ASIC加速卡等),提高对CAD、仿真模拟、GCC渲染、GPU计算等应用的支持;2个Intel 2.5G网络接口,提供更快的网络连接速度和更好的宽带;1个IPMI网络管理接口,支持服务器硬件检测,可远程监控服务器各硬件的工作状态,及时做出调整。
前后面板设计简单易用,没有复杂按键,操作简单。服务器顶部配备一键拆卸开关,便于用户更换设备和进行运维,无需重复锁螺,适用于对空间部署有要求和高计算性能等应用场景。
SYS-8029R-S06 是一款2U双路边缘AI服务器,采用Intel C621高性能芯片组,支持第二代英特尔至强可扩展系列处理器。提供16个DDR4 DIMM内存槽,最多支持4TB内存容量,标配支持6个2.5寸SATA3热插拔硬盘,最多可扩展6个半高单宽加速卡。集成2个千兆网络端口和2个2.5G网络端口,具有负载均衡、链路汇聚和支持冗余特性,可有效减少网络延迟。提供1个IPMI网络管理端口,支持IPMI 2.0和KVM Over IP高级管理功能。高集成度的设计能在有限的空间内带来强劲的计算性能表现,适用于对部署空间有要求的场景应用,满足边缘端的数据推理需求。
SYS-8049RG 是一款4U双路AI服务器,采用Intel C621高性能芯片组,支持第二代英特尔至强可扩展系列处理器。提供16个DDR4 RDIMM内存槽,最大支持4TB内存扩展;标配8个3.5寸6G SATAIII热插拔硬盘,支持Raid0,1,5,10;整机支持4张双宽全高或7张单宽NVIDIA图形计算加速卡(例如NVIDIA A30 Tensor Core GPU),为AI训练提供强有力的算力支撑。采用X550万兆网络控制器,支持2个万兆电口及1个千兆IPMI管理接口,支持链路汇聚以及绑定冗余功能,网络高速互联为 GPU 计算集群提供高密度、高性能的节点平台。可用于图形渲染、深度学习、化学分子计算、云计算和虚拟化、计算密集型行业应用。
助推AI应用发展
智微智能提供完整且灵活的AI服务器产品组合,通过不断创新和优化,持续提升AI服务器的性能、灵活性和可扩展性,以确保能够适应各种数据规模和AI的应用需求。
硬件方面,智微智能AI服务器产品采用经过深度优化的处理器架构,借助优异的芯片制程技术,实现卓越的计算性能和能效比。产品兼容多个国产ASIC厂商加速卡 ,配备大规模的高速存储配置,以提供强大的并行计算能力。通过IPMI管理接口,用户可以通过网络接口对服务器进行远程管理和监控,包括监控服务器的硬件状态、重启服务器、更新固件等操作,大大提高服务器的管理效率,有效防止系统出错,保护关键系统数据完整性和可靠性。
总 结
智微智能AI服务器,在设计和功能上充分考虑了应用场景的多样性。能够加速数据分析、预测性维护、优化大数据模型等关键应用,为不同场景的AI需求提供了更准确、高效、智能的解决方案。
评论comment