您正在使用IE低版浏览器,为了您的FUTUREAI账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
FUTUREAI 业界
发私信给FUTUREAI
发送

AI办事器的界说、劣势及近况

本文作者:FUTUREAI 2019-05-06 16:00
导语:导读: 正在行将到去大概道曾经到去的人工智能时期,我们更多的是听到AI办事器那一位词。那末,终究甚么是AI办事器,AI办事器又为什么合用人工智能时期? 正在行将到去大概道曾

导读: 正在行将到去大概道曾经到去的人工智能时期,我们更多的是听到AI办事器那一位词。那末,终究甚么是AI办事器,AI办事器又为什么合用人工智能时期?


正在行将到去大概道曾经到去的人工智能时期,我们更多的是听到AI办事器那一位词。那末,终究甚么是AI办事器,AI办事器又为什么合用人工智能时期?

AI办事器的界说

从硬件架构去看,AI办事器次要指的是采取 同构情势的办事器,表示 形状多为机架势。正在同构方法上,能够为CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加快卡。

而正在其他构成部件上,如内存模块、存储模块、收集模块取传统办事器不同 没有年夜,次要的提拔即是撑持更年夜容量的内存满意当下及时背载删减的需供,供给更多中置硬盘插槽,并普遍撑持NVME/PCIE等SSD,满意数据大水需供,收集模块次要表示 为带宽删减。

虽然AI办事器能够采取 多种同构情势,但烦闷 沉迷前普遍利用的是CPU+GPU。也因而,业界正在道到AI办事器时,常常将其默许为GPU办事器。因而,正在第两部门中,笔者道到的AI办事器劣势也次要为GPU办事器。

AI办事器的劣势

传统办事器次要以CPU为算力供给者。而CPU为通用型处置器,采取 串止架构,善于逻辑计较,卖力分歧 范例品种的数据处置及拜候,同时逻辑判定又需求引进年夜量分收跳转中止处置,那使得CPU的内部构造庞大。也因而,CPU算力的提拔次要靠堆核去真现。

跟着云计较、年夜数据、AI、物联网等手艺使用,数据正在远几年呈指数型增加,IDC统计显现齐球90%数据均正在远几年发生,那便对CPU的处置才能提出磨练,而烦闷 沉迷前CPU的物理工艺、中心数已靠近极限,数据量却没有会截至,办事器的处置才能必需 提拔。因而,正在AI时期下,仅由CPU做算力供给者的传统办事器其实不 能满意需供。

分歧 于CPU,GPU采取 并止计较形式,单卡中心数到达上千个,善于处置稀散型运算使用,如图形衬着、计较视觉战机械进修。颠末几年考证,拆载GPU的办事器也被证明确实合用那个时期。

AI办事器市场近况

IDC齐球半年度人工智能体系收入指北猜测显现,2019年齐球人工智能体系收入将到达358亿美圆,比拟2018年删减44.0%。同时,人工智能体系收入到2022年将翻一番到达792亿美圆,2018年到2020年猜测期内复开年增加率(CAGR)为38.0%。

那一数值也意味着,AI办事器的市场有多广。也因而,齐球几年夜办事器厂商均松锣稀饱摆设着AI办事器。

烦闷 沉迷前,正在中国市场上,海潮的市场占据率最年夜,且处于尽对抢先职位,份额到达51.4%,曙光战新华三松随厥后。从止业散布去看,互联网当之无愧是AI办事器的次要用户。而正在GPU上,NVIDIA具有较着劣势,其Tesla系列说明 阐述正在AI根底设备市场占有主导职位,特别正在线下锻炼场景中处于把持职位。

而正在AI办事器上,烦闷 沉迷前机能最强的为海潮AI超等办事器AGX-5,AGX-5是专为深度进修战下机能计较的机能扩大设想,单机正在8U空间里能够设置16颗NVIDIA Tesla V100 Tensor Core 32GB GPUs,具有10240个张量计较中心,计较机能下达每秒2万万亿次。


本文由进驻维科号的做者撰写,不雅面仅代表做者自己,没有代表景智AI坐场。若有侵权或其他成绩,请联络告发。

声明:景智AI网尊重行业规范,任何转载稿件皆标注作者和来源;景智AI网的原创文章,请转载时务必注明文章作者和"来源:景智AI网", 不尊重原创的行为将受到景智AI网的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至:mailto:813501038@qq.com

分享:
相关文章
最新文章