大家好,我是考100分的小小码 ,祝大家学习进步,加薪顺利呀。今天说一说ai处理器到底有什么用_ai吃显卡还是cpu,希望您对编程的造诣更进一步.
Intel先前推出了Xeon Scalable系列服务器专用处理器,包括白金、黄金、银、铜等不同等级产品,取代先前的E7、E5、E3命名方式,并能带来高于前代产品1.73倍的综合功能表现,在深度学习方面更有2.2倍的功能表现,相当适合用于人工智慧领域,Intel也说明了人工智慧的功能需求与一般运算有何不同。
AI在做什么
最近AI(人工智慧)的发展有著爆炸性的成长,如影像辨识、语音辨识、自然语言处理等需求,都可以通过AI处理。而深度学习也是AI技术的其中一环,它是种执行机器学习的技术,能够将大量数据输入机器,并通过演算法分析数据,让机器从中学习判断或预测事物的能力。
以影像辨识为例,输入的影像会经过许多称为「层」的数学运算过程,每「层」运算都能让系统分析影像的特征,当第一「层」运算完成后,就会将分析结果传到下一「层」,如此更替运算直到最后一「层」。
在运算过成中,系统内的类神精网路(Neural Network)会通过正向传播演算法(Forward Propagation)学习图像的特征与计算权重,并通过反向传播演算法(Backward Propagation)比对输入资料与演算误差,修正错误。
在深度学习中,输入的图像通常是一组数量庞大的图库,并以平行处理方式同时进行大量运算,使用者可以在训练过程中调校参数,提高训练的准确度与速度。当训练完成后,我们就能利用AI进行图像分类,让AI自动将图像分类或是加上标签(Tag)。这个动作称为深度学习推论(Deep Learning Inference),是相当重要的功能指标。
▲ 深度学习领域中的类神经网路是种模仿生物大脑结构和功能的数学模型。
Xeon Scalable处理器冲着AI而来
在了解了深度学习的概念后,就可以开始看看Intel是如何强化Xeon Scalable处理器的功能,来提升深度学习的效率。
类神精网路运作时的摺积运算基本上就是矩阵相乘,因此能够以每秒进行的单精度通用矩阵乘法(Single Precision General Matrix Multiply,SGEMM)或通用矩阵乘法(Integer General Matrix Multiply,IGEMM)运算次数,来评估处理器的功能表现。相较于Broadwell时代Xeon处理器,Xeon Platinum 8180能够带来2.3倍SGEMM功能,以及3.4倍INT8 IGEMM4功能,有效提升深度学习效率。
此外Xeon Scalable也支持AVX-512指令集,能同时进行2组512 bit融合乘加(Fused-Multiply Add,FMA)运算,吞吐量是AVX、AVX2的2倍,根据Intel内部测试,在同一个处理器上开启AVX-512,可以带来1.65倍功能提升。
另一方面,由于深度学习仰赖庞大的资料,所以记忆体存取能力也是功能表现的重要关键。每颗Xeon Scalable都支持6通道DDR4记忆体,以及新的网状架构(Mesh Architecture),在STREAM Triad功能测试中,记忆体频宽高达211GB/s,此外大容量的快取记忆体也对功能有正面助益。
除了硬体方面,Intel也以开源形式提供了深度神精网路(Deep Neural Networks)运算用的函数库,方便使用者利用Neon、TensorFlow、Caffe、theano、torch等软体框架开发AI程式,通过软体最佳化的方式尽一步提升功能。
虽然我们这种一般使用者不会直接使用Xeon Scalable处理器,但仍可使用许多与AI相关的多云端服务,因此还是能间接享受Xeon Scalable的强悍功能。
▲ Intel的Xeon Scalable系列服务器专用处理器也走彩色战队风。(图片来源:Intel,下同)
▲ Xeon Scalable相较于前代产品,在AI运算表现上最高有2.4倍提升。
▲ 在AI的训练方面,能够比前代产品提升2.2倍效率。
▲ AI推论输出的效率则最多可提升2.4倍。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/11905.html