你好,欢迎来到川北在线
微信
腾讯微博
新浪微博
亚马逊云科技Inf2实例每瓦性能提高了50%
时间:2023-05-16 10:32   来源:搜狐   责任编辑:青青

  原标题:亚马逊云科技Inf2实例每瓦性能提高了50%

  在2019年的亚马逊云科技re:Invent上,亚马逊云科技发布了Inferentia芯片和Inf1实例这两个基础设施。Inferentia是一种高性能机器学习推理芯片,由亚马逊云科技定制设计,其目的是提供具有成本效益的大规模低延迟预测。时隔四年,2023年4月亚马逊云科技发布了Inferentia2芯片和Inf2实例,旨在为大型模型推理提供技术保障。

  Inf2实例的应用场景

  使用亚马逊云科技Inf2实例运行流行的应用程序,例如文本摘要、代码生成、视频和图像生成、语音识别、个性化等。Inf2实例是Amazon EC2中的第一个推理优化实例,引入了由NeuronLink(一种高速、非阻塞互连)支持的横向扩展分布式推理。现在可以在Inf2实例上跨多个加速器高效部署具有数千亿个参数的模型。Inf2实例的吞吐量比其他类似的Amazon EC2实例高出三倍,延迟低八倍,性价比高出40%。为了实现可持续发展目标,与其他类似的Amazon EC2实例相比,Inf2实例的每瓦性能提高了50%。

  使用Inf2实例运行GPT-J-6B模型

  GPT-J-6B是由一组名为EleutherAI的研究人员创建的开源自回归语言模型。它是OpenAI的GPT-3 的替代方案之一,在聊天、摘要和问答等广泛的自然语言任务中表现良好。

  该模型由28层组成,模型维度为4096,前馈维度为16384。模型维度分为16个头,每个头的维度为256。旋转位置嵌入(RoPE)应用于每个头的64个维度。使用与GPT-2/GPT-3相同的一组BPE,使用50257的标记化词汇训练模型。

  GPT-J-6B基础设施有60亿个参数,非常适合大语言模型(LLM)学习的入门版本,进行文本生成测试。在部署过程中,用到了Neuron SDK和transformers-neuronx。transformers-neuronx是由AWS Neuron团队构建的开源库,可帮助使用AWS Neuron SDK运行转换器解码器推理工作流程。目前,它提供了GPT2、GPT-J和OPT模型类型的演示脚本,它们的前向函数在编译过程中重新实现,以进行代码分析和优化,并且可以基于同一个库实现其他模型架构。AWS Neuron优化的转换器解码器类已使用称为PyHLO的语法在XLA HLO(高级操作)中重新实现。该库还实现了张量并行(Tensor Parallelism),以跨多个NeuronCore对模型权重进行分片。

   投稿邮箱:chuanbeiol@163.com   详情请访问川北在线:http://www.guangyuanol.cn/

川北在线-川北全搜索版权与免责声明
①凡注明"来源:XXX(非在线)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,本网不承担此类稿件侵权行为的连带责任。
②本站所载之信息仅为网民提供参考之用,不构成任何投资建议,文章观点不代表本站立场,其真实性由作者或稿源方负责,本站信息接受广大网民的监督、投诉、批评。
③本站转载纯粹出于为网民传递更多信息之目的,本站不原创、不存储视频,所有视频均分享自其他视频分享网站,如涉及到您的版权问题,请与本网联系,我站将及时进行删除处理。



合作媒体
金宠物 绿植迷 女邦网 IT人
法律顾问:ITLAW-庄毅雄律师