设计 任务书 文档 开题 答辩 说明书 格式 模板 外文 翻译 范文 资料 作品 文献 课程 实习 指导 调研 下载 网络教育 计算机 网站 网页 小程序 商城 购物 订餐 电影 安卓 Android Html Html5 SSM SSH Python 爬虫 大数据 管理系统 图书 校园网 考试 选题 网络安全 推荐系统 机械 模具 夹具 自动化 数控 车床 汽车 故障 诊断 电机 建模 机械手 去壳机 千斤顶 变速器 减速器 图纸 电气 变电站 电子 Stm32 单片机 物联网 监控 密码锁 Plc 组态 控制 智能 Matlab 土木 建筑 结构 框架 教学楼 住宅楼 造价 施工 办公楼 给水 排水 桥梁 刚构桥 水利 重力坝 水库 采矿 环境 化工 固废 工厂 视觉传达 室内设计 产品设计 电子商务 物流 盈利 案例 分析 评估 报告 营销 报销 会计
Logo 顶部广告
首页 | 机械毕业设计 | 电子电气毕业设计 | 计算机毕业设计 | 土木工程毕业设计 | 视觉传达毕业设计 | 理工论文 | 文科论文 | 毕设资料 | 帮助中心
今天是: |>>> 您现在的位置:首页>>>>文档详细内容
标题:

Retentive Network: A Successor to Transformer for Large Language Models


近期阅读论文报告

主要阅读:Retentive Network: A Successor to Transformer for Large Language Models

这篇工作由微软亚研院和清华推出,提出了Transformer的替代者-RetNet。作者认为RetNet弥补了包括Transformer在内的之前所有结构的不足,并且同时具有训练并发性、推断的低消耗性和良好的模型性能这三个特征。

作者推导了循环结构(recurrent)和注意力机制的关系。然后提出留存机制(retention mechanism),并且这种结构支持三种计算范式:1并行性2循环性3依赖块的循环性。

在语言模型上面的实验结果表明RetNet在并行训练、低成本部署和高效推理方面表现优秀。这使得RetNet可以成为Transformer的继任者。

图1RetNet和Transformer的对比

首先,目前所有的模型都被上图的“不可能三角”限制,即低成本推理、好的性能和训练并行性不能同时满足,Transformer满足了训练并行性和良好的性能,但是训练成本很高。循环神经网络由于自身结构限制,不能并行训练。同时期的几乎所有其他工作,都不能同时满足上述三个条件。

| 关于我们 | 友情链接 | 毕业设计招聘 |

毕业66资料站 biye66.com ©2015-2026 版权所有 | 微信:15573586651 QQ:3903700237

本站毕业设计和毕业论文资料均属原创者所有,仅供学习交流之用,请勿转载并做其他非法用途.如有侵犯您的版权有损您的利益,请联系我们会立即改正或删除有关内容!