谷歌DeepMind发布全新MoR架构

				
				文章导读
				
			
			你是否想过,大模型的“暴力堆算力”时代即将终结?谷歌DeepMind联合KAIST推出革命性“MoR”架构,首次实现按需分配计算资源——像大脑一样,只对关键信息深度思考。它用轻量“路由器”智能判断每个词元的处理深度,大幅减少冗余计算,在同等算力下超越传统Transformer。这不仅是速度与成本的突破,更可能彻底改写大模型的底层逻辑。高效AI的未来,正在揭开序幕。
— 内容由好学术AI分析文章内容生成,仅供参考。
				7月17日,谷歌DeepMind与韩国科学技术院(KAIST)的研究人员联合发布了名为“Mixture-of-Recursions”(MoR)的新型语言模型架构,能够在保持大模型性能的同时提高推理速度,降低计算和内存成本,业内认为其有潜力取代Transformer架构。
技术创新方面,MoR架构通过动态分配计算资源,有效提高大语言模型的效率。传统Transformer对所有Token(词元)一视同仁,而MoR通过轻量级“路由器”评估每个Token的复杂度,仅对重要Token(如名词、动词)进行深层递归计算,对于简单Token则提前退出计算流程,可以有效减少冗余计算,大幅提升处理效率。实验结果表明,MoR在相同计算预算下以更少的参数数量超越了原始Transformer和递归Transformer,验证了其优越性能。MoR架构的推出为未来大型语言模型的高效化设计提供了全新的解决方案。
© 版权声明
本文由分享者转载或发布,内容仅供学习和交流,版权归原文作者所有。如有侵权,请留言联系更正或删除。
相关文章
暂无评论...
















 
                
 
                
 
                
 
                
