Ring Attention – 一种内存高效的方法

工具软件1年前 (2023)发布 gpts
78 0

Ring Attention – 一种内存高效的方法

利用自注意力的分块计算将长序列分布到多个设备上,以克服 Transformer 架构固有的内存限制,从而能够在训练和推理过程中处理较长的序列;能够在保持性能的同时根据设备数量缩放上下文长度,在没有注意力近似的情况下超过 1 亿上下文长度。

© 版权声明

相关文章