您现在的位置是:综合>>正文
新PyTorch API:几行代码实现不同注意力变体,兼具FlashAttention性能和PyTorch灵活性
综合2人已围观
简介新PyTorch API:几行代码实现不同注意力变体,兼具FlashAttention性能和PyTorch灵活性 2024年08月 ...
用 FlexAttention 尝试一种新的代码注意力模式。
理论上,实现注意力机制就是不同你所需要的一切。然而在实际操作中,注意我们还需要优化像 FlashAttention 这样的力变h灵注意力机制的实现。
尽管这些融合的体兼注意力机制大大提高了性能,且支持长上下文,活性但这种效率的新PI行n性提升也伴随着灵活性的丧失。对于机器学习研究人员来说,代码这就像是实现一种「软件彩票」—— 如果你的注意力变体不适合现有的优化内核,你将面临运行缓慢和 CUDA 内存不足的不同困境。
一些注意力变体包括因果注意力、注意相对位置嵌入、力变h灵Alibi、体兼滑动窗口注意力、PrefixLM、文档掩码、不规则张量、PagedAttention 等。更糟糕的是,人们通常希望将这些变体组合在一起!比如滑动窗口注意力 + 文档掩码 + 因果注意力 + 上下文并行,又比如 PagedAttention + 滑动窗口的组合。
下图左侧代表了当今的现状 —— 一些掩码 + 偏置 + 设置的组合已经有现成的内核实现。然而,各种选项的添加会导致设置呈指数级增长。更糟糕的是,这种方式不会支持新的注意力变体。
Tags:
相关文章
“奇瑞版”路虎:瑞虎 7 / 瑞虎 7 C
综合“奇瑞版”路虎:瑞虎 7 / 瑞虎 7 C-DM 完成工信部申报,有望月内上市 2024年09月14日 22:52IT之家 ...
【综合】
阅读更多韩媒:韩名将安洗莹摘金后坦言膝盖曾受重伤,但未获妥善处理,“对国家队很失望”
综合韩媒:韩名将安洗莹摘金后坦言膝盖曾受重伤,但未获妥善处理,“对国家队很失望”2024年08月06日 09:41环球网缩小字体放大字体收藏微博微信分享0腾讯QQQQ空间 ...
【综合】
阅读更多金融反腐追踪|7月至少12人被查,国有大行占半数
综合金融反腐追踪|7月至少12人被查,国有大行占半数2024年08月06日 07:11澎湃新闻缩小字体放大字体收藏微博微信分享0腾讯QQQQ空间 澎湃 ...
【综合】
阅读更多