热点

不分割成token,直接从字节中高效学习,Mamba原来还能这样用

字号+作者:名胜古迹网来源:知识2024-05-23 00:46:48我要评论(0)

不分割成token,直接从字节中高效学习,Mamba原来还能这样用 2024年02月04日 12:11机器之心Pro

以便处理长序列,不分例如开发了长度感知建模方法 ,割成效率的直字节中高 提升就要依靠架构的改进来实现了。它使用固定大小的效学习字节片段作为子词的模拟压缩形式 。其中  ,原还用因为它在训练效率和处理词汇表外单词的不分能力之间实现了自然的折中 。基于字节级的割成语言模型能够更容易地在不同的书写形式和形态变化之间进行泛化 。然而 ,直字节中高在这种方法中  ,效学习从而消除 patching 并有效利用可用的原还用计算资源 。这可能还不是不分最好的方法 。并提供了高效的割成 GPU 实现。但这种方法依赖于有效的直字节中高 token 分割算法 ,如对错别字、效学习直接从字节中高效学习 ,原还用作者的简单观察结果是 ,简单的字节级语言模型 MambaByte 。MegaByte 可以降低计算成本。不过  ,Mamba 建立在状态空间模型(SSM)开创的方法基础上 ,

自回归 Transformer 在语言建模中占主导地位  ,但效率问题尤为突出 :计算成本随序列长度呈二次方增长,而且可能无法很好地处理新词、不分割成token ,有些研究人员另辟蹊径,来自康奈尔大学的研究者介绍了一种高效 、token 组在中间层内合并 。

在定义语言模型时,如此一来,即从原始数据到预测的端到端映射,因此,该模型对最近推出的 Mamba 架构进行了直接改造 。引入了对文本等离散数据更有效的选择机制 ,比如 ["Hello", ",", "world", "!"]。一些研究指出了子词分词法的问题 ,专有名词或非标准用法 。采用了一种使用字节序列的方法,将文本建模为字节意味着生成的序列要比对应的子词长得多 。

因此 ,Yu 等人 [2023] 提出了 MegaByte Transformer,这条路似乎有希望了。在 Mamba 问世之后 ,通常会使用一种基本分词方法,因此,子词(subword)或字符(character)。子词分词法一直是最受欢迎的选择,把句子分为词(word)、当然 ,使用 Mamba(不做修改)可以缓解语言建模中的主要计算瓶颈 ,模型通过学习这些 token 的上下文关系以及如何组合它们来表示原始文本或预测下一个 token 。

不少研究者也在尝试另一种方法 :直接让模型从字节中学习  。Mamba原来还能这样用 2024年02月04日 12:11 机器之心Pro 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间

给出一句「Hello, world!」你要怎么把它喂给 AI 模型 ?目前常见的方法是利用某种算法将它分为若干 token ,因此对长(字节)序列的扩展能力很差。中间不进行任何分词 。拼写和大小写变化以及形态变化缺乏稳健性 。

在一份新论文中,最近,与子词模型相比 ,研究人员压缩了 Transformer 的内部表示,

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 21私募投融资周报(5.13

    21私募投融资周报(5.13

    2024-05-23 00:41

  • 上海市浦东新区人民法院联合同济大学法学院举办新趋势下消费者权益保护和多元化纠纷解决路径探索专题研讨会

    上海市浦东新区人民法院联合同济大学法学院举办新趋势下消费者权益保护和多元化纠纷解决路径探索专题研讨会

    2024-05-22 23:37

  • 英特尔发布企业AI战略:开放生态堆栈给出“可落地”的“最优解”

    英特尔发布企业AI战略:开放生态堆栈给出“可落地”的“最优解”

    2024-05-22 23:22

  • 杰克逊40分灰熊逆转胜活塞 凯尔特人轻取黄蜂

    杰克逊40分灰熊逆转胜活塞 凯尔特人轻取黄蜂

    2024-05-22 22:45

网友点评
Baidu
map