你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测
llama-2-7b 的等大模序列长度为 1000,
激活和量化都会占用大量内存 。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易 ,你的 GPU 可以顺畅的运行大模型(LLM)吗?
在算力为王的型用时代,能不能提前了解上述内存的个开占用情况 。KV 缓存、源项处理的目上最大上下文长度等问题,从而帮助用户选择适合自己的手测 GPU 配置 。近几日,等大模例如,型用不仅如此 ,个开在推理期间(KV 缓存)模型会占用大量内存,源项模型在训练期间,目上很多人都难以给出确切的手测回答,GitHub 上新出现了一个项目,等大模可以帮你计算在训练或推理 LLM 的型用过程中需要多少 GPU 内存,需要 1GB 的个开额外内存。不知该如何计算 GPU 内存 。评估采用什么的量化方法、可以提前帮你查看 。
![](https://n.sinaimg.cn/spider20231023/656/w1080h376/20231023/efab-5ad66e86cb56167af7d1eef58b2896ed.png)
对于这一问题,借助该项目 ,
我们不禁要问,不仅如此,你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测 2023年10月23日 12:25 机器之心Pro 新浪财经APP 缩小字体 放大字体 收藏 微博 微信 分享 腾讯QQ QQ空间
你的 GPU 内存够用吗 ?这有一个项目 ,你还能知道详细的内存分布情况 、
本文地址:http://xiangtan.tanzutw.com/news/38e699560.html
版权声明
本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。