对于大型视觉语言模型(LVLM)而言 ,型稀型
基于此,疏化因为计算中每个 token 都会激活所有模型参数。将多该框架独特地在部署过程中通过路由算法仅激活 top-k 专家(expert) ,模态B模MoE-Tuning可以构建参数数量惊人但计算成本恒定的大模稀疏模型 ,中山大学等机构的型稀型研究者联合提出了一种新颖的 LVLM 训练策略 ——MoE-Tuning。来自北京大学、疏化扩展模型可以有效提高模型性能 。将多其余专家保持非活动(inactive)状态 。模态B模该研究还提出了一种基于 MoE 的大模新型稀疏 LVLM 架构 ——MoE-LLaVA 框架 。将多模态大模型稀疏化,型稀型
疏化