北大的开源项目MoE-LLaVA:多模态的混合专家模型

北大的开源项目MoE-LLaVA:多模态的混合专家模型

MoE-LLaVA:多模态的混合专家模型 北大的开源项目,3B的资源占用,媲美7B的能力。 只有3B个稀疏激活参数,与LLaVA-1.5-7B在各种视觉数据集上表现相当,在物体幻觉基准测试中超越了LLaVA-1.5-13B。

论文地址:

https://arxiv.org/pdf/2401.15947.pdf

在线体验:

https://huggingface.co/spaces/LanguageBind/MoE-LLaVA

项目地址:

https://github.com/PKU-YuanGroup/MoE-LLaVA

本文地址:https://www.163264.com/6379

(0)
上一篇 2024年2月2日 下午6:21
下一篇 2024年2月3日 下午12:30