-
04-23 00:40...即在保持基于注意力的Transformer结构不变的情况下减少基础语言模型的参数或视觉token的数量。本文提出了一个不同的视角:直接采用状态空间模型(SSM)作为骨干网络,得到了一种线性计算复杂度的MLLM。此外,本文还探索和研究了各种模态融合方案,以创建一个有效的多模态Mamba。具体来说,本文采用Mamba语言模... 0
-
-
-
本页Url:
-
2024-05-01-16:02 GMT . 添加到桌面浏览更方便.
-
本页Url: