小红书开源首个大模型dots.llm1,1420亿参数MoE架构,推理激活140亿参数降成本。使用11.2万亿token非合成数据,中文测试91.3分超同类模型,含14个训练checkpoint推动技术共享
观点网讯:6月9日,小红书开源首个大模型dots.llm1。该模型为1420亿参数专家混合模型(MoE),推理仅激活140亿参数,降成本且高性能。
dots.llm1使用11.2万亿token非合成高质量数据,在中文测试中以91.3分超DeepSeek V2、V3及阿里Qwen2.5部分模型。
免责声明:本文内容与数据由观点根据公开信息整理,不构成投资建议,使用前请核实。
审校:刘满桃