与社区测试相呼应,DeepSeek官方在技术报告中也展示了模型的前端代码能力。报告中展示了一个p5.js小球物理运动程序,包含可调整的物理参数和赛博朋克风格界面,不仅功能完整,还具有高度的美观性和交互性。
除了代码能力,DeepSeek R1的写作能力也一直被津津乐道。其细腻的文风虽然有时会陷入极繁主义的浮夸,但情节连贯性和特定风格下的表达能力很强,有短剧和小说从业者都曾对硅星人提到,已经开始应用DeepSeek创作。此次,新版本V3在中文能力也有明显增强,特别是中长篇文本创作上质量更高,结构更完整,逻辑更严密,实用性也大大增强。另外,在联网搜索场景下,报告生成能力也有显著提升。模型能够从网络信息中提取关键内容,生成详实准确的报告,并以清晰美观的排版呈现。在开源方面,DeepSeek也继续保持了其一贯的透明度和友好性。作为小版本更新,私有化部署只需要更新checkpoint和tokenizer_config.json等少量文件。这意味着现有用户升级成本极低,几乎可以无缝迁移。据报告显示,该模型参数约660B,略低于原先V3的671B,开源版本上下文长度为128K(网页端、App和API提供64K上下文),依然采用MIT许可证,这使得开发者可以在各种场景下自由使用。这些能力提升其实幅度不小,但DeepSeek没有把它称为V3.5、V3.7,而只是将它定义为一次V3小版本更新。在行业版本迭代泛滥、概念炒作盛行的当下,通过低调务实的姿态赢得了更多开发者社区的尊重。虽然能力有显著提升,但由于没有大的技术路线突破,仍将其定位为小版本迭代,那么当DeepSeek真正发布R2时,那将是一次名副其实的重大升级,而非行业常见的“通货膨胀式”命名。这种对技术命名的诚实态度,也是外界格外期待R2的重要理由。而这次更新最重要的地方还在于,DeepSeek的V3和R1出现后,如Anthropic等对手在尝试用新方法超车,核心在于把推理模型和大语言模型融合,无论是产品上通过AI的自动调配来融合到一起,还是从模型层面就“合二为一”。现在看来,DeepSeek此次更新也很直白的展示了自己接下来的路线,也是把V系列和R系列融合成一个新模型。官方报告中明确指出,此次更新与之前的DeepSeek-V3使用同样的base模型,仅改进了后训练方法,并借鉴了DeepSeek-R1模型训练过程中的强化学习技术。这是纯RL路线的再一次的验证和公示,在对手们继续闭源并使用“唯一混合模型”这样的概念来吸引人的时候,它继续通过开源为行业提供公开的高效迭代思路。DeepSeek这开源的仗还会继续打下去,好戏还在后面。(转载自硅星人Pro)
分享渠道
微信好友
朋友圈
取消