
2月17日,国联民生证券发表研究报告称:
豆包提出全新稀疏架构
近期,字节跳动豆包大模型团队提出了全新的稀疏模型架构UltraMem。该架构有效解决了MoE推理时高额的访存问题,推理速度较MoE架构提升2-6倍,推理成本最高可降低83%。研究还揭示了新架构的ScalingLaw,证明其不仅具备优异的Scaling特性,更在性能上超越了MoE。实验结果表明,训练规模达2000万value的UltraMem模型,在同等计算资源下,可同时实现业界领先的推理速度和模型性能,为构建数十亿规模value或expert开辟了新路径。
大模型内嵌操作系统助力AI手机发展
中兴努比亚手机率先将大模型内嵌到操作系统中,后续其他厂商有望跟进。中兴努比亚星云AI率先实现全尺寸内嵌DeepSeek-R1,并在努比亚Z70Ultra机型正式上线,可以发挥以下优势。(1)努比亚Z70Ultra可在星云智能对话界面直接调用DeepSeek-R1,避免多入口带来的繁杂操作。(2)DeepSeek-R1实现了与努比亚Z70Ultra星云AI多模态能力的无缝交互。(3)全尺寸内嵌DeepSeek-R1也可与努比亚AI耳机等智能设备互联,用户可通过耳机直接语音唤醒DeepSeek。
国内模组厂商争相支持DeepSeek模型
美格智能推出AIMO智能体产品,并加速开发DeepSeek-R1模型在端侧落地应用及端云结合整体方案。移远通信在边缘计算模组SG885G上成功实现了DeepSeek-R1蒸馏小模型的稳定运行,其生成Tokens的速度超过每秒40个Tokens,且未来随着性能的不断优化,速度还将进一步提升。广和通高算力AI模组及解决方案已全面支持小尺寸的DeepSeek-R1模型。未来有望在自动驾驶、机器人控制、智能制造、智慧医疗、AI智能体等场景广泛应用。
DeepSeek-R1模型的成功发布,豆包提出全新的稀疏模型架构UltraMem,这都有望降低推理侧模型的成本,助力模型在端侧的部署续提升。
重要提示:本文仅代表作者个人观点,并不代表财中社立场。本文著作权归财中社所有。未经允许,任何单位或个人不得在任何公开传播平台上使用本文内容;经允许进行转载或引用时,请注明来源。联系请发邮件至editor@caizhongshe.cn。