当前位置: 首页 > news >正文

云上玩转DeepSeek系列之六:DeepSeek云端加速版发布,具备超高推理性能

作为国内首个千亿级开源 MoE 模型,DeepSeek-R1 凭借其卓越的代码生成与复杂推理能力,已成为开发者构建智能应用的首选。然而,原始模型在产业落地中面临严峻挑战,部署 671B 满血版模型不仅硬件门槛要求很高,同时吞吐效率和响应延迟也受到了制约。

PAI 正式推出了优化版 DeepSeek-R1 模型 DeepSeek-R1-PAI-optimized,将大模型推理效率推向了 Next Level。核心亮点有:

  • 技术领先:基于自研的模型优化“黑科技”,模型体积大幅减小的同时,评测表现依然良好

  • 单机部署:单机8卡GU120即可实现高性能部署,硬件成本直接减半

  • 性能跃升:相同时延约束下,吞吐能提升492%+;相同吞吐下, 首token时延直降86%+,token间时延直降69%+

  • 开箱即用:只需进入PAI Model Gallery,搜索DeepSeek-R1-PAI-optimized,实现模型一键部署

性能跃升:极致吞吐与超低时延

DeepSeek-R1 优化版模型 DeepSeek-R1-PAI-optimized,相较原模型,在吞吐和延迟方面实现了双优,全面提升推理流程的效率。

实验配置:

优化版部署在单机 GU120,原模型部署在双机 GU120,推理引擎为 vLLM;

数据集为 longalpaca-12k,输入token长度限定为3K,输出 token 长度限定为1K。

实验结果:

  • DeepSeek-R1 优化版模型的极限总吞吐约达到3865tokens/s,极限输出吞吐达到965tokens/s,相比原模型有50%提升

  • 在相同的 SLO(TTFT <= 1000ms, TPOT <= 70ms)下,DeepSeek-R1 优化版模型的并发为60,输出吞吐能达到829tokens/s;原模型的并发为10,输出吞吐能达到140tokens/s,优化版模型 吞吐提升了492%

  • 在同等输出吞吐水平下(约500tokens/s),DeepSeek-R1优化版模型的TTFT为405ms,原模型的TTFT为2928ms,降低了86%;DeepSeek-R1优化版模型的TPOT为38ms,原模型的TPOT为123ms,降低了69%。

以下是在各类评测数据集的测试结果,对比 DeepSeek-R1 优化版的实测数据,和 DeepSeek-R1 原模型的实测数据,发现表现几近持平,证明了优化版模型的效果基本无损。


极简操作:三步开始高性能推理

1. 进入 Model Gallery 页面(链接:https://pai.console.aliyun.com/#/quick-start/models)

  1. 登录 PAI 控制台。

  2. 在顶部左上角根据实际情况选择地域。

  3. 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间内。

  4. 在左侧导航栏选择快速开始 > Model Gallery。

2. 部署优化版 DeepSeek-R1 模型

  1. 在 Model Gallery 页面的模型列表中,搜索“DeepSeek-R1-PAI-optimized”,找到并点击进入模型详情页面。

  2. 单击右上角部署。选择部署方式和部署资源后,即可一键部署服务,生成一个 PAI-EAS 服务。

3. 进行模型推理。

  1. 部署成功后,在服务页面可以点击“查看调用信息”获取调用的 Endpoint 和 Token。

  2. 点击模型介绍页,查看调用方式说明。

上阿里云PAI,使用更多DeepSeek衍生模型

除 DeepSeek-R1 满血版模型、 DeepSeek-R1 推理性能优化版模型外,PAI-Model Gallery 还提供以下衍生版本的模型,供不同需求场景下使用。

  • 大幅节省显存:DeepSeek-R1 量化版本 DeepSeek-R1-GGUF ,模型尺寸减少了 80% ,节省显存资源,性价比提升;

  • 小模型推理能力提升:DeepSeek-R1 蒸馏版本 PAI-DistilQwen2.5-7B-R1等,将 DeepSeek-R1的推理能力迁移到小模型中,实现原有小尺寸模型拥有推理能力;DistilQwen2.5-R1发布:知识蒸馏助推小模型深度思考

  • 小模型推理速度提升:DeepSeek-V3 蒸馏版本 PAI-DistilQwen2.5-7B-DS3-0324 等,将 DeepSeekV3-0324 的快思考策略,迁移到小模型中,提升推理速度。DistilQwen2.5-DS3-0324发布:知识蒸馏+快思考=更高效解决推理难题

http://www.xdnf.cn/news/199027.html

相关文章:

  • AI图片跳舞生成视频,animate X本地部署。
  • 2025系统架构师---论企业集成平台的技术与应用
  • 永磁同步电机控制算法-反馈线性化滑模控制
  • Telephony VoiceMail
  • 数据库基础与核心操作:从概念到实战的全面解析
  • 嵌入式多功能浏览器系统设计详解
  • 使用双端队列deque模拟栈stack
  • 获得ecovadis徽章资格标准是什么?ecovadis评估失败的风险
  • sortablejs + antd-menu 拖拽出重复菜单
  • 【个人理解】MCP server和client二者各自的角色以及发挥的作用
  • 【TS入门笔记4---装饰器】
  • DPanel 一款更适合国人的 Docker 管理工具
  • linux 使用nginx部署vue、react项目
  • 结合大语言模型的机械臂抓取操作学习
  • Python 中支持函数式编程的 operator 与 functools 包
  • 第一节:Linux系统简介
  • Android显示学习笔记本
  • 打造即插即用的企业级云原生平台——KubeSphere 4.1 扩展组件在生产环境的价值全解
  • 解决跨域实现方案
  • 用vite动态导入vue的路由配置
  • 本地部署Qwen-7B实战 vLLM加速推理
  • 网络协议之为什么要分层
  • 论文分享 | 基于区块链和签名的去中心化跨域认证方案
  • 受限字符+环境变量RCE
  • vue3:v-model的原理示例
  • python练习:求数字的阶乘
  • 思科bsp社招面试
  • JavaScript 与 Java 学习笔记
  • day9 python 热力图与子图的绘制
  • MYSQL——时间字段映射Java类型