使用腾讯云平台快速部署DeepSeek大模型
#技术教程 发布时间: 2025-02-04
总览
DeepSeek 是由深度求索公司推出的大语言模型。其中: DeepSeek-V3 是在14.8万亿高质量 token 上完成预训练的一个强大的混合专家 (MoE) 语言模型,拥有6710亿参数。作为通用大语言模型,其在知识问答、内容生成、智能客服等领域表现出色。 DeepSeek-R1 是基于 DeepSeek-V3-Base 训练生成的高性能推理模型,在数学、代码生成和逻辑推断等复杂推理任务上表现优异。 DeepSeek-R1-Distill 是使用 DeepSeek-R1 生成的样本对开源模型进行微调得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。 本文将介绍如何通过 腾讯云 TI 平台,快速部署 DeepSeek 系列模型。完成模型部署后,即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中。支持的模型列表
腾讯云 TI 平台已上架 DeepSeek 全系模型,详见下表。模型名称 | 参数量 | 激活参数量 | 上下文窗口 | 推理资源推荐 |
DeepSeek-V3 | 671B | 37B | 128K | 多机分布式部署,节点数量:2个,单节点配置:HCCPNV6 机型 |
DeepSeek-R1 | 671B | 37B | 128k | 多机分布式部署,节点数量:2个,单节点配置:HCCPNV6 机型 |
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | – | – | 12C44GB 1卡A10 |
DeepSeek-R1-Distill-Qwen-7B | 7B | – | – | 12C44GB 1卡A10 |
DeepSeek-R1-Distill-Llama-8B | 8B | – | 128K | 12C44GB 1卡A10 |
DeepSeek-R1-Distill-Qwen-14B | 14B | – | – | 16C96G 1卡A100 |
DeepSeek-R1-Distill-Qwen-32B | 32B | – | – | 32C192G 2卡A100 |
DeepSeek-R1-Distill-Llama-70B | 70B | – | 128K | 164C948G 8卡A100 |
限时免费体验
平台限时免费开放 DeepSeek 模型的免部署在线体验,支持 DeepSeek-R1 和 DeepSeek-R1-Distill-Qwen-1.5B 两款模型,便于开发者直观比较“最大杯”和“最小杯”的性能差异。进入 DeepSeek 系列模型详情页面后,选择上方 Tab 即可进入在线对话体验页面。 对于其他模型,可按下方模型部署实践自主部署对应模型后体验。模型部署实践
下文我们将选用尺寸相对最小的 DeepSeek-R1-Distill-Qwen-1.5B 模型进行部署实践。其他模型的操作流程类似,仅需注意算力资源的配置差异。前置准备工作
模型:TI 平台已将 DeepSeek 模型内置在大模型广场中,您可直接选择模型并一键部署。 资源:1.5B 的 DeepSeek 模型对算力需求较小,单卡A10即可支持其推理服务。您有多种计费模式选择: 按量计费:对于仅需短时体验或所需算力较小的用户,机器来源推荐选用“从 TIONE 购买”,并选用“按量计费”模式。该模式无需提前准备算力。开始部署时,平台会自动分配资源并进行计费,本实践也将使用该模式进行展开。 包年包月:对于已购买 CVM 机器或需较大、稳定算力的用户,机器来源推荐选用“从 CVM 机器中选择”,并选择对应的资源组。该模式下需要您提前购买好 CVM 机器并添加至 TI 平台资源组,详细操作步骤请参考资源组管理。步骤一:部署模型服务
1. 登录 腾讯云 TI 平台 ,在大模型广场页面,您可看到 TI 内置的开源大模型卡片。 2. 单击进入“DeepSeek 系列模型”卡片,查看模型详细介绍。步骤二:体验模型效果
1. 服务部署完成后,在“模型服务 > 在线服务”页面的列表中,其状态将显示为“运行中”。DeepSeek-R1-Distill-Qwen-1.5B 模型的部署时长预计为1-2分钟。步骤三:调用模型推理 API
腾讯云 TI 平台在线服务模块内置了接口调用测试功能。此外,您还可以使用命令行等工具测试调用 API。测试完成后,您可以以 API 调用方式将模型接入 AI 应用。下文将对模型推理 API 的测试及接入进行示例说明。方式一:使用 TI 平台内置工具测试 API 调用
1. 在“模型服务 > 在线服务”页面的列表中,单击刚部署的服务的名称,跳转到服务详情页。方式二:使用命令行工具测试 API 调用
1. 在上述的“接口信息”版块中,在下图位置1处输入接口名。输入完成后,单击位置2处的复制按钮,复制完整的 API 调用命令头。方式三:使用第三方应用开发工具调用 API
完成模型部署后,如果您需要在您的 AI 应用中接入已部署的模型服务,可以将服务 API 的信息配置到相关平台或系统中。下文以Cherry Studio为例,介绍如何将服务 API 接入应用中。 Cherry Studio 是一个支持多模型服务的开源桌面客户端,可以将多服务集成至桌面 AI 对话应用中。本文仅以此为例介绍 API 调用。如您需要商用 Cherry Studio,请仔细阅读其开源软件协议。 1. 进入您在 TI 平台已部署模型服务的“服务详情页 > 服务调用”Tab,在页面较上方位置找到“调用地址”字段,并单击最右侧复制按钮复制。步骤四:管理推理服务
您可以通过访问“模型服务 > 在线服务 > 服务详情”页面查看并管理推理服务。包括但不限于:停止/重启/删除服务、查看服务配置信息、实例列表、监控图表、容器事件、日志、更新记录等。详细操作指引可参考在线服务运营。不同模型部署的注意事项
对于 DeepSeek 的其他模型,部署流程与前述类似,主要区别在于填写服务参数时配置的资源规格。请参考大模型推理所需资源指南进行资源的合理配置。大小模型的效果对比
基于已部署的“DeepSeek-R1-Distill-Qwen-1.5B”和“DeepSeek-R1”模型服务,我们尝试使用一个相同的问题,简要对比一下大小模型的推理效果。 问题输入在我的厨房里,有一张桌子,上面放着一个杯子,杯子里有一个球。我把杯子移到了卧室的床上,并将杯子倒过来。然后,我再次拿起杯子,移到了主房间。现在,球在哪里?大小模型效果对比
对比范围 | DeepSeek-R1-Distill-Qwen-1.5B | DeepSeek-R1 |
截图示例 |
|
|
# 腾讯
# 为例
# 详情页
# 你对
# 弹出
# 您可以
# 框中
# 时长
# 完成后
# 开源
# 命令行
# 请参考
# 所需
# 较小
# 您的
# 输入接口
# 跳转
# 在上
# 但不
# 移到
上一篇 : 阿里云建站服务1分钱起!中小企业建站解决方案
下一篇 : 黄页免费网络建站的安全性如何保障?
-
SEO外包最佳选择国内专业的白帽SEO机构,熟知搜索算法,各行业企业站优化策略!
SEO公司
-
可定制SEO优化套餐基于整站优化与品牌搜索展现,定制个性化营销推广方案!
SEO套餐
-
SEO入门教程多年积累SEO实战案例,从新手到专家,从入门到精通,海量的SEO学习资料!
SEO教程
-
SEO项目资源高质量SEO项目资源,稀缺性外链,优质文案代写,老域名提权,云主机相关配置折扣!
SEO资源
-
SEO快速建站快速搭建符合搜索引擎友好的企业网站,协助备案,域名选择,服务器配置等相关服务!
SEO建站
-
快速搜索引擎优化建议没有任何SEO机构,可以承诺搜索引擎排名的具体位置,如果有,那么请您多注意!专业的SEO机构,一般情况下只能确保目标关键词进入到首页或者前几页,如果您有相关问题,欢迎咨询!