支持的模型列表

(如需要使用 HCCPNV6 机型,请联系您所对接的腾讯云销售或售前架构师进行开通)
限时免费体验
对于其他模型,可按下方模型部署实践自主部署对应模型后体验。

模型部署实践
前置准备工作
-
模型:TI 平台已将 DeepSeek 模型内置在大模型广场中,您可直接选择模型并一键部署。
-
资源:1.5B的 DeepSeek 模型对算力需求较小,单张中端GPU卡即可支持其推理服务。您有多种计费模式选择:
—按量计费:对于仅需短时体验或所需算力较小的用户,机器来源推荐选用“从 TIONE 购买”,并选用“按量计费”模式。该模式无需提前准备算力。开始部署时,平台会自动分配资源并进行计费,本实践也将使用该模式进行展开。
—包年包月:对于已购买 CVM 机器或需较大、稳定算力的用户,机器来源推荐选用“从 CVM 机器中选择”,并选择对应的资源组。该模式下需要您提前购买好 CVM 机器并添加至 TI 平台资源组,详细操作步骤请参考资源组管理。
—请注意,如部署 DeepSeek R1、V3模型,需要使用 HCCPNV6 机型,该机型需联系您所对接的腾讯云销售或售前架构师进行开通。
步骤一:部署模型服务
1.登录腾讯云 TI 平台 ,在大模型广场页面,您可看到 TI 内置的开源大模型卡片。
2.单击进入“DeepSeek 系列模型”卡片,查看模型详细介绍。


-
服务名称:输入您的自定义的服务名称。如:“demo-DeepSeek-R1-Distill-Qwen-1_5B”。
-
机器来源:支持“从 CVM 机器中选择”和“从 TIONE 平台购买”两种模式。本例采用“从 TIONE 平台购买-按量计费”。如果您选择从“TIONE 平台购买”选项时无法选到您所需要的 GPU 机型,说明在 TI 平台中暂无该机型的库存,此时您须选择“从 CVM 机器中选择”,然后自行购买 CVM 机器并添加至 TI 平台资源组,详细操作步骤请参考资源组管理。
-
部署方式:选择“标准部署”。
-
服务实例: —模型来源:选择 “镜像”类型。 —模型和运行环境:选择“内置大模型/DeepSeek 系列模型/DeepSeek-R1-Distill-Qwen-1.5B”。 —算力规格:单张中端GPU卡,推理资源配置建议详见大模型推理所需资源指南。
步骤二:体验模型效果
1.服务部署完成后,在“模型服务 > 在线服务”页面的列表中,其状态将显示为“运行中”。DeepSeek-R1-Distill-Qwen-1.5B 模型的部署时长预计为1-2分钟。


步骤三:调用模型推理 API
腾讯云 TI 平台在线服务模块内置了接口调用测试功能。此外,您还可以使用命令行等工具对测试 API 调用。测试完成后,您可以以 API 调用方式将模型接入 AI 应用。下文将对模型推理 API 的测试及接入进行示例说明。
方式一:使用 TI 平台内置工具测试 API 调用
1.在“模型服务 > 在线服务”页面的列表中,单击刚部署的服务的名称,跳转到服务详情页。

2.进入服务详情页的“服务调用”Tab,在页面底部可看到“接口信息”版块。

3.在“接口信息”版块的输入框中,输入接口和请求信息,进行接口测试。
-
接口名:在上图中位置1处输入接口名,对话接口请填写 /v1/chat/completions。 备注:TI 平台为内置开源大模型配备的推理框架为 vLLM,兼容 OpenAI 接口规范,除对话接口以外的更多接口请参考 vLLM 官方文档。
-
请求体(Request Body):在上图中位置 2 处输入请求体,Chat Completion 接口的请求体格式请参考下方代码(请注意,下方代码中的“model”字段值“ms-xxxxxxxx”仅为示例,请在您自己的请求体中替换为真实有效的值):
{"model": "ms-xxxxxxxx","messages": [{"role": "user","content": "描述一下你对人工智能的理解。" }]}
-
对于“model”字段,请输入服务组 ID,即页面上方“调用地址”的最后一部分。可参考下图,红框中标记的字符串即为服务组 ID,可看到该字符串以“ms-”作为前缀:

-
对于“content”字段,请输入您想对模型提出的具体问题。

方式二:使用命令行工具测试 API 调用
1.在上述的“接口信息”版块中,在下图位置1处输入接口名。输入完成后,单击位置2处的复制按钮,复制完整的 API 调用命令头。

2.在命令头最后追加参数 -d'{REQ_BODY}',得到完整命令。其中 {REQ_BODY} 为请求体,请按照上文中“使用平台在线测试功能调用 API”的第 3 点给出的格式填写。最终编写成的完整命令应如下方代码所示:
curl -X POST https://ms-xxxxxxxx-xxxxxxxx.gw.ap-shanghai.ti.tencentcs.com/ms-xxxxxxxx/v1/chat/completions -H 'Content-Type: application/json' -d'{ "model": "ms-xxxxxxxx", "messages": [ { "role": "user", "content": "描述一下你对人工智能的理解。" }]}'
3.将完整命令输入到已连接到公网的计算设备的命令行工具中并执行,命令行中将返回模型的输出。
方式三:使用第三方应用开发工具调用 API
完成模型部署后,如果您需要在您的 AI 应用中进行接入已部署的模型服务,可以将服务 API 的信息配置到相关平台或系统中。下文以Cherry Studio为例,介绍如何将服务 API 接入应用中。
Cherry Studio 是一个支持多模型服务的开源桌面客户端,可以将多服务集成至桌面 AI 对话应用中。本文仅以此为例介绍 API 调用。如您需要商用 Cherry Studio,请仔细阅读其开源软件协议。
1.进入您在 TI 平台已部署模型服务的“服务详情页 > 服务调用”Tab,在页面较上方位置找到“调用地址”字段,并单击最右侧复制按钮复制。


5.按照第4点要求成功添加提供商后,将自动跳转到该提供商的配置菜单,本文中示例为“腾讯云 TI 平台”。请注意:TI 平台当前的鉴权方式和 OpenAI 有所不同,因此仅支持以未开启鉴权方式将 API 接入 Cherry Studio。在未开启鉴权的前提下,进行如下配置:
-
API 密钥:可任意填写,但不可以不填。 -
API 地址:粘贴第1点中复制的调用地址。 -
配置完成后,单击下方“模型”版块的添加。







不同部署模型的注意事项
大小模型的效果
基于已部署的“DeepSeek-R1-Distill-Qwen-1.5B”和“DeepSeek-R1”模型服务,我们尝试使用一个相同的问题,简要对比一下大小模型的推理效果。
-
问题输入
在我的厨房里,有一张桌子,上面放着一个杯子,杯子里有一个球。我把杯子移到了卧室的床上,并将杯子倒过来。然后,我再次拿起杯子,移到了主房间。现在,球在哪里?
-
大小模型效果对比
DeepSeek-R1-Distill-Qwen-1.5B?

DeepSeek-R1?