大模型平台模型能力文本对话

文本对话模型

语言大模型具备文本理解和文字对话的能力。如当您传入文本信息时,大模型可以理解信息,并结合这些信息进行回复。通过这篇教程,您可以了解如何使用模型服务 API,来调用模型理解文本,生成文本内容,并可以基于此 API 构建或者扩展自己的应用或者自动化任务。

1.模型系列

DeepSeek系列

DeepSeek系列上下文长度RPMTPMTokens计费
DeepSeek-R1-Distill-Qwen-7B32K3w500w限时免费
DeepSeek-R164K输入:4元/M Tokens
输出:16元/M Tokens
DeepSeek-V364K输入:2元/M Tokens
输出:8元/M Tokens
DeepSeek-R1-Distill-Qwen-32B32K输入:1.5元/M Tokens
输出:6元/M Tokens
DeepSeek-R1-Distill-Qwen-14B32K输入:1元/M Tokens
输出:3元/M Tokens
DeepSeek-R1-Distill-Llama-8B32K输入:0.6元/M Tokens
输出:2.4元/M Tokens
DeepSeek-R1-N011-Distill-Llama-70B32K输入:2元/M Tokens
输出:8元/M Tokens

Qwen系列

Qwen系列上下文长度QPMTPMTokens计费
QwQ-32B32K600100w输入:¥1.5/ M Tokens
输出:¥6/ M Tokens
Qwen3-235B-A22B128K600100w输入:¥4/ M Tokens
输出:¥40/ M Tokens
Qwen3-32B128K600100w输入:¥2/ M Tokens
输出:¥20/ M Tokens

MiniMax系列

MiniMax系列上下文长度RPMTPMTokens计费
MiniMax-M1-80K1M12072w输入:¥4/ M Tokens
输出:¥16/ M Tokens
MiniMax-Text-011M12072w输入:¥1/ M Tokens
输出:¥8/ M Tokens

GLM-Z1系列

GLM-Z1系列上下文长度并发数Tokens计费
GLM-Z1-Flash32K40免费
GLM-Z1-Air32K40输入:¥0.5/ M Tokens
输出:¥0.5/M Tokens
GLM-Z1-AirX32K40输入:¥5/M Tokens
输出:¥5/M Tokens

GLM-4系列

GLM-4系列上下文长度并发数Tokens计费
GLM-4-Flash128K1000免费
GLM-4-9B128K10输入:¥2/M Tokens
输出:¥2/M Tokens
GLM-4-Plus128K100输入:¥5/M Tokens
输出:¥5/M Tokens
GLM-4-Air128K30输入:¥0.5/M Tokens
输出:¥0.5/M Tokens
GLM-4-Long1M30输入:¥1/M Tokens
输出:¥1/M Tokens
GLM-4-AirX8K30输入:¥10/M Tokens
输出:¥10/M Tokens
GLM-4-FlashX128K100输入:¥0.1/M Tokens
输出:¥0.1/M Tokens

ERNIE 4.5 Turbo系列

ERNIE系列上下文长度RPMTPMTokens计费
ERNIE-4.5-Turbo-32K32K5k40w输入:¥1.14/ M Tokens
输出:¥4.57/M Tokens
ERNIE-4.5-Turbo-128K128K5k40w输入:¥1.14/ M Tokens
输出:¥4.57/M Tokens

注:所有模型总赠送体验额度为40元。

2.使用前提

您已创建大模型平台API_Key,用于模型调用。

3.API接入方式

文本模型支持2种使用方式:本地客户端接入、代码接入

3.1 本地客户端接入

支持三种主流工具:Chatbox、Cherry Studio、AnythingLLM

3.2 代码接入

DeepSeek/GLM-Z1/GLM-4/MiniMax-M1/ERNIE4.5 调用方式

支持 curl、python、golang、java、nodejs 等

Qwen3 调用方式

仅支持流式输出,通过stream=true来打开;

同时通过enable_thinking参数来控制是否有推理过程,true:有,false:没有

支持curl、python、golang、java、nodejs等