通义千问模型具有强大的自然语言处理能力,您可以通过API接口调用通义千问模型,将通义千问模型集成到您的业务中。
前提条件
-
请您参考 获取API-KEY ,开通百炼服务并获得API-KEY。
-
请在 模型概览 中选择您需要使用的模型。
-
您可以使用OpenAI Python SDK、DashScope SDK或HTTP接口调用通义千问模型,请您根据您的需求,参考以下方式准备您的计算环境。
说明如果您之前使用OpenAI SDK以及HTTP方式调用OpenAI的服务,只需在原有框架下调整API-KEY、base_url、model等参数,就可以直接调用通义千问模型。
调用方式
准备条件
通过OpenAI Python SDK调用
您可以通过以下命令安装或更新OpenAI SDK:
# 如果下述命令报错,请将pip替换为pip3 pip install -U openai
您需要配置的base_url如下:
https://dashscope.aliyuncs.com/compatible-mode/v1
通过OpenAI兼容-HTTP调用
如果您需要通过OpenAI兼容的HTTP方式进行调用,需要配置的完整访问endpoint如下:
POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions
通过DashScope SDK调用
DashScope SDK提供了Python和Java两个版本,请参考 安装SDK ,安装最新版SDK。
通过DashScope HTTP调用
如果您需要通过DashScope的HTTP方式进行调用,需要配置的完整访问endpoint如下:
POST https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation
我们推荐您将API-KEY配置到环境变量中以降低API-KEY的泄漏风险,详情可参考 配置API-KEY到环境变量 。您也可以在代码中配置API-KEY,但是会存在泄露风险。
场景示例
单轮对话
您可以将通义千问应用在内容创作、翻译服务、文本摘要等多种场景。您可以参考以下示例代码,通过OpenAI或者DashScope的方式体验通义千问模型的单轮对话能力。
OpenAI兼容
您可以通过OpenAI SDK或OpenAI兼容的HTTP方式调用通义千问模型,体验单轮对话的功能。
Python
示例代码
from openai import OpenAI
import os
def get_response():
client = OpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY"), # 如果您没有配置环境变量,请在此处用您的API Key进行替换
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", # 填写DashScope服务的base_url
completion = client.chat.completions.create(
model="qwen-turbo",
messages=[
{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': '你是谁?'}]
print(completion.model_dump_json())
if __name__ == '__main__':
get_response()
返回结果
{
"id": "chatcmpl-ee338a7c-b5b3-9139-a726-b7b749d6b49d",
"choices": [
"finish_reason": "stop",
"index": 0,
"logprobs": null,
"message": {
"content": "我是阿里云开发的一款超大规模语言模型,我叫通义千问。",
"refusal": null,
"role": "assistant",
"function_call": null,
"tool_calls": null
"created": 1725005215,
"model": "qwen-turbo",
"object": "chat.completion",
"service_tier": null,
"system_fingerprint": null,
"usage": {
"completion_tokens": 17,
"prompt_tokens": 22,
"total_tokens": 39
}
curl
示例代码
curl --location "https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions" \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "qwen-turbo",
"messages": [
"role": "system",
"content": "You are a helpful assistant."
"role": "user",
"content": "你是谁?"
}'
返回结果
{
"choices": [
"message": {
"role": "assistant",
"content": "我是通义千问,由阿里云开发的AI助手。我被设计用来回答各种问题、提供信息和与用户进行对话。有什么我可以帮助你的吗?"
"finish_reason": "stop",
"index": 0,
"logprobs": null
"object": "chat.completion",
"usage": {
"prompt_tokens": 22,
"completion_tokens": 36,
"total_tokens": 58
"created": 1721044596,
"system_fingerprint": null,
"model": "qwen-turbo",
"id": "chatcmpl-94149c5a-137f-9b87-b2c8-61235e85f540"
}
DashScope
您可以通过DashScope SDK或HTTP方式调用通义千问模型,体验单轮对话的功能。
Python
示例代码
import random
from http import HTTPStatus
# 建议dashscope SDK 的版本 >= 1.14.0
from dashscope import Generation
def call_with_messages():
messages = [{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': '你是谁?'}]
response = Generation.call(model="qwen-turbo",
messages=messages,
# 将输出设置为"message"格式
result_format='message')
if response.status_code == HTTPStatus.OK:
print(response)
else:
print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
response.request_id, response.status_code,
response.code, response.message
if __name__ == '__main__':
call_with_messages()
返回结果
{
"status_code": 200,
"request_id": "902fee3b-f7f0-9a8c-96a1-6b4ea25af114",
"code": "",
"message": "",
"output": {
"text": null,
"finish_reason": null,
"choices": [
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "我是阿里云开发的一款超大规模语言模型,我叫通义千问。"
"usage": {
"input_tokens": 22,
"output_tokens": 17,
"total_tokens": 39
// 建议dashscope SDK的版本 >= 2.12.0
import java.util.Arrays;
import com.alibaba.dashscope.aigc.generation.Generation;
import com.alibaba.dashscope.aigc.generation.GenerationParam;
import com.alibaba.dashscope.aigc.generation.GenerationResult;
import com.alibaba.dashscope.common.Message;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.InputRequiredException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import com.alibaba.dashscope.utils.JsonUtils;
public class Main {
public static GenerationResult callWithMessage() throws ApiException, NoApiKeyException, InputRequiredException {
Generation gen = new Generation();
Message systemMsg = Message.builder()
.role(Role.SYSTEM.getValue())
.content("You are a helpful assistant.")
.build();
Message userMsg = Message.builder()
.role(Role.USER.getValue())
.content("你是谁?")
.build();
GenerationParam param = GenerationParam.builder()
.model("qwen-turbo")
.messages(Arrays.asList(systemMsg, userMsg))
.resultFormat(GenerationParam.ResultFormat.MESSAGE)
.build();
return gen.call(param);
public static void main(String[] args) {
try {
GenerationResult result = callWithMessage();
System.out.println(JsonUtils.toJson(result));
} catch (ApiException | NoApiKeyException | InputRequiredException e) {
// 使用日志框架记录异常信息
// Logger.error("An error occurred while calling the generation service", e);
System.err.println("An error occurred while calling the generation service: " + e.getMessage());
System.exit(0);
}
返回结果
{
"requestId": "86dd52a9-23ec-9804-8f82-85f4c7fd5114",
"usage": {
"input_tokens": 22,
"output_tokens": 17,
"total_tokens": 39
"output": {
"choices": [
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "我是阿里云开发的一款超大规模语言模型,我叫通义千问。"
}
curl
示例代码
curl --location "https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation" \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "qwen-turbo",
"input":{
"messages":[
"role": "system",
"content": "You are a helpful assistant."
"role": "user",
"content": "你是谁?"
"parameters": {
"result_format": "message"
}'
返回结果
{
"output": {
"choices": [
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "我是通义千问,由阿里云开发的AI助手。我被设计用来回答各种问题、提供信息和与用户进行对话。有什么我可以帮助你的吗?"
"usage": {
"total_tokens": 58,
"output_tokens": 36,
"input_tokens": 22
"request_id": "39377fd7-26dd-99f5-b539-5fd004b6ecb5"
}
多轮对话
相比于单轮对话,多轮对话可以让大模型参考历史对话信息,更符合日常交流的场景。实现多轮对话的关键在于维护一个存放历史对话信息的列表,并将更新后的列表作为大模型的输入,从而使大模型可以参考历史对话信息进行回复。您可以参考以下示例代码,将每一轮的对话历史添加到messages列表中,实现多轮对话的功能。
如果对话轮数较多,可能会超过大模型可以输入的token上限。您可以采用 对话历史摘要 、 固定窗口大小 等方法,控制输入大模型的token数量。
OpenAI兼容
您可以通过OpenAI SDK或OpenAI兼容的HTTP方式调用通义千问模型,体验多轮对话的功能。
Python
示例代码
from openai import OpenAI
import os
def get_response(messages):
client = OpenAI(
# 如果您没有配置环境变量,请在此处用您的API Key进行替换
api_key=os.getenv("DASHSCOPE_API_KEY"),
# 填写DashScope服务的base_url
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
completion = client.chat.completions.create(
model="qwen-turbo",
messages=messages
return completion
messages = [{'role': 'system', 'content': 'You are a helpful assistant.'}]
# 您可以自定义设置对话轮数,当前为3
for i in range(3):
user_input = input("请输入:")
# 将用户问题信息添加到messages列表中
messages.append({'role': 'user', 'content': user_input})
assistant_output = get_response(messages).choices[0].message.content
# 将大模型的回复信息添加到messages列表中
messages.append({'role': 'assistant', 'content': assistant_output})
print(f'用户输入:{user_input}')
print(f'模型输出:{assistant_output}')
print('\n')
返回结果
curl
示例代码
curl --location "https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions" \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "qwen-turbo",
"messages":[
"role": "system",
"content": "You are a helpful assistant."
"role": "user",
"content": "你好"
"role": "assistant",
"content": "你好啊,我是通义千问。"
"role": "user",
"content": "你有哪些技能?"
}'
返回结果
{
"choices": [
"message": {
"role": "assistant",
"content": "作为一个人工智能助手,我有多种技能,包括但不限于:\n\n1. **语言理解与生成**:能够理解和生成自然语言文本,进行对话交流。\n2. **信息检索**:帮助用户查找和提供相关的信息。\n3. **知识问答**:解答各类问题,涵盖各种主题领域。\n4. **翻译**:支持多种语言之间的翻译。\n5. **文本总结**:对长篇文章或段落进行概括。\n6. **写作辅助**:提供建议、修改句子结构等写作帮助。\n7. **情感分析**:识别和理解文本中的情感倾向。\n8. **代码解释和辅助**:对编程问题进行解答和指导。\n\n请告诉我你需要什么帮助,我会尽力提供支持。"
"finish_reason": "stop",
"index": 0,
"logprobs": null
"object": "chat.completion",
"usage": {
"prompt_tokens": 43,
"completion_tokens": 155,
"total_tokens": 198
"created": 1721098376,
"system_fingerprint": null,
"model": "qwen-turbo",
"id": "chatcmpl-eccf185f-ed9f-9476-a664-a97d9534b0d5"
}
DashScope
您可以通过DashScope SDK或HTTP方式调用通义千问模型,体验多轮对话的功能。
Python
示例代码
from dashscope import Generation
def get_response(messages):
response = Generation.call(model="qwen-turbo",
messages=messages,
# 将输出设置为"message"格式
result_format='message')
return response
messages = [{'role': 'system', 'content': 'You are a helpful assistant.'}]
# 您可以自定义设置对话轮数,当前为3
for i in range(3):
user_input = input("请输入:")
# 将用户问题信息添加到messages列表中
messages.append({'role': 'user', 'content': user_input})
assistant_output = get_response(messages).output.choices[0]['message']['content']
# 将大模型的回复信息添加到messages列表中
messages.append({'role': 'assistant', 'content': assistant_output})
print(f'用户输入:{user_input}')
print(f'模型输出:{assistant_output}')
print('\n')
返回结果
Java
示例代码
import java.util.ArrayList;
import java.util.List;
import com.alibaba.dashscope.aigc.generation.Generation;
import com.alibaba.dashscope.aigc.generation.GenerationParam;
import com.alibaba.dashscope.aigc.generation.GenerationResult;
import com.alibaba.dashscope.common.Message;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.InputRequiredException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import java.util.Scanner;
public class Main {
public static GenerationParam createGenerationParam(List<Message> messages) {
return GenerationParam.builder()
.model("qwen-turbo")
.messages(messages)
.resultFormat(GenerationParam.ResultFormat.MESSAGE)
.topP(0.8)
.build();
public static GenerationResult callGenerationWithMessages(GenerationParam param) throws ApiException, NoApiKeyException, InputRequiredException {
Generation gen = new Generation();
return gen.call(param);
public static void main(String[] args) {
try {
List<Message> messages = new ArrayList<>();
messages.add(createMessage(Role.SYSTEM, "You are a helpful assistant."));
for (int i = 0; i < 3;i++) {
Scanner scanner = new Scanner(System.in);
System.out.print("请输入:");
String userInput = scanner.nextLine();
if ("exit".equalsIgnoreCase(userInput)) {
break;
messages.add(createMessage(Role.USER, userInput));
GenerationParam param = createGenerationParam(messages);
GenerationResult result = callGenerationWithMessages(param);
System.out.println("模型输出:"+result.getOutput().getChoices().get(0).getMessage().getContent());
messages.add(result.getOutput().getChoices().get(0).getMessage());
} catch (ApiException | NoApiKeyException | InputRequiredException e) {
e.printStackTrace();
System.exit(0);
private static Message createMessage(Role role, String content) {
return Message.builder().role(role.getValue()).content(content).build();
}
返回结果
curl
示例代码
curl --location "https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation" \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "qwen-turbo",
"input":{
"messages":[
"role": "system",
"content": "You are a helpful assistant."
"role": "user",
"content": "你好"
"role": "assistant",
"content": "你好啊,我是通义千问。"
"role": "user",
"content": "你有哪些技能?"
"parameters": {
"result_format": "message",
"top_p":0.8,
"top_k": 50,
"temperature":0.8
}'
返回结果
{
"output": {
"choices": [
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "作为一个人工智能助手,我有多种技能,包括但不限于:\n\n1. **语言理解与生成**:能够理解和生成自然语言文本,进行对话交流。\n2. **信息检索**:帮助用户查找和提供相关的信息。\n3. **知识问答**:解答各类问题,涵盖各种主题领域。\n4. **翻译**:支持多种语言之间的翻译。\n5. **文本总结**:对长篇文章或段落进行概括。\n6. **写作辅助**:提供建议、修改句子结构等写作帮助。\n7. **情感分析**:识别和解读文本中的情感色彩。\n8. **代码解释**:简单编程问题的解答。\n\n虽然我可以提供很多帮助,但请注意我不是万能的,对于一些专业领域的复杂问题可能无法给出准确答案。"
"usage": {
"total_tokens": 208,
"output_tokens": 165,
"input_tokens": 43
"request_id": "e9d88c17-bb36-9273-b678-88915961ab6e"
}
流式输出
大模型并不是一次性生成最终结果,而是逐步地生成中间结果,最终结果由中间结果拼接而成。使用非流式输出方式需要等待模型生成结束后再将生成的中间结果拼接后返回,而流式输出可以实时地将中间结果返回,您可以在模型进行输出的同时进行阅读,减少等待模型回复的时间。
OpenAI兼容
您可以通过OpenAI SDK或OpenAI兼容的HTTP方式调用通义千问模型,体验流式输出的功能。
Python
示例代码
from openai import OpenAI
import os
def get_response():
client = OpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY"),
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
completion = client.chat.completions.create(
model="qwen-turbo",
messages=[{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': '你是谁?'}],
stream=True,
# 可选,配置以后会在流式输出的最后一行展示token使用信息
stream_options={"include_usage": True}
for chunk in completion:
print(chunk.model_dump_json())
if __name__ == '__main__':
get_response()
返回结果
{"id":"chatcmpl-xxx","choices":[{"delta":{"content":"","function_call":null,"role":"assistant","tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-xxx","choices":[{"delta":{"content":"我是","function_call":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-xxx","choices":[{"delta":{"content":"通","function_call":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-xxx","choices":[{"delta":{"content":"义","function_call":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-xxx","choices":[{"delta":{"content":"千问,由阿里","function_call":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-xxx","choices":[{"delta":{"content":"云开发的AI助手。我被","function_call":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-xxx","choices":[{"delta":{"content":"设计用来回答各种问题、提供信息","function_call":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-xxx","choices":[{"delta":{"content":"和与用户进行对话。有什么我可以","function_call":null,"role":null,"tool_calls":null},"finish_reason":null,"index":0,"logprobs":null}],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-xxx","choices":[{"delta":{"content":"帮助你的吗?","function_call":null,"role":null,"tool_calls":null},"finish_reason":"stop","index":0,"logprobs":null}],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":null}
{"id":"chatcmpl-xxx","choices":[],"created":1721099636,"model":"qwen-turbo","object":"chat.completion.chunk","service_tier":null,"system_fingerprint":null,"usage":{"completion_tokens":36,"prompt_tokens":22,"total_tokens":58}}
curl
示例代码
curl --location "https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions" \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "qwen-turbo",
"messages": [
"role": "system",
"content": "You are a helpful assistant."
"role": "user",
"content": "你是谁?"
"stream":true,
"stream_options":{
"include_usage":true
}'
返回结果
data: {"choices":[{"delta":{"content":"","role":"assistant"},"index":0,"logprobs":null,"finish_reason":null}],"object":"chat.completion.chunk","usage":null,"created":1725445296,"system_fingerprint":null,"model":"qwen-turbo","id":"chatcmpl-17667e40-5de3-9e38-a5fb-c8feeef1f709"}
data: {"choices":[{"finish_reason":null,"delta":{"content":"我是"},"index":0,"logprobs":null}],"object":"chat.completion.chunk","usage":null,"created":1725445296,"system_fingerprint":null,"model":"qwen-turbo","id":"chatcmpl-17667e40-5de3-9e38-a5fb-c8feeef1f709"}
data: {"choices":[{"delta":{"content":"阿里"},"finish_reason":null,"index":0,"logprobs":null}],"object":"chat.completion.chunk","usage":null,"created":1725445296,"system_fingerprint":null,"model":"qwen-turbo","id":"chatcmpl-17667e40-5de3-9e38-a5fb-c8feeef1f709"}
data: {"choices":[{"delta":{"content":"云"},"finish_reason":null,"index":0,"logprobs":null}],"object":"chat.completion.chunk","usage":null,"created":1725445296,"system_fingerprint":null,"model":"qwen-turbo","id":"chatcmpl-17667e40-5de3-9e38-a5fb-c8feeef1f709"}
data: {"choices":[{"delta":{"content":"开发的一款超大规模语言"},"finish_reason":null,"index":0,"logprobs":null}],"object":"chat.completion.chunk","usage":null,"created":1725445296,"system_fingerprint":null,"model":"qwen-turbo","id":"chatcmpl-17667e40-5de3-9e38-a5fb-c8feeef1f709"}
data: {"choices":[{"delta":{"content":"模型,我叫通义千问"},"finish_reason":null,"index":0,"logprobs":null}],"object":"chat.completion.chunk","usage":null,"created":1725445296,"system_fingerprint":null,"model":"qwen-turbo","id":"chatcmpl-17667e40-5de3-9e38-a5fb-c8feeef1f709"}
data: {"choices":[{"delta":{"content":"。"},"finish_reason":null,"index":0,"logprobs":null}],"object":"chat.completion.chunk","usage":null,"created":1725445296,"system_fingerprint":null,"model":"qwen-turbo","id":"chatcmpl-17667e40-5de3-9e38-a5fb-c8feeef1f709"}
data: {"choices":[{"finish_reason":"stop","delta":{"content":""},"index":0,"logprobs":null}],"object":"chat.completion.chunk","usage":null,"created":1725445296,"system_fingerprint":null,"model":"qwen-turbo","id":"chatcmpl-17667e40-5de3-9e38-a5fb-c8feeef1f709"}
data: {"choices":[],"object":"chat.completion.chunk","usage":{"prompt_tokens":22,"completion_tokens":17,"total_tokens":39},"created":1725445296,"system_fingerprint":null,"model":"qwen-turbo","id":"chatcmpl-17667e40-5de3-9e38-a5fb-c8feeef1f709"}
data: [DONE]
DashScope
您可以通过DashScope SDK或HTTP方式调用通义千问模型,体验流式输出的功能。
Python
示例代码
from http import HTTPStatus
from dashscope import Generation
def call_with_stream():
messages = [
{'role':'system','content':'you are a helpful assistant'},
{'role': 'user','content': '你是谁?'}
responses = Generation.call(
model="qwen-turbo",
messages=messages,
# 设置输出为'message'格式
result_format='message',
# 设置输出方式为流式输出
stream=True,
# 增量式流式输出
incremental_output=True
full_content = ""
for response in responses:
if response.status_code == HTTPStatus.OK:
print(response)
full_content += response.output.choices[0].message.content
else:
print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
response.request_id, response.status_code,
response.code, response.message
print(f"Full content:{full_content}")
if __name__ == '__main__':
call_with_stream()
返回结果
{"status_code": 200, "request_id": "xxx", "code": "", "message": "", "output": {"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": "我是"}}]}, "usage": {"input_tokens": 21, "output_tokens": 1, "total_tokens": 22}}
{"status_code": 200, "request_id": "xxx", "code": "", "message": "", "output": {"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": "通"}}]}, "usage": {"input_tokens": 21, "output_tokens": 2, "total_tokens": 23}}
{"status_code": 200, "request_id": "xxx", "code": "", "message": "", "output": {"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": "义"}}]}, "usage": {"input_tokens": 21, "output_tokens": 3, "total_tokens": 24}}
{"status_code": 200, "request_id": "xxx", "code": "", "message": "", "output": {"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": "千问,由阿里"}}]}, "usage": {"input_tokens": 21, "output_tokens": 8, "total_tokens": 29}}
{"status_code": 200, "request_id": "xxx", "code": "", "message": "", "output": {"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": "云开发的AI助手。我被"}}]}, "usage": {"input_tokens": 21, "output_tokens": 16, "total_tokens": 37}}
{"status_code": 200, "request_id": "xxx", "code": "", "message": "", "output": {"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": "设计用来回答各种问题、提供信息"}}]}, "usage": {"input_tokens": 21, "output_tokens": 24, "total_tokens": 45}}
{"status_code": 200, "request_id": "xxx", "code": "", "message": "", "output": {"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": "和与用户进行对话。有什么我可以"}}]}, "usage": {"input_tokens": 21, "output_tokens": 32, "total_tokens": 53}}
import java.util.Arrays;
import java.util.concurrent.Semaphore;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import java.util.concurrent.Semaphore;
import com.alibaba.dashscope.aigc.generation.Generation;
import com.alibaba.dashscope.aigc.generation.GenerationParam;
import com.alibaba.dashscope.aigc.generation.GenerationResult;
import com.alibaba.dashscope.common.Message;
import com.alibaba.dashscope.common.ResultCallback;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.InputRequiredException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import com.alibaba.dashscope.utils.JsonUtils;
import io.reactivex.Flowable;
public class Main {
private static final Logger logger = LoggerFactory.getLogger(Main.class);
private static void handleGenerationResult(GenerationResult message, StringBuilder fullContent) {
fullContent.append(message.getOutput().getChoices().get(0).getMessage().getContent());
logger.info("Received message: {}", JsonUtils.toJson(message));
public static void streamCallWithMessage(Generation gen, Message userMsg)
throws NoApiKeyException, ApiException, InputRequiredException {
GenerationParam param = buildGenerationParam(userMsg);
Flowable<GenerationResult> result = gen.streamCall(param);
StringBuilder fullContent = new StringBuilder();
result.blockingForEach(message -> handleGenerationResult(message, fullContent));
logger.info("Full content: \n{}", fullContent.toString());
public static void streamCallWithCallback(Generation gen, Message userMsg)
throws NoApiKeyException, ApiException, InputRequiredException, InterruptedException {
GenerationParam param = buildGenerationParam(userMsg);
Semaphore semaphore = new Semaphore(0);
StringBuilder fullContent = new StringBuilder();
gen.streamCall(param, new ResultCallback<GenerationResult>() {
@Override
public void onEvent(GenerationResult message) {
handleGenerationResult(message, fullContent);
@Override
public void onError(Exception err) {
logger.error("Exception occurred: {}", err.getMessage());
semaphore.release();
@Override
public void onComplete() {
logger.info("Completed");
semaphore.release();
semaphore.acquire();
logger.info("Full content: \n{}", fullContent.toString());
private static GenerationParam buildGenerationParam(Message userMsg) {
return GenerationParam.builder()
.model("qwen-turbo")
.messages(Arrays.asList(userMsg))
.resultFormat(GenerationParam.ResultFormat.MESSAGE)
.incrementalOutput(true)
.build();
public static void main(String[] args) {
try {
Generation gen = new Generation();
Message userMsg = Message.builder().role(Role.USER.getValue()).content("如何做西红柿炖牛腩?").build();
streamCallWithMessage(gen, userMsg);
streamCallWithCallback(gen, userMsg);
} catch (ApiException | NoApiKeyException | InputRequiredException | InterruptedException e) {
logger.error("An exception occurred: {}", e.getMessage());
返回结果
{"requestId":"xxx","usage":{"input_tokens":11,"output_tokens":1,"total_tokens":12},"output":{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":"我是"}}]}}
{"requestId":"xxx","usage":{"input_tokens":11,"output_tokens":2,"total_tokens":13},"output":{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":"通"}}]}}
{"requestId":"xxx","usage":{"input_tokens":11,"output_tokens":3,"total_tokens":14},"output":{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":"义"}}]}}
{"requestId":"xxx","usage":{"input_tokens":11,"output_tokens":8,"total_tokens":19},"output":{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":"千问,由阿里"}}]}}
{"requestId":"xxx","usage":{"input_tokens":11,"output_tokens":16,"total_tokens":27},"output":{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":"云开发的AI助手。我被"}}]}}
{"requestId":"xxx","usage":{"input_tokens":11,"output_tokens":24,"total_tokens":35},"output":{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":"设计用来回答各种问题、提供信息"}}]}}
{"requestId":"xxx","usage":{"input_tokens":11,"output_tokens":32,"total_tokens":43},"output":{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":"和与用户进行对话。有什么我可以"}}]}}
{"requestId":"xxx","usage":{"input_tokens":11,"output_tokens":36,"total_tokens":47},"output":{"choices":[{"finish_reason":"stop","message":{"role":"assistant","content":"帮助你的吗?"}}]}}
curl
示例代码
curl --location "https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation" \
--header "Authorization: Bearer $DASHSCOPE_API_KEY" \
--header "Content-Type: application/json" \
--header "X-DashScope-SSE: enable" \
--data '{
"model": "qwen-turbo",
"input":{
"messages":[
"role": "system",
"content": "You are a helpful assistant."
"role": "user",
"content": "你是谁?"
"parameters": {
"result_format": "message",
"incremental_output":true
}'
返回结果
id:1
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":"我是","role":"assistant"},"finish_reason":"null"}]},"usage":{"total_tokens":23,"input_tokens":22,"output_tokens":1},"request_id":"xxx"}
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":"通","role":"assistant"},"finish_reason":"null"}]},"usage":{"total_tokens":24,"input_tokens":22,"output_tokens":2},"request_id":"xxx"}
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":"义","role":"assistant"},"finish_reason":"null"}]},"usage":{"total_tokens":25,"input_tokens":22,"output_tokens":3},"request_id":"xxx"}
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":"千问,由阿里","role":"assistant"},"finish_reason":"null"}]},"usage":{"total_tokens":30,"input_tokens":22,"output_tokens":8},"request_id":"xxx"}
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":"云开发的AI助手。我被","role":"assistant"},"finish_reason":"null"}]},"usage":{"total_tokens":38,"input_tokens":22,"output_tokens":16},"request_id":"xxx"}
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":"设计用来回答各种问题、提供信息","role":"assistant"},"finish_reason":"null"}]},"usage":{"total_tokens":46,"input_tokens":22,"output_tokens":24},"request_id":"xxx"}
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":"和与用户进行对话。有什么我可以","role":"assistant"},"finish_reason":"null"}]},"usage":{"total_tokens":54,"input_tokens":22,"output_tokens":32},"request_id":"xxx"}
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":"帮助你的吗?","role":"assistant"},"finish_reason":"stop"}]},"usage":{"total_tokens":58,"input_tokens":22,"output_tokens":36},"request_id":"xxx"}
Function Call(调用外部工具)
大模型在面对实时性问题、私域知识型问题或数学计算等问题时可能效果不佳。您可以使用function call功能,通过调用外部工具来提升模型的输出效果。您可以在调用大模型时,通过tools参数传入工具的名称、描述、入参等信息。Function Call的工作流程示意图如下所示:
Function Call的使用涉及到参数解析功能,因此对大模型的响应质量要求较高,推荐您优先使用qwen-plus或qwen-max模型。
Function Call信息暂时不支持增量输出。
OpenAI兼容
您可以通过OpenAI SDK或OpenAI兼容的HTTP方式调用通义千问模型,体验Function Call的功能。
Python
示例代码
from openai import OpenAI
from datetime import datetime
import json
import os
client = OpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY"), # 如果您没有配置环境变量,请在此处用您的API Key进行替换
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", # 填写DashScope SDK的base_url
# 定义工具列表,模型在选择使用哪个工具时会参考工具的name和description
tools = [
# 工具1 获取当前时刻的时间
"type": "function",
"function": {
"name": "get_current_time",
"description": "当你想知道现在的时间时非常有用。",
# 因为获取当前时间无需输入参数,因此parameters为空字典
"parameters": {}
# 工具2 获取指定城市的天气
"type": "function",
"function": {
"name": "get_current_weather",
"description": "当你想查询指定城市的天气时非常有用。",
"parameters": {
"type": "object",
"properties": {
# 查询天气时需要提供位置,因此参数设置为location
"location": {
"type": "string",
"description": "城市或县区,比如北京市、杭州市、余杭区等。"
"required": [
"location"
# 模拟天气查询工具。返回结果示例:“北京今天是晴天。”
def get_current_weather(location):
return f"{location}今天是雨天。 "
# 查询当前时间的工具。返回结果示例:“当前时间:2024-04-15 17:15:18。“
def get_current_time():
# 获取当前日期和时间
current_datetime = datetime.now()
# 格式化当前日期和时间
formatted_time = current_datetime.strftime('%Y-%m-%d %H:%M:%S')
# 返回格式化后的当前时间
return f"当前时间:{formatted_time}。"
# 封装模型响应函数
def get_response(messages):
completion = client.chat.completions.create(
model="qwen-max",
messages=messages,
tools=tools
return completion.model_dump()
def call_with_messages():
print('\n')
messages = [
"content": input('请输入:'), # 提问示例:"现在几点了?" "一个小时后几点" "北京天气如何?"
"role": "user"
print("-"*60)
# 模型的第一轮调用
i = 1
first_response = get_response(messages)
assistant_output = first_response['choices'][0]['message']
print(f"\n第{i}轮大模型输出信息:{first_response}\n")
if assistant_output['content'] is None:
assistant_output['content'] = ""
messages.append(assistant_output)
# 如果不需要调用工具,则直接返回最终答案
if assistant_output['tool_calls'] == None: # 如果模型判断无需调用工具,则将assistant的回复直接打印出来,无需进行模型的第二轮调用
print(f"无需调用工具,我可以直接回复:{assistant_output['content']}")
return
# 如果需要调用工具,则进行模型的多轮调用,直到模型判断无需调用工具
while assistant_output['tool_calls'] != None:
# 如果判断需要调用查询天气工具,则运行查询天气工具
if assistant_output['tool_calls'][0]['function']['name'] == 'get_current_weather':
tool_info = {"name": "get_current_weather", "role":"tool"}
# 提取位置参数信息
location = json.loads(assistant_output['tool_calls'][0]['function']['arguments'])['location']
tool_info['content'] = get_current_weather(location)
# 如果判断需要调用查询时间工具,则运行查询时间工具
elif assistant_output['tool_calls'][0]['function']['name'] == 'get_current_time':
tool_info = {"name": "get_current_time", "role":"tool"}
tool_info['content'] = get_current_time()
print(f"工具输出信息:{tool_info['content']}\n")
print("-"*60)
messages.append(tool_info)
assistant_output = get_response(messages)['choices'][0]['message']
if assistant_output['content'] is None:
assistant_output['content'] = ""
messages.append(assistant_output)
i += 1
print(f"第{i}轮大模型输出信息:{assistant_output}\n")
print(f"最终答案:{assistant_output['content']}")
if __name__ == '__main__':
call_with_messages()
返回结果
当输入:
几点了?
时,程序会进行如下输出:
以下是发起Function Call流程(模型的第一轮调用)时模型的返回信息。当输入“杭州天气”时,模型会返回tool_calls参数;当输入“你好”时,模型判断无需调用工具,模型不会返回tool_calls参数。
输入:杭州天气
{
'id': 'chatcmpl-e2f045fd-2604-9cdb-bb61-37c805ecd15a',
'choices': [
'finish_reason': 'tool_calls',
'index': 0,
'logprobs': None,
'message': {
'content': '',
'role': 'assistant',
'function_call': None,
'tool_calls': [
'id': 'call_7a33ebc99d5342969f4868',
'function': {
'arguments': '{
"location": "杭州市"
'name': 'get_current_weather'
'type': 'function',
'index': 0
'created': 1726049697,
'model': 'qwen-max',
'object': 'chat.completion',
'service_tier': None,
'system_fingerprint': None,
'usage': {
'completion_tokens': 18,
'prompt_tokens': 217,
'total_tokens': 235
}
输入:你好
{
'id': 'chatcmpl-5d890637-9211-9bda-b184-961acf3be38d',
'choices': [
'finish_reason': 'stop',
'index': 0,
'logprobs': None,
'message': {
'content': '你好!有什么可以帮助你的吗?',
'role': 'assistant',
'function_call': None,
'tool_calls': None
'created': 1726049765,
'model': 'qwen-max',
'object': 'chat.completion',
'service_tier': None,
'system_fingerprint': None,
'usage': {
'completion_tokens': 7,
'prompt_tokens': 216,
'total_tokens': 223
}
HTTP
示例代码
import requests
import os
from datetime import datetime
import json
# 定义工具列表,模型在选择使用哪个工具时会参考工具的name和description
tools = [
# 工具1 获取当前时刻的时间
"type": "function",
"function": {
"name": "get_current_time",
"description": "当你想知道现在的时间时非常有用。",
"parameters": {} # 因为获取当前时间无需输入参数,因此parameters为空字典
# 工具2 获取指定城市的天气
"type": "function",
"function": {
"name": "get_current_weather",
"description": "当你想查询指定城市的天气时非常有用。",
"parameters": { # 查询天气时需要提供位置,因此参数设置为location
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "城市或县区,比如北京市、杭州市、余杭区等。"
"required": [
"location"
# 模拟天气查询工具。返回结果示例:“北京今天是晴天。”
def get_current_weather(location):
return f"{location}今天是晴天。 "
# 查询当前时间的工具。返回结果示例:“当前时间:2024-04-15 17:15:18。“
def get_current_time():
# 获取当前日期和时间
current_datetime = datetime.now()
# 格式化当前日期和时间
formatted_time = current_datetime.strftime('%Y-%m-%d %H:%M:%S')
# 返回格式化后的当前时间
return f"当前时间:{formatted_time}。"
def get_response(messages):
api_key = os.getenv("DASHSCOPE_API_KEY")
url = 'https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions'
headers = {'Content-Type': 'application/json',
'Authorization':f'Bearer {api_key}'}
body = {
'model': 'qwen-max',
"messages": messages,
"tools":tools
response = requests.post(url, headers=headers, json=body)
return response.json()
def call_with_messages():
messages = [
"content": input('请输入:'), # 提问示例:"现在几点了?" "一个小时后几点" "北京天气如何?"
"role": "user"
# 模型的第一轮调用
first_response = get_response(messages)
print(f"\n第一轮调用结果:{first_response}")
assistant_output = first_response['choices'][0]['message']
if assistant_output['content'] is None:
assistant_output['content'] = ""
messages.append(assistant_output)
if 'tool_calls' not in assistant_output: # 如果模型判断无需调用工具,则将assistant的回复直接打印出来,无需进行模型的第二轮调用
print(f"最终答案:{assistant_output['content']}")
return
# 如果模型选择的工具是get_current_weather
elif assistant_output['tool_calls'][0]['function']['name'] == 'get_current_weather':
tool_info = {"name": "get_current_weather", "role":"tool"}
location = json.loads(assistant_output['tool_calls'][0]['function']['arguments'])['location']
tool_info['content'] = get_current_weather(location)
# 如果模型选择的工具是get_current_time
elif assistant_output['tool_calls'][0]['function']['name'] == 'get_current_time':
tool_info = {"name": "get_current_time", "role":"tool"}
tool_info['content'] = get_current_time()
print(f"工具输出信息:{tool_info['content']}")
messages.append(tool_info)
# 模型的第二轮调用,对工具的输出进行总结
second_response = get_response(messages)
print(f"第二轮调用结果:{second_response}")
print(f"最终答案:{second_response['choices'][0]['message']['content']}")
if __name__ == '__main__':
call_with_messages()
返回结果
当输入:
杭州天气
时,程序会进行如下输出:
以下是发起Function Call流程(模型的第一轮调用)时模型的返回信息。当输入“杭州天气”时,模型会返回tool_calls参数;当输入“你好”时,模型判断无需调用工具,模型不会返回tool_calls参数。
输入:杭州天气
{
'choices': [
'message': {
'content': '',
'role': 'assistant',
'tool_calls': [
'function': {
'name': 'get_current_weather',
'arguments': '{
"location": "杭州市"
'index': 0,
'id': 'call_416cd81b8e7641edb654c4',
'type': 'function'
'finish_reason': 'tool_calls',
'index': 0,
'logprobs': None
'object': 'chat.completion',
'usage': {
'prompt_tokens': 217,
'completion_tokens': 18,
'total_tokens': 235
'created': 1726050222,
'system_fingerprint': None,
'model': 'qwen-max',
'id': 'chatcmpl-61e30855-ee69-93ab-98d5-4194c51a9980'
}
输入:你好
{
'choices': [
'message': {
'content': '你好!有什么可以帮助你的吗?',
'role': 'assistant'
'finish_reason': 'stop',
'index': 0,
'logprobs': None
'object': 'chat.completion',
'usage': {
'prompt_tokens': 216,
'completion_tokens': 7,
'total_tokens': 223
'created': 1726050238,
'system_fingerprint': None,
'model': 'qwen-max',
'id': 'chatcmpl-2f2f86d1-bc4e-9494-baca-aac5b0555091'
}
DashScope
您可以通过DashScope SDK或HTTP方式调用通义千问模型,体验Function Call的功能。
Python
示例代码
from dashscope import Generation
from datetime import datetime
import random
import json
# 定义工具列表,模型在选择使用哪个工具时会参考工具的name和description
tools = [
# 工具1 获取当前时刻的时间
"type": "function",
"function": {
"name": "get_current_time",
"description": "当你想知道现在的时间时非常有用。",
"parameters": {} # 因为获取当前时间无需输入参数,因此parameters为空字典
# 工具2 获取指定城市的天气
"type": "function",
"function": {
"name": "get_current_weather",
"description": "当你想查询指定城市的天气时非常有用。",
"parameters": {
# 查询天气时需要提供位置,因此参数设置为location
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "城市或县区,比如北京市、杭州市、余杭区等。"
"required": [
"location"
# 模拟天气查询工具。返回结果示例:“北京今天是晴天。”
def get_current_weather(location):
return f"{location}今天是晴天。 "
# 查询当前时间的工具。返回结果示例:“当前时间:2024-04-15 17:15:18。“
def get_current_time():
# 获取当前日期和时间
current_datetime = datetime.now()
# 格式化当前日期和时间
formatted_time = current_datetime.strftime('%Y-%m-%d %H:%M:%S')
# 返回格式化后的当前时间
return f"当前时间:{formatted_time}。"
# 封装模型响应函数
def get_response(messages):
response = Generation.call(
model='qwen-max',
messages=messages,
tools=tools,
seed=random.randint(1, 10000), # 设置随机数种子seed,如果没有设置,则随机数种子默认为1234
result_format='message' # 将输出设置为message形式
return response
def call_with_messages():
print('\n')
messages = [
"content": input('请输入:'), # 提问示例:"现在几点了?" "一个小时后几点" "北京天气如何?"
"role": "user"
# 模型的第一轮调用
first_response = get_response(messages)
assistant_output = first_response.output.choices[0].message
print(f"\n大模型第一轮输出信息:{first_response}\n")
messages.append(assistant_output)
if 'tool_calls' not in assistant_output: # 如果模型判断无需调用工具,则将assistant的回复直接打印出来,无需进行模型的第二轮调用
print(f"最终答案:{assistant_output.content}")
return
# 如果模型选择的工具是get_current_weather
elif assistant_output.tool_calls[0]['function']['name'] == 'get_current_weather':
tool_info = {"name": "get_current_weather", "role":"tool"}
location = json.loads(assistant_output.tool_calls[0]['function']['arguments'])['location']
tool_info['content'] = get_current_weather(location)
# 如果模型选择的工具是get_current_time
elif assistant_output.tool_calls[0]['function']['name'] == 'get_current_time':
tool_info = {"name": "get_current_time", "role":"tool"}
tool_info['content'] = get_current_time()
print(f"工具输出信息:{tool_info['content']}\n")
messages.append(tool_info)
# 模型的第二轮调用,对工具的输出进行总结
second_response = get_response(messages)
print(f"大模型第二轮输出信息:{second_response}\n")
print(f"最终答案:{second_response.output.choices[0].message['content']}")
if __name__ == '__main__':
call_with_messages()
返回结果
通过运行以上代码,您可以输入问题,得到在工具辅助条件下模型的输出结果。使用过程示例如下图所示:
以下是发起Function Call流程(模型的第一轮调用)时模型的返回信息。当输入“杭州天气”时,模型会返回tool_calls参数;当输入“你好”时,模型判断无需调用工具,模型不会返回tool_calls参数。
输入:杭州天气
{
"status_code": 200,
"request_id": "33cf0a53-ea38-9f47-8fce-b93b55d86573",
"code": "",
"message": "",
"output": {
"text": null,
"finish_reason": null,
"choices": [
"finish_reason": "tool_calls",
"message": {
"role": "assistant",
"content": "",
"tool_calls": [
"function": {
"name": "get_current_weather",
"arguments": "{\"location\": \"杭州市\"}"
"index": 0,
"id": "call_9f62f52f3a834a8194f634",
"type": "function"
"usage": {
"input_tokens": 217,
"output_tokens": 18,
"total_tokens": 235
}
输入:你好
{
"status_code": 200,
"request_id": "4818ce03-e7c9-96de-a7bc-781649d98465",
"code": "",
"message": "",
"output": {
"text": null,
"finish_reason": null,
"choices": [
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "你好!有什么可以帮助你的吗?"
"usage": {
"input_tokens": 216,
"output_tokens": 7,
"total_tokens": 223
// version >= 2.12.0
import java.util.ArrayList;
import java.util.Arrays;
import java.util.List;
import com.alibaba.dashscope.aigc.conversation.ConversationParam.ResultFormat;
import com.alibaba.dashscope.aigc.generation.Generation;
import com.alibaba.dashscope.aigc.generation.GenerationOutput.Choice;
import com.alibaba.dashscope.aigc.generation.GenerationParam;
import com.alibaba.dashscope.aigc.generation.GenerationResult;
import com.alibaba.dashscope.common.Message;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.InputRequiredException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import com.alibaba.dashscope.tools.FunctionDefinition;
import com.alibaba.dashscope.tools.ToolCallBase;
import com.alibaba.dashscope.tools.ToolCallFunction;
import com.alibaba.dashscope.tools.ToolFunction;
import com.alibaba.dashscope.utils.JsonUtils;
import com.fasterxml.jackson.databind.node.ObjectNode;
import com.github.victools.jsonschema.generator.Option;
import com.github.victools.jsonschema.generator.OptionPreset;
import com.github.victools.jsonschema.generator.SchemaGenerator;
import com.github.victools.jsonschema.generator.SchemaGeneratorConfig;
import com.github.victools.jsonschema.generator.SchemaGeneratorConfigBuilder;
import com.github.victools.jsonschema.generator.SchemaVersion;
import java.time.LocalDateTime;
import java.time.format.DateTimeFormatter;
import java.util.Scanner;
public class Main {
public class GetWhetherTool {
private String location;
public GetWhetherTool(String location) {
this.location = location;
public String call() {
return location+"今天是晴天";
public class GetTimeTool {
public GetTimeTool() {
public String call() {
LocalDateTime now = LocalDateTime.now();
DateTimeFormatter formatter = DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss");
String currentTime = "当前时间:" + now.format(formatter) + "。";
return currentTime;
public static void SelectTool()
throws NoApiKeyException, ApiException, InputRequiredException {
SchemaGeneratorConfigBuilder configBuilder =
new SchemaGeneratorConfigBuilder(SchemaVersion.DRAFT_2020_12, OptionPreset.PLAIN_JSON);
SchemaGeneratorConfig config = configBuilder.with(Option.EXTRA_OPEN_API_FORMAT_VALUES)
.without(Option.FLATTENED_ENUMS_FROM_TOSTRING).build();
SchemaGenerator generator = new SchemaGenerator(config);
ObjectNode jsonSchema_whether = generator.generateSchema(GetWhetherTool.class);
ObjectNode jsonSchema_time = generator.generateSchema(GetTimeTool.class);
FunctionDefinition fd_whether = FunctionDefinition.builder().name("get_current_whether").description("获取指定地区的天气")
.parameters(JsonUtils.parseString(jsonSchema_whether.toString()).getAsJsonObject()).build();
FunctionDefinition fd_time = FunctionDefinition.builder().name("get_current_time").description("获取当前时刻的时间")
.parameters(JsonUtils.parseString(jsonSchema_time.toString()).getAsJsonObject()).build();
Message systemMsg = Message.builder().role(Role.SYSTEM.getValue())
.content("You are a helpful assistant. When asked a question, use tools wherever possible.")
.build();
Scanner scanner = new Scanner(System.in);
System.out.print("\n请输入:");
String userInput = scanner.nextLine();
Message userMsg =
Message.builder().role(Role.USER.getValue()).content(userInput).build();
List<Message> messages = new ArrayList<>();
messages.addAll(Arrays.asList(systemMsg, userMsg));
GenerationParam param = GenerationParam.builder().model("qwen-max")
.messages(messages).resultFormat(ResultFormat.MESSAGE)
.tools(Arrays.asList(ToolFunction.builder().function(fd_whether).build(),ToolFunction.builder().function(fd_time).build())).build();
// 大模型的第一轮调用
Generation gen = new Generation();
GenerationResult result = gen.call(param);
System.out.println("\n大模型第一轮输出信息:"+JsonUtils.toJson(result));
for (Choice choice : result.getOutput().getChoices()) {
messages.add(choice.getMessage());
// 如果需要调用工具
if (result.getOutput().getChoices().get(0).getMessage().getToolCalls() != null) {
for (ToolCallBase toolCall : result.getOutput().getChoices().get(0).getMessage()
.getToolCalls()) {
if (toolCall.getType().equals("function")) {
// 获取工具函数名称和入参
String functionName = ((ToolCallFunction) toolCall).getFunction().getName();
String functionArgument = ((ToolCallFunction) toolCall).getFunction().getArguments();
// 大模型判断调用天气查询工具的情况
if (functionName.equals("get_current_whether")) {
GetWhetherTool GetWhetherFunction =
JsonUtils.fromJson(functionArgument, GetWhetherTool.class);
String whether = GetWhetherFunction.call();
Message toolResultMessage = Message.builder().role("tool")
.content(String.valueOf(whether)).toolCallId(toolCall.getId()).build();
messages.add(toolResultMessage);
System.out.println("\n工具输出信息:"+whether);
// 大模型判断调用时间查询工具的情况
else if (functionName.equals("get_current_time")) {
GetTimeTool GetTimeFunction =
JsonUtils.fromJson(functionArgument, GetTimeTool.class);
String time = GetTimeFunction.call();
Message toolResultMessage = Message.builder().role("tool")
.content(String.valueOf(time)).toolCallId(toolCall.getId()).build();
messages.add(toolResultMessage);
System.out.println("\n工具输出信息:"+time);
// 如果无需调用工具,直接输出大模型的回复
else {
System.out.println("\n最终答案:"+result.getOutput().getChoices().get(0).getMessage().getContent());
return;
// 大模型的第二轮调用 包含工具输出信息
param.setMessages(messages);
result = gen.call(param);
System.out.println("\n大模型第二轮输出信息:"+JsonUtils.toJson(result));
System.out.println(("\n最终答案:"+result.getOutput().getChoices().get(0).getMessage().getContent()));
public static void main(String[] args) {
try {
SelectTool();
} catch (ApiException | NoApiKeyException | InputRequiredException e) {
System.out.println(String.format("Exception %s", e.getMessage()));
System.exit(0);
}
返回结果
通过运行以上代码,您可以输入问题,得到在工具辅助条件下模型的输出结果。使用过程示例如下图所示:
以下是发起Function Call流程(模型的第一轮调用)时模型的返回信息。当输入“杭州天气”时,模型会返回tool_calls参数;当输入“你好”时,模型判断无需调用工具,模型不会返回tool_calls参数。
输入:杭州天气
{
"requestId": "e2faa5cf-1707-973b-b216-36aa4ef52afc",
"usage": {
"input_tokens": 254,
"output_tokens": 19,
"total_tokens": 273
"output": {
"choices": [
"finish_reason": "tool_calls",
"message": {
"role": "assistant",
"content": "",
"tool_calls": [
"type": "function",
"id": "",
"function": {
"name": "get_current_whether",
"arguments": "{\"location\": \"杭州\"}"
}
输入:你好
{
"requestId": "f6ca3828-3b5f-99bf-8bae-90b4aa88923f",
"usage": {
"input_tokens": 253,
"output_tokens": 7,
"total_tokens": 260
"output": {
"choices": [
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "你好!有什么可以帮助你的吗?"
}
HTTP
示例代码
import requests
import os
from datetime import datetime
import json
# 定义工具列表,模型在选择使用哪个工具时会参考工具的name和description
tools = [
# 工具1 获取当前时刻的时间
"type": "function",
"function": {
"name": "get_current_time",
"description": "当你想知道现在的时间时非常有用。",
"parameters": {} # 因为获取当前时间无需输入参数,因此parameters为空字典
# 工具2 获取指定城市的天气
"type": "function",
"function": {
"name": "get_current_weather",
"description": "当你想查询指定城市的天气时非常有用。",
"parameters": { # 查询天气时需要提供位置,因此参数设置为location
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "城市或县区,比如北京市、杭州市、余杭区等。"
"required": [
"location"
# 模拟天气查询工具。返回结果示例:“北京今天是晴天。”
def get_current_weather(location):
return f"{location}今天是晴天。 "
# 查询当前时间的工具。返回结果示例:“当前时间:2024-04-15 17:15:18。“
def get_current_time():
# 获取当前日期和时间
current_datetime = datetime.now()
# 格式化当前日期和时间
formatted_time = current_datetime.strftime('%Y-%m-%d %H:%M:%S')
# 返回格式化后的当前时间
return f"当前时间:{formatted_time}。"
def get_response(messages):
api_key = os.getenv("DASHSCOPE_API_KEY")
url = 'https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation'
headers = {'Content-Type': 'application/json',
'Authorization':f'Bearer {api_key}'}
body = {
'model': 'qwen-max',
"input": {
"messages": messages
"parameters": {
"result_format": "message",
"tools": tools
response = requests.post(url, headers=headers, json=body)
return response.json()
messages = [
"role": "user",
"content": "今天天气怎么样?"
def call_with_messages():
messages = [
"content": input('请输入:'), # 提问示例:"现在几点了?" "一个小时后几点" "北京天气如何?"
"role": "user"
# 模型的第一轮调用
first_response = get_response(messages)
print(f"\n第一轮调用结果:{first_response}")
assistant_output = first_response['output']['choices'][0]['message']
messages.append(assistant_output)
if 'tool_calls' not in assistant_output: # 如果模型判断无需调用工具,则将assistant的回复直接打印出来,无需进行模型的第二轮调用
print(f"最终答案:{assistant_output['content']}")
return
# 如果模型选择的工具是get_current_weather
elif assistant_output['tool_calls'][0]['function']['name'] == 'get_current_weather':
tool_info = {"name": "get_current_weather", "role":"tool"}
location = json.loads(assistant_output['tool_calls'][0]['function']['arguments'])['location']
tool_info['content'] = get_current_weather(location)
# 如果模型选择的工具是get_current_time
elif assistant_output['tool_calls'][0]['function']['name'] == 'get_current_time':
tool_info = {"name": "get_current_time", "role":"tool"}
tool_info['content'] = get_current_time()
print(f"工具输出信息:{tool_info['content']}")
messages.append(tool_info)
# 模型的第二轮调用,对工具的输出进行总结
second_response = get_response(messages)
print(f"第二轮调用结果:{second_response}")
print(f"最终答案:{second_response['output']['choices'][0]['message']['content']}")
if __name__ == '__main__':
call_with_messages()
import java.io.BufferedReader;
import java.io.DataOutputStream;
import java.io.InputStreamReader;
import java.net.HttpURLConnection;
import java.net.URL;
import java.nio.charset.StandardCharsets;
import java.util.Scanner;
import java.time.LocalDateTime;
import java.time.format.DateTimeFormatter;
import org.json.JSONArray;
import org.json.JSONObject;
public class Main {
private static final String userAGENT = "Java-HttpURLConnection/1.0";
public static void main(String[] args) throws Exception {
// 用户输入问题
Scanner scanner = new Scanner(System.in);
System.out.println("请输入:");
String UserInput = scanner.nextLine();
// 初始化messages
JSONArray messages = new JSONArray();
// 定义系统信息system_message
JSONObject systemMessage = new JSONObject();
systemMessage.put("role","system");
systemMessage.put("content","You are a helpful assistant.");
// 根据用户的输入构造user_message
JSONObject userMessage = new JSONObject();
userMessage.put("role","user");
userMessage.put("content",UserInput);
// 将system_message和user_message依次添加到messages中
messages.put(systemMessage);
messages.put(userMessage);
// 进行模型的第一轮调用,并打印出结果
JSONObject responseJson = getResponse(messages);
System.out.println("第一轮调用结果:"+responseJson);
// 获取助手信息assistant_message
JSONObject assistantMessage = responseJson.getJSONObject("output").getJSONArray("choices").getJSONObject(0).getJSONObject("message");
// 初始化工具信息tool_message
JSONObject toolMessage = new JSONObject();
// 如果assistant_message没有tool_calls参数,则直接打印出assistant_message中的响应信息并返回
if (! assistantMessage.has("tool_calls")){
System.out.println("最终答案:"+assistantMessage.get("content"));
return;
// 如果assistant_message有tool_calls参数,说明模型判断需要调用工具
else {
// 将assistant_message添加到messages中
messages.put(assistantMessage);
// 如果模型判断需要调用get_current_weather函数
if (assistantMessage.getJSONArray("tool_calls").getJSONObject(0).getJSONObject("function").getString("name").equals("get_current_weather")) {
// 获取参数arguments信息,并提取出location参数
JSONObject argumentsJson = new JSONObject(assistantMessage.getJSONArray("tool_calls").getJSONObject(0).getJSONObject("function").getString("arguments"));
String location = argumentsJson.getString("location");
// 运行工具函数,得到工具的输出,并打印
String toolOutput = getCurrentWeather(location);
System.out.println("工具输出信息:"+toolOutput);
// 构造tool_message信息
toolMessage.put("name","get_current_weather");
toolMessage.put("role","tool");
toolMessage.put("content",toolOutput);
// 如果模型判断需要调用get_current_time函数
if (assistantMessage.getJSONArray("tool_calls").getJSONObject(0).getJSONObject("function").getString("name").equals("get_current_time")) {
// 运行工具函数,得到工具的输出,并打印
String toolOutput = getCurrentTime();
System.out.println("工具输出信息:"+toolOutput);
// 构造tool_message信息
toolMessage.put("name","get_current_time");
toolMessage.put("role","tool");
toolMessage.put("content",toolOutput);
// 将tool_message添加到messages中
messages.put(toolMessage);
// 进行模型的第二轮调用,并打印出结果
JSONObject secondResponse = getResponse(messages);
System.out.println("第二轮调用结果:"+secondResponse);
System.out.println("最终答案:"+secondResponse.getJSONObject("output").getJSONArray("choices").getJSONObject(0).getJSONObject("message").getString("content"));
// 定义获取天气的函数
public static String getCurrentWeather(String location) {
return location+"今天是晴天";
// 定义获取当前时间的函数
public static String getCurrentTime() {
LocalDateTime now = LocalDateTime.now();
DateTimeFormatter formatter = DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss");
String currentTime = "当前时间:" + now.format(formatter) + "。";
return currentTime;
// 封装模型响应函数,输入:messages,输出:json格式化后的http响应
public static JSONObject getResponse(JSONArray messages) throws Exception{
// 初始化工具库
JSONArray tools = new JSONArray();
// 定义工具1:获取当前时间
String jsonStringTime = "{\"type\": \"function\", \"function\": {\"name\": \"get_current_time\", \"description\": \"当你想知道现在的时间时非常有用。\", \"parameters\": {}}}";
JSONObject getCurrentTimeJson = new JSONObject(jsonStringTime);
// 定义工具2:获取指定地区天气
String jsonString_weather = "{\"type\": \"function\", \"function\": {\"name\": \"get_current_weather\", \"description\": \"当你想查询指定城市的天气时非常有用。\", \"parameters\": {\"type\": \"object\", \"properties\": {\"location\": {\"type\": \"string\", \"description\": \"城市或县区,比如北京市、杭州市、余杭区等。\"}}}, \"required\": [\"location\"]}}";
JSONObject getCurrentWeatherJson = new JSONObject(jsonString_weather);
// 将两个工具添加到工具库中
tools.put(getCurrentTimeJson);
tools.put(getCurrentWeatherJson);
String toolsString = tools.toString();
// 接口调用URL
String urlStr = "https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation";
// 通过环境变量获取DASHSCOPE_API_KEY
String apiKey = System.getenv("DASHSCOPE_API_KEY");
URL url = new URL(urlStr);
HttpURLConnection connection = (HttpURLConnection) url.openConnection();
connection.setRequestMethod("POST");
// 定义请求头信息
connection.setRequestProperty("Content-Type", "application/json");
connection.setRequestProperty("Authorization", "Bearer " + apiKey);
connection.setDoOutput(true);
// 定义请求体信息
String jsonInputString = String.format("{\"model\": \"qwen-max\", \"input\": {\"messages\":%s}, \"parameters\": {\"result_format\": \"message\",\"tools\":%s}}",messages.toString(),toolsString);
// 获取http响应response
try (DataOutputStream wr = new DataOutputStream(connection.getOutputStream())) {
wr.write(jsonInputString.getBytes(StandardCharsets.UTF_8));
wr.flush();
StringBuilder response = new StringBuilder();
try (BufferedReader in = new BufferedReader(
new InputStreamReader(connection.getInputStream()))) {
String inputLine;
while ((inputLine = in.readLine()) != null) {
response.append(inputLine);
connection.disconnect();
// 返回json格式化后的response
return new JSONObject(response.toString());
}
返回结果
当输入:
杭州天气
时,程序会进行如下输出:
以下是发起Function Call流程(模型的第一轮调用)时模型的返回信息。当输入“杭州天气”时,模型会返回tool_calls参数;当输入“你好”时,模型判断无需调用工具,模型不会返回tool_calls参数。
输入:杭州天气
{
'output': {
'choices': [
'finish_reason': 'tool_calls',
'message': {
'role': 'assistant',
'tool_calls': [
'function': {
'name': 'get_current_weather',
'arguments': '{
"location": "杭州市"
'index': 0,
'id': 'call_240d6341de4c484384849d',
'type': 'function'
'content': ''
'usage': {
'total_tokens': 235,
'output_tokens': 18,
'input_tokens': 217
'request_id': '235ed6a4-b6c0-9df0-aa0f-3c6dce89f3bd'
}
输入:你好
{
'output': {
'choices': [
'finish_reason': 'stop',
'message': {
'role': 'assistant',
'content': '你好!有什么可以帮助你的吗?'
'usage': {
'total_tokens': 223,
'output_tokens': 7,
'input_tokens': 216
'request_id': '42c42853-3caf-9815-96e8-9c950f4c26a0'
}
结构化输出
如果您的业务需要输出结构化数据,可以通过OpenAI兼容的方式调用qwen-plus模型,来确保生成的字符串符合标准的JSON格式。在调用时,设置
response_format
为
{"type": "json_object"}
,并通过系统消息或用户消息指引模型输出JSON格式即可。
结构化输出功能暂时只支持qwen-plus模型。
Python
示例代码
from openai import OpenAI
import os
def get_response():
client = OpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY"), # 如果您没有配置环境变量,请在此处用您的API Key进行替换
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", # 填写DashScope服务的base_url
completion = client.chat.completions.create(
model="qwen-plus",
messages=[
{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': '请用json格式输出一个学生的信息,姓名是张三,学号是12345678"'}],
response_format={
"type": "json_object"
print(completion.model_dump_json())
if __name__ == '__main__':
get_response()
返回结果
{
"id": "chatcmpl-433c9186-8dae-9213-9093-49bd049706ae",
"choices": [
"finish_reason": "stop",
"index": 0,
"logprobs": null,
"message": {
"content": "{\n \"姓名\": \"张三\",\n \"学号\": \"12345678\"\n}",
"refusal": null,
"role": "assistant",
"function_call": null,
"tool_calls": null
"created": 1726110506,
"model": "qwen-plus",
"object": "chat.completion",
"service_tier": null,
"system_fingerprint": null,
"usage": {
"completion_tokens": 25,
"prompt_tokens": 47,
"total_tokens": 72
}
curl
示例请求
curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen-plus",
"messages": [
"role": "system",
"content": "You are a helpful assistant."
"role": "user",
"content": "请用json格式输出一个学生的信息,姓名是张三,学号是12345678"
"response_format": {
"type": "json_object"
}'
返回结果
{
"choices": [
"message": {
"content": "{\"姓名\": \"张三\", \"学号\": \"12345678\"}",
"role": "assistant"
"finish_reason": "stop",
"index": 0,
"logprobs": null
"object": "chat.completion",
"usage": {
"prompt_tokens": 46,
"completion_tokens": 21,
"total_tokens": 67
"created": 1726110523,
"system_fingerprint": null,
"model": "qwen-plus",
"id": "chatcmpl-f208fb06-9ef2-994e-af5e-8234b9e31d94"
}
您可以使用加载JSON字符串的工具(如Python中的
json.loads()
),将
content
字符串解析为
JSON
对象,以便后续业务逻辑进行数据提取和处理。
Asyncio接口(实现异步调用)
您可以使用Asyncio接口调用实现并发,提高程序的效率。示例代码如下:
OpenAI SDK
示例代码
import os
import asyncio
from openai import AsyncOpenAI
import platform
# 创建异步客户端实例
client = AsyncOpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY"),
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1"
# 定义异步任务列表
async def task(question):
print(f"Sending question: {question}")
response = await client.chat.completions.create(
messages=[
{"role": "user", "content": question}
model="qwen-max",
print(f"Received answer: {response.choices[0].message.content}")
# 主异步函数
async def main():
questions = ["你是谁?", "你会什么?", "天气怎么样?"]
tasks = [task(q) for q in questions]
await asyncio.gather(*tasks)
if __name__ == '__main__':
# 设置事件循环策略
if platform.system() == 'Windows':
asyncio.set_event_loop_policy(asyncio.WindowsSelectorEventLoopPolicy())
# 运行主协程
asyncio.run(main(), debug=False)
DashScope SDK
示例代码
您的Dashscope Python SDK版本需要不低于 1.19.0。
import asyncio
import platform
from dashscope.aigc.generation import AioGeneration
# 定义异步任务列表
async def task(question):
print(f"Sending question: {question}")
response = await AioGeneration.call("qwen-turbo",
prompt=question)
print(f"Received answer: {response.output.text}")
# 主异步函数
async def main():
questions = ["你是谁?", "你会什么?", "天气怎么样?"]
tasks = [task(q) for q in questions]
await asyncio.gather(*tasks)
if __name__ == '__main__':
# 设置事件循环策略
if platform.system() == 'Windows':
asyncio.set_event_loop_policy(asyncio.WindowsSelectorEventLoopPolicy())
# 运行主协程
asyncio.run(main(), debug=False)
输入与输出参数
您可以通过下表查看不同调用方式的输入参数与输出参数。
数据类型 列中各字段的含义如下所示:
-
string表示字符串类型;
-
array在Python中表示列表,在Java中表示ArrayList;
-
integer表示整数型;
-
float表示浮点型;
-
boolean表示布尔型;
-
object表示哈希表。
OpenAI Python SDK
输入参数
参数 |
类型 |
默认值 |
说明 |
model |
string |
- |
用户使用model参数指明对应的模型。请参考 模型概览 。 |
messages |
array |
- |
用户与模型的对话历史。array中的每个元素形式为
|
|
float |
- |
生成过程中的核采样方法概率阈值,例如,取值为0.8时,仅保留概率加起来大于等于0.8的最可能token的最小集合作为候选集。取值范围为(0,1.0),取值越大,生成的随机性越高;取值越低,生成的确定性越高。 |
temperature(可选) |
float |
- |
用于控制模型回复的随机性和多样性。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。 取值范围: [0, 2),不建议取值为0,无意义。 |
presence_penalty (可选) |
float |
- |
用户控制模型生成时整个序列中的重复度。提高presence_penalty时可以降低模型生成的重复度,取值范围[-2.0, 2.0]。
重要
目前仅在千问商业模型和qwen1.5及以后的开源模型上支持该参数。 |
max_tokens(可选) |
integer |
- |
指定模型可生成的最大token个数。根据模型不同有不同的上限限制,一般不超过2000。 |
response_foramt(可选) |
object |
|
用于指定返回内容的格式。可选值:
|
seed(可选) |
integer |
- |
生成时使用的随机数种子,用于控制模型生成内容的随机性。seed支持无符号64位整数。 |
stream(可选) |
boolean |
False |
用于控制是否使用流式输出。当以stream模式输出结果时,接口返回结果为generator,需要通过迭代获取结果,每次输出为当前生成的增量序列。 |
stop(可选) |
string or array |
None |
stop参数用于实现内容生成过程的精确控制,在模型生成的内容即将包含指定的字符串或token_id时自动停止。stop可以为string类型或array类型。
|
tools(可选) |
array |
None |
用于指定可供模型调用的工具库,一次function call流程模型会从中选择其中一个工具。tools中每一个tool的结构如下:
在function call流程中,无论是发起function call的轮次,还是向模型提交工具函数的执行结果,均需设置tools参数。当前支持的模型包括qwen-turbo、qwen-plus、qwen-max和qwen-max-longcontext。
说明
tools暂时无法与stream=True同时使用。qwen-vl相关模型目前不支持该参数。 |
stream_options(可选) |
object |
None |
该参数用于配置在流式输出时是否展示使用的token数目。只有当stream为True的时候该参数才会激活生效。若您需要统计流式输出模式下的token数目,可将该参数配置为
|
enable_search (可选) |
boolean |
False |
用于控制模型在生成文本时是否使用互联网搜索结果进行参考。取值如下:
配置方式为:
|
出参描述
返回参数 |
数据类型 |
说明 |
备注 |
id |
string |
系统生成的标识本次调用的id。 |
无 |
model |
string |
本次调用的模型名。 |
无 |
system_fingerprint |
string |
模型运行时使用的配置版本,当前暂时不支持,返回为空字符串“”。 |
无 |
choices |
array |
模型生成内容的详情。 |
无 |
choices[i].finish_reason |
string |
有三种情况:
|
|
choices[i].message |
object |
模型输出的消息。 |
|
choices[i].message.role |
string |
模型的角色,固定为assistant。 |
|
choices[i].message.content |
string |
模型生成的文本。 |
|
choices[i].index |
integer |
生成的结果序列编号,默认为0。 |
|
created |
integer |
当前生成结果的时间戳(s)。 |
无 |
usage |
object |
计量信息,表示本次请求所消耗的token数据。 |
无 |
usage.prompt_tokens |
integer |
用户输入文本转换成token后的长度。 |
您可以参考 字符串与token之间的互相转换 进行token的估计。 |
usage.completion_tokens |
integer |
模型生成回复转换为token后的长度。 |
无 |
usage.total_tokens |
integer |
usage.prompt_tokens与usage.completion_tokens的总和。 |
无 |
OpenAI兼容-HTTP
输入参数
传参方式 |
参数 |
类型 |
默认值 |
说明 |
Header |
Authorization |
string |
- |
API-KEY,例如:Bearer d1**2a |
Content-Type |
string |
- |
请求类型,例如:application/json |
|
Body |
model |
string |
- |
用户使用model参数指明对应的模型。请参考 模型概览 。 |
messages |
array |
- |
用户与模型的对话历史。array中的每个元素形式为
|
|
|
float |
- |
生成过程中的核采样方法概率阈值,例如,取值为0.8时,仅保留概率加起来大于等于0.8的最可能token的最小集合作为候选集。取值范围为(0,1.0),取值越大,生成的随机性越高;取值越低,生成的确定性越高。 |
|
temperature(可选) |
float |
- |
用于控制模型回复的随机性和多样性。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。 取值范围: [0, 2),不建议取值为0,无意义。 |
|
presence_penalty (可选) |
float |
- |
用户控制模型生成时整个序列中的重复度。提高presence_penalty时可以降低模型生成的重复度,取值范围[-2.0, 2.0]。
重要
目前仅在千问商业模型和qwen1.5及以后的开源模型上支持该参数。 |
|
max_tokens(可选) |
integer |
- |
指定模型可生成的最大token个数。根据模型不同有不同的上限限制,一般不超过2000。 |
|
response_foramt(可选) |
object |
|
用于指定返回内容的格式。可选值:
|
|
seed(可选) |
integer |
- |
生成时使用的随机数种子,用于控制模型生成内容的随机性。seed支持无符号64位整数。 |
|
stream(可选) |
boolean |
False |
用于控制是否使用流式输出。当以stream模式输出结果时,接口返回结果为generator,需要通过迭代获取结果,每次输出为当前生成的增量序列。 |
|
stop(可选) |
string or array |
None |
stop参数用于实现内容生成过程的精确控制,在模型生成的内容即将包含指定的字符串或token_id时自动停止。stop可以为string类型或array类型。
|
|
tools(可选) |
array |
None |
用于指定可供模型调用的工具库,一次function call流程模型会从中选择其中一个工具。tools中每一个tool的结构如下:
在function call流程中,无论是发起function call的轮次,还是向模型提交工具函数的执行结果,均需设置tools参数。
说明
tools暂时无法与stream=True同时使用。qwen-vl相关模型目前不支持该参数。 |
|
stream_options(可选) |
object |
None |
该参数用于配置在流式输出时是否展示使用的token数目。只有当stream为True的时候该参数才会激活生效。若您需要统计流式输出模式下的token数目,可将该参数配置为
|
|
enable_search (可选,通过extra_body配置) |
boolean |
false |
用于控制模型在生成文本时是否使用互联网搜索结果进行参考。取值如下:
配置方式为:
|
出参描述
返回参数 |
数据类型 |
说明 |
备注 |
id |
string |
系统生成的标识本次调用的ID。 |
无 |
model |
string |
本次调用的模型名。 |
无 |
system_fingerprint |
string |
模型运行时使用的配置版本,当前暂时不支持,返回为空字符串“”。 |
无 |
choices |
array |
模型生成内容的详情。 |
无 |
choices[i].finish_reason |
string |
有三种情况:
|
|
choices[i].message |
object |
模型输出的消息。 |
|
choices[i].message.role |
string |
模型的角色,固定为assistant。 |
|
choices[i].message.content |
string |
模型生成的文本。 |
|
choices[i].index |
integer |
生成的结果序列编号,默认为0。 |
|
created |
integer |
当前生成结果的时间戳(s)。 |
无 |
usage |
object |
计量信息,表示本次请求所消耗的token数据。 |
无 |
usage.prompt_tokens |
integer |
用户输入文本转换成token后的长度。 |
您可以参考 字符串与token之间的互相转换 进行token的估计。 |
usage.completion_tokens |
integer |
模型生成回复转换为token后的长度。 |
无 |
usage.total_tokens |
integer |
usage.prompt_tokens与usage.completion_tokens的总和。 |
无 |
DashScope SDK
输入参数
参数 |
数据类型 |
默认值 |
说明 |
model(必选) |
string |
无 |
指定用于对话的通义千问模型名。请参考 模型概览 。 |
messages |
array |
无 |
说明
messages和prompt任选一个参数使用即可。由于和prompt组合使用的对话历史参数history即将废弃,仅依赖prompt指令会限制模型进行有记忆的对话能力。 messages参数允许模型参考历史对话,从而更准确地解析用户的意图,确保对话的流程性和连续性,因此在多轮对话场景下推荐您优先使用messages参数。 |
prompt |
string |
无(与messages不可同时为空) |
|
seed(可选) |
integer |
|
生成时使用的随机数种子,用于控制模型生成内容的随机性。seed支持无符号64位整数。 |
max_tokens(可选)
说明
Java SDK中为maxTokens。 |
integer |
1500或2000 |
指定模型可生成的最大token个数。
|
top_p(可选)
说明
Java SDK中为topP。 |
float |
|
生成过程中的核采样方法概率阈值,例如,取值为0.8时,仅保留概率加起来大于等于0.8的最可能token的最小集合作为候选集。取值范围为(0,1.0),取值越大,生成的随机性越高;取值越低,生成的确定性越高。 |
top_k(可选)
说明
Java SDK中为topK。 |
integer |
|
生成时,采样候选集的大小。例如,取值为50时,仅将单次生成中得分最高的50个token组成随机采样的候选集。取值越大,生成的随机性越高;取值越小,生成的确定性越高。取值为None或当top_k大于100时,表示不启用top_k策略,此时,仅有top_p策略生效。 |
repetition_penalty(可选)
说明
Java SDK中为repetitionPenalty。 |
float |
|
用于控制模型生成时连续序列中的重复度。提高repetition_penalty时可以降低模型生成的重复度,1.0表示不做惩罚。没有严格的取值范围,只要大于0即可。 |
presence_penalty(可选)
说明
Java SDK中暂不支持该参数。 |
float |
|
用户控制模型生成时整个序列中的重复度。提高presence_penalty时可以降低模型生成的重复度,取值范围[-2.0, 2.0]。 |
temperature(可选) |
float |
|
用于控制模型回复的随机性和多样性。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。 取值范围:[0, 2),不建议取值为0,无意义。 |
stop (可选) |
string or array |
None |
stop参数用于实现内容生成过程的精确控制,在模型生成的内容即将包含指定的字符串或token_id时自动停止。stop可以为string类型或array类型。
|
stream (可选) |
boolean |
False |
用于控制是否使用流式输出。当以stream模式输出结果时,接口返回结果为generator,需要通过迭代获取结果,默认每次输出为当前生成的整个序列,最后一次输出为最终全部生成结果,可以通过设置参数incremental_output为False改变输出模式为非增量输出。 |
enable_search(可选)
说明
Java SDK中为enableSearch |
boolean |
False |
用于控制模型在生成文本时是否使用互联网搜索结果进行参考。取值如下:
|
result_format(可选)
说明
Java SDK中为resultFormat。 |
string |
text |
用于指定返回结果的格式,默认为text,也可选择message。推荐您优先使用message格式。 |
incremental_output (可选)
说明
Java SDK中为incrementalOutput。 |
boolean |
False |
控制在流式输出模式下是否开启增量输出,即后续输出内容是否包含已输出的内容。设置为True时,将开启增量输出模式,后面输出不会包含已经输出的内容,您需要自行拼接整体输出;设置为False则会包含已输出的内容。 默认False: I I like I like apple True: I like apple 该参数只能在stream为True时使用。
说明
incremental_output暂时无法和tools参数同时使用。 |
tools |
array |
None |
用于指定可供模型调用的工具库,一次function call流程模型会从中选择其中一个工具。tools中每一个tool的结构如下:
使用tools时需要同时指定result_format为message。在function call流程中,无论是发起function call的轮次,还是向模型提交工具函数的执行结果,均需设置tools参数。
说明
tools暂时无法和incremental_output参数同时使用。 |
tool_choice
说明
Java SDK中为toolChoice。 |
string or object |
见说明 |
在使用tools参数时,用于控制模型调用指定工具。有三种取值:
说明
当前支持qwen-max/qwen-max-0428/qwen-max-0403/qwen-plus/qwen-turbo |
返回结果
-
result_format设置为"message"时的结果示例:
{ "status_code": 200, "request_id": "05dc83af-7185-9e14-9b0b-4466de159d6a", "code": "", "message": "", "output": { "text": null, "finish_reason": null, "choices": [ "finish_reason": "stop", "message": { "role": "assistant", "content": "首先,准备两个鸡蛋,一个西红柿,适量的盐、糖、料酒和生抽。将鸡蛋打入碗中,搅拌均匀,西红柿切块。锅中加油,油热后加入鸡蛋液,炒至金黄色,盛出备用。锅中加油,油热后加入西红柿块,翻炒均匀,加入适量的盐、糖、料酒和生抽,炒至西红柿软烂,加入炒好的鸡蛋,翻炒均匀即可。" "usage": { "input_tokens": 12, "output_tokens": 98, "total_tokens": 110 }
-
发起function call时的结果示例:
{ "status_code": 200, "request_id": "a2b49cd7-ce21-98ff-87ac-b00cc590dc5e", "code": "", "message": "", "output": { "text": null, "finish_reason": null, "choices": [ "finish_reason": "tool_calls", "message": { "role": "assistant", "content": "", "tool_calls":[ 'function': { 'name': 'get_current_weather', 'arguments': '{"properties": {"location": "北京市"}}' 'id': '', 'type': 'function'}] "usage": { "input_tokens": 12, "output_tokens": 98, "total_tokens": 110 }
出参描述
返回参数 |
数据类型 |
说明 |
备注 |
status_code |
integer |
200(HTTPStatus.OK)表示请求成功,否则表示请求失败,可以通过code获取错误码,通过message字段获取错误详细信息。
说明
只有Python会输出该参数,使用Java调用失败会抛出异常,异常信息为code和message的内容。 |
无 |
request_id |
string |
系统生成的标志本次调用的id。 |
无 |
code |
string |
表示错误码,调用成功时为空值。仅适用于Python。 |
无 |
message |
string |
表示调用失败的详细信息,调用成功时为空值。仅适用于Python。 |
无 |
output |
object |
表示调用结果信息。 |
无 |
output.text |
string |
模型生成的回复。 |
在使用prompt传入指令时不为空 |
output.finish_reason |
string |
有四种情况:
|
|
output.choices |
array |
当result_format为message时输出choices。 |
当result_format为message时输出choices。 |
output.choices[i].finish_reason |
string |
有三种情况:
|
|
output.choices[i].message |
object |
模型输出的消息。 |
|
output.choices[i].message.role |
string |
模型的角色,固定为assistant。 |
|
output.choices[i].message.content |
string |
模型生成的文本。 |
|
output.choices[i].message.tool_calls |
object |
如果模型需要调用工具,则会生成tool_calls参数,应用于function call场景。 |
包含三个参数:type、function和id。type、function参数详情如下:
|
usage |
object |
计量信息,表示本次请求所消耗的token数据。 |
无 |
usage.input_tokens |
integer |
用户输入文本转换成token后的长度。 |
您可以参考 字符串与token之间的互相转换 进行token的估计。 |
usage.output_tokens |
integer |
模型生成回复转换为token后的长度。 |
无 |
usage.total_tokens |
integer |
usage.input_tokens与usage.output_tokens的总和 |
无 |
DashScope HTTP
输入参数
传参方式 |
字段 |
数据类型 |
必选 |
描述 |
示例值 |
Header |
Content-Type |
string |
是 |
请求类型:application/json |
"Content-Type":"application/json" |
Accept |
string |
否 |
选择text/event-stream则会开启SSE响应,默认无设置。 |
"Accept":"text/event-stream" |
|
Authorization |
string |
是 |
API-KEY,例如:Bearer d1**2a |
"Authorization":"Bearer d1**2a" |
|
X-DashScope-WorkSpace |
string |
否 |
指明本次调用需要使用的workspace;需要注意的是,对于子账号Apikey调用,此参数为必选项,子账号必须归属于某个workspace才能调用;对于主账号Apikey此项为可选项,添加则使用对应的workspace身份,不添加则使用主账号身份。 |
ws_QTggmeAxxxxx |
|
X-DashScope-SSE |
string |
否 |
设置为enable或者设置Accept: text/event-stream即可启用SSE响应。 |
"X-DashScope-SSE":"enable" |
|
Body |
model |
string |
是 |
指定用于对话的通义千问模型名。请参考 模型概览 。 |
"model":"qwen-turbo" |
input |
object |
是 |
输入模型的信息。 |
无 |
|
input.prompt
说明
字段中的点号(.)表示后者为前者的属性。在API测试工具中,并不能直接将Key设置为input.prompt。传入方式为"input":{"prompt":"xxx"}。 |
string |
否 |
用户当前输入的期望模型执行指令,支持中英文。与input.messages指定其中一个即可。 |
"input":{"prompt":"你好"} |
|
input.history |
array |
否 |
即将废弃,请使用messages字段 。 用户与模型的对话历史,array中的每个元素形式为{"user":"用户输入","bot":"模型输出"}的一轮对话,多轮对话按时间正序排列。 |
"input":{"history":[{"user":"今天天气好吗?", "bot":"今天天气不错,要出去玩玩嘛?"}, {"user":"那你有什么地方推荐?", "bot":"我建议你去公园,春天来了,花朵开了,很美丽。"}]} |
|
input.messages |
array |
否 |
表示用户与模型的对话历史。array中的每个元素形式为
角色可选值:
|
"input":{ "messages":[ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "你好,附近哪里有博物馆?" }] } |
|
input.messages.role |
string |
messages存在的时候不能省略。 |
|||
input.messages.content |
string |
||||
input.messages.name |
string |
input.messages.role为tool时不能省略 |
role为
|
||
parameters |
object |
否 |
用于控制模型生成的参数 |
无 |
|
parameters.result_format |
string |
否 |
用于指定返回结果的格式,默认为text,也可设置为message。推荐优先使用message格式。 |
"parameters":{"result_format":"message"} |
|
parameters.seed |
integer |
否 |
生成时使用的随机数种子,用户控制模型生成内容的随机性。seed支持无符号64位整数。在使用seed时,模型将尽可能生成相同或相似的结果,但目前不保证每次生成的结果完全相同。 |
"parameters":{"seed":666} |
|
parameters.max_tokens |
integer |
否 |
用于限制模型生成token的数量,表示生成token个数的上限。其中qwen-turbo最大值和默认值为1500,qwen-max、qwen-max-1201 、qwen-max-longcontext 和 qwen-plus最大值和默认值均为2000。 |
"parameters":{"max_tokens":1500} |
|
parameters.top_p |
float |
否 |
生成时,核采样方法的概率阈值。例如,取值为0.8时,仅保留累计概率之和大于等于0.8的概率分布中的token,作为随机采样的候选集。取值范围为(0,1.0),取值越大,生成的随机性越高;取值越低,生成的随机性越低。注意,取值不要大于等于1。 |
"parameters":{"top_p":0.7} |
|
parameters.top_k |
integer |
否 |
生成时,采样候选集的大小。例如,取值为50时,仅将单次生成中得分最高的50个token组成随机采样的候选集。取值越大,生成的随机性越高;取值越小,生成的确定性越高。注意:如果top_k参数为空或者top_k的值大于100,表示不启用top_k策略,此时仅有top_p策略生效。 |
"parameters":{"top_k":50} |
|
parameters.repetition_penalty |
float |
否 |
用于控制模型生成时连续序列中的重复度。提高repetition_penalty时可以降低模型生成的重复度。1.0表示不做惩罚。没有严格的取值范围,只要大于0即可。 |
"parameters":{"repetition_penalty":1.0} |
|
parameters.presence_penalty |
float |
否 |
用户控制模型生成时整个序列中的重复度。提高presence_penalty时可以降低模型生成的重复度,取值范围 [-2.0, 2.0]。 |
"parameters":{"presence_penalty":1.0} |
|
parameters.temperature |
float |
否 |
用于控制随机性和多样性的程度。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。 取值范围:[0, 2),不建议取值为0,无意义。 |
"parameters":{"temperature":0.85} |
|
parameters.stop |
string/array |
否 |
stop参数用于实现内容生成过程的精确控制,在模型生成的内容即将包含指定的字符串或token_id时自动停止,生成的内容不包含指定的内容。stop可以为string类型或array类型。
|
"parameters":{"stop":["你好","天气"]} |
|
parameters.enable_search |
boolean |
否 |
模型内置了互联网搜索服务,该参数控制模型在生成文本时是否参考使用互联网搜索结果。取值如下:
|
"parameters":{"enable_search":false} |
|
parameters.incremental_output |
boolean |
否 |
控制在流式输出模式下是否开启增量输出,即后续输出内容是否包含已输出的内容。设置为True时,将开启增量输出模式,后面输出不会包含已经输出的内容,您需要自行拼接整体输出;设置为False则会包含已输出的内容。 默认False: I I like I like apple True: I like apple 该参数只能在开启SSE响应时使用。
说明
incremental_output暂时无法和tools参数同时使用。 |
"parameters":{"incremental_output":false} |
|
parameters.tools |
array |
否 |
用于指定可供模型调用的工具列表。当输入多个工具时,模型会选择其中一个生成结果。tools中每一个tool的结构如下:
使用tools时需要同时指定result_format为message。在function call流程中,无论是发起function call的轮次,还是向模型提交工具函数的执行结果,均需设置tools参数。
说明
tools暂时无法和incremental_output参数同时使用。 |
|
|
parameters.tool_choice |
string/object |
否 |
在使用tools参数时,用于控制模型调用指定工具。有三种取值:
说明
当前支持qwen-max/qwen-max-0428/qwen-max-0403/qwen-plus/qwen-turbo。 |
|
出参描述
字段 |
数据类型 |
描述 |
示例值 |
output.text |
string |
模型输出的内容。当result_format设置为text时返回该字段。 |
我建议你去颐和园 |
output.finish_reason |
string |
有三种情况:正在生成时为null,生成结束时如果由于停止token导致则为stop,生成结束时如果因为生成长度过长导致则为length。当result_format设置为text时返回该字段。 |
stop |
output.choices |
array |
当result_format设置为message时返回该字段。 |
|
output.choices[x].finish_reason |
string |
停止原因,null:生成过程中 stop:stop token导致结束 length:生成长度导致结束 |
|
output.choices[x].message |
object |
message每个元素形式为{"role":角色, "content": 内容}。content为模型输出的内容。 |
|
output.choices[x].message.role |
string |
||
output.choices[x].message.content |
string |
||
output.choices[x].message.tool_calls |
object |
如果模型需要调用工具,则会生成tool_calls参数,应用于function_call场景。其中包含type和function两个参数,参数详情如下:
|
|
usage |
object |
本次调用使用的token信息。 |
无 |
usage.output_tokens |
integer |
模型输出内容的 token个数。 |
380 |
usage.input_tokens |
integer |
本次请求输入内容的token个数。在enable_search设置为true时,输入的 token 数目由于需要添加搜索相关内容,因此会比您在请求中的输入token个数多。 |
633 |
usage.total_tokens |
integer |
usage.output_tokens与usage.input_tokens的总和。 |
1013 |
request_id |
string |
本次请求的系统唯一码。 |
7574ee8f-38a3-4b1e-9280-11c33ab46e51 |
异常响应示例
此处以未传入正确
API-KEY
为例,向您展示异常响应的示例。
OpenAI SDK
openai.AuthenticationError: Error code: 401 - {'error': {'message': 'Incorrect API key provided. ', 'type': 'invalid_request_error', 'param': None, 'code': 'invalid_api_key'}}
DashScope SDK
Request id: 54e9e525-bd50-9a05-9442-8801800c57fd, Status code: 401, error code: InvalidApiKey, error message: Invalid API-key provided.
DashScope-HTTP
{
"code": "InvalidApiKey",
"message": "Invalid API-key provided.",
"request_id": "c2b1ab6e-e5a5-9d21-8579-88a10ce39c2f"
}
OpenAI兼容-HTTP
{
"error": {
"message": "Incorrect API key provided. ",
"type": "invalid_request_error",
"param": null,
"code": "invalid_api_key"
}
状态码说明
DashScope灵积模型服务通用状态码详情,请参见 错误码 。
常见问题
-
通义千问、灵积、DashScope、百炼是什么关系?
通义千问 是阿里云研发的大语言模型; 灵积 是阿里云推出的模型服务平台,提供了包括通义千问在内的多种模型的服务接口, DashScope 是灵积的英文名,两者指的是同一平台; 百炼 是阿里云推出的一站式大模型应用开发平台,同时也提供模型调用服务。
-
我如果想调用通义千问模型,是要通过灵积平台还是百炼平台?
对于需要调用通义千问模型的开发者而言,通过灵积平台与百炼平台调用通义千问模型 都是 通过dashscope SDK或OpenAI兼容或HTTP方式实现。两个平台都可以获取到API-KEY,且是同步的。因此您只需准备好计算环境,并在两个平台任选其一创建API-KEY,即可发起通义千问模型的调用。
-
我想通过百炼平台调用通义千问开源模型,但是文档中没有相应介绍,我该看哪篇文档?
qwen开源模型的使用方法请参考 通义千问开源系列 文档。
-
我可以通过OpenAI兼容方式调用通义千问的多模态模型吗?
可以,详情请您参考 Chat 。