Discuz! BBS

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 316|回复: 1

Qwen3编程

[复制链接]

319

主题

458

帖子

2862

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
2862
发表于 2025-6-10 23:28:51 | 显示全部楼层 |阅读模式
JAVA:
  1. import com.openai.client.OpenAIClient;
  2. import com.openai.client.okhttp.OpenAIOkHttpClient;
  3. import com.openai.models.ChatCompletion;
  4. import com.openai.models.ChatCompletionCreateParams;

  5. import java.util.List;

  6. // OpenAI Java SDK 目前为 beta 阶段,此代码实例所使用的SDK版本号为0.32.0
  7. public class Main {
  8.     public static void main(String[] args) {
  9.             // 创建 OpenAI 客户端,连接 DashScope 的兼容接口
  10.             OpenAIClient client = OpenAIOkHttpClient.builder()
  11.                     .apiKey(System.getenv("DASHSCOPE_API_KEY"))  // 或替换为 .apiKey("sk-xxx")
  12.                     .baseUrl("https://dashscope.aliyuncs.com/compatible-mode/v1")
  13.                     .build();

  14.             // 创建 ChatCompletion 参数
  15.             ChatCompletionCreateParams params = ChatCompletionCreateParams.builder()
  16.                     .model("qwen-plus")  // 指定模型
  17.                     .addSystemMessage("You are a helpful assistant.")
  18.                     .addUserMessage("你是谁?")
  19.                     .build();

  20.             // 发送请求并获取响应
  21.             ChatCompletion chatCompletion = client.chat().completions().create(params);


  22.             // 提取并打印 content 字段内容
  23.             List<ChatCompletion.Choice> choices = chatCompletion.choices();
  24.             if (!choices.isEmpty()) {
  25.                 String content = choices.get(0).message().content().orElse("无响应内容");
  26.                 System.out.println(content);
  27.             }
  28.     }
  29. }
复制代码
ref:百炼控制台-文本生成

回复

使用道具 举报

319

主题

458

帖子

2862

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
2862
 楼主| 发表于 2025-6-26 12:55:54 | 显示全部楼层
如何在 vLLM 中取消 Qwen3 的 Thinking 模式
  1. Python:
  2. prompt = "Who are you."
  3. messages = [{"role": "user", "content": prompt}]
  4. text = tokenizer.apply_chat_template(
  5.     messages,
  6.     tokenize=False,
  7.     add_generation_prompt=True,
  8.     enable_thinking=False  # 关键参数,禁用 Thinking 模式
  9. )
复制代码

vLLM 提供了另一种更简单的方式:在用户输入的末尾添加 /no_think 标记。
通过 API 参数禁用 Thinking 模式(推荐)
如果你是通过 API 调用 Qwen3(如使用 vLLM 搭建的服务),可以在请求中通过 extra_body 字段设置 enable_thinking=False。

示例代码
  1. response = client.chat.completions.create(
  2.     model="chat",
  3.     messages=[{"role": "user", "content": "Why is the sky blue?"}],
  4.     extra_body={"chat_template_kwargs": {"enable_thinking": False}},
  5. )
复制代码

extra_body 是一个 扩展参数字段,用于传递模型服务端支持的非标准参数。
chat_template_kwargs 是控制 chat_template 行为的参数。
enable_thinking: False 表示 不输出“思考”提示。

适用场景建议
推荐方法三:如果你是通过 API 调用模型,推荐使用 extra_body 设置 enable_thinking=False,这是最推荐的方式。
推荐方法一:如果你是本地部署模型并控制代码,建议使用 enable_thinking=False。
推荐方法二:如果你希望快速实现且不介意少量 token 输出,可以使用 /no_think 标记。

                        
原文链接:https://blog.csdn.net/qq_55666050/article/details/147893161
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|DiscuzX

GMT+8, 2025-8-1 06:44 , Processed in 0.012607 second(s), 18 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表