智诊科技智诊科技

WiseDiag 大模型

1. 接入配置 (Configuration)

在调用接口前,请配置以下基础信息。具体的API Key 将单独提供。

  • Model Name (模型名称): wisediag-large-latest
  • Base URL (基础地址): https://openapi.wisediag.com

2. 接口说明 (Endpoint)

  • 请求路径: /v1/chat/completions
  • 请求方式: POST
  • Content-Type: application/json

3. 请求参数 (Request Parameters)

参数名类型必填默认值说明
modelstring-固定值为 wisediag-large-latest
messageslist-对话上下文列表,包含 role (user/system/assistant) 和 content
streambooleanfalse是否开启流式传输。推荐设置为 true 以获得更好的实时响应体验
temperaturefloat0.6采样温度。控制输出的随机性,建议设为 0.6
top_pfloat0.95核采样概率。建议设为 0.95
max_tokensinteger8192生成内容的最大 Token 数,最大为32k
seedinteger42随机种子,用于控制结果的可复现性
frequency_penaltyfloat0.95频率惩罚参数,用于减少重复内容的生成

4. 调用示例 (Code Examples)

方式一:Python (推荐)

该接口完全兼容 OpenAI Python SDK (v1.0+)。请确保已安装库:pip install openai

注意: 该模型返回包含 reasoning_content(推理过程)和标准 content。以下代码展示了如何同时获取这两部分内容。

from openai import OpenAI
import os

# 配置客户端
client = OpenAI(
    api_key="YOUR_API_KEY",          # 请替换为实际提供的 Key
    base_url="https://openapi.wisediag.com/v1",
)

def chat_with_wisediag(prompt):
    messages = [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": prompt}
    ]

    try:
        response = client.chat.completions.create(
            model="wisediag-large-latest",
            messages=messages,
            temperature=0.6,
            top_p=0.95,
            max_tokens=8192,
            stream=True,             # 开启流式输出
            seed=42,
            frequency_penalty=0.95,
        )

        print("--- 正在生成回答 ---")
        full_reasoning = ""
        full_content = ""

        for chunk in response:
            # 处理 Usage 信息(通常在最后一个 chunk)
            if hasattr(chunk, "usage") and chunk.usage:
                print(f"\n[Token Usage] Prompt: {chunk.usage.prompt_tokens}, Completion: {chunk.usage.completion_tokens}")
                break

            delta = chunk.choices[0].delta

            # 获取推理过程 (Reasoning Content)
            reasoning_piece = getattr(delta, "reasoning_content", None)
            if reasoning_piece:
                print(reasoning_piece, end="", flush=True)
                full_reasoning += reasoning_piece

            # 获取最终回复内容 (Content)
            content_piece = getattr(delta, "content", None)
            if content_piece:
                print(content_piece, end="", flush=True)
                full_content += content_piece

        return full_content

    except Exception as e:
        print(f"请求发生错误: {e}")
        return None

if __name__ == "__main__":
    chat_with_wisediag("你好,请介绍一下你自己。")

方式二:cURL (命令行)

适用于快速测试接口连通性。

curl --location 'https://openapi.wisediag.com/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer YOUR_API_KEY' \
--data '{
    "model": "wisediag-large-latest",
    "messages": [
        {"role": "user", "content": "你好"}
    ],
    "temperature": 0.6,
    "top_p": 0.95,
    "max_tokens": 8192,
    "stream": true,
    "seed": 42,
    "frequency_penalty": 0.95
}'

5. 响应字段说明 (Response Handling)

该模型在流式模式下(stream: true)会返回特殊字段。

  • delta.reasoning_content: 模型的思维链/推理过程内容。在最终答案生成前,模型可能会先输出这段推理文本。
  • delta.content: 标准的回复内容。
  • usage: 在流式结束时,最后一个数据包可能包含 Token 消耗统计。

本页目录