WiseDiag 大模型
1. 接入配置 (Configuration)
在调用接口前,请配置以下基础信息。具体的API Key 将单独提供。
- Model Name (模型名称):
wisediag-large-latest - Base URL (基础地址):
https://openapi.wisediag.com
2. 接口说明 (Endpoint)
- 请求路径:
/v1/chat/completions - 请求方式:
POST - Content-Type:
application/json
3. 请求参数 (Request Parameters)
| 参数名 | 类型 | 必填 | 默认值 | 说明 |
|---|---|---|---|---|
| model | string | 是 | - | 固定值为 wisediag-large-latest |
| messages | list | 是 | - | 对话上下文列表,包含 role (user/system/assistant) 和 content |
| stream | boolean | 否 | false | 是否开启流式传输。推荐设置为 true 以获得更好的实时响应体验 |
| temperature | float | 否 | 0.6 | 采样温度。控制输出的随机性,建议设为 0.6 |
| top_p | float | 否 | 0.95 | 核采样概率。建议设为 0.95 |
| max_tokens | integer | 否 | 8192 | 生成内容的最大 Token 数,最大为32k |
| seed | integer | 否 | 42 | 随机种子,用于控制结果的可复现性 |
| frequency_penalty | float | 否 | 0.95 | 频率惩罚参数,用于减少重复内容的生成 |
4. 调用示例 (Code Examples)
方式一:Python (推荐)
该接口完全兼容 OpenAI Python SDK (v1.0+)。请确保已安装库:pip install openai。
注意: 该模型返回包含 reasoning_content(推理过程)和标准 content。以下代码展示了如何同时获取这两部分内容。
from openai import OpenAI
import os
# 配置客户端
client = OpenAI(
api_key="YOUR_API_KEY", # 请替换为实际提供的 Key
base_url="https://openapi.wisediag.com/v1",
)
def chat_with_wisediag(prompt):
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": prompt}
]
try:
response = client.chat.completions.create(
model="wisediag-large-latest",
messages=messages,
temperature=0.6,
top_p=0.95,
max_tokens=8192,
stream=True, # 开启流式输出
seed=42,
frequency_penalty=0.95,
)
print("--- 正在生成回答 ---")
full_reasoning = ""
full_content = ""
for chunk in response:
# 处理 Usage 信息(通常在最后一个 chunk)
if hasattr(chunk, "usage") and chunk.usage:
print(f"\n[Token Usage] Prompt: {chunk.usage.prompt_tokens}, Completion: {chunk.usage.completion_tokens}")
break
delta = chunk.choices[0].delta
# 获取推理过程 (Reasoning Content)
reasoning_piece = getattr(delta, "reasoning_content", None)
if reasoning_piece:
print(reasoning_piece, end="", flush=True)
full_reasoning += reasoning_piece
# 获取最终回复内容 (Content)
content_piece = getattr(delta, "content", None)
if content_piece:
print(content_piece, end="", flush=True)
full_content += content_piece
return full_content
except Exception as e:
print(f"请求发生错误: {e}")
return None
if __name__ == "__main__":
chat_with_wisediag("你好,请介绍一下你自己。")方式二:cURL (命令行)
适用于快速测试接口连通性。
curl --location 'https://openapi.wisediag.com/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer YOUR_API_KEY' \
--data '{
"model": "wisediag-large-latest",
"messages": [
{"role": "user", "content": "你好"}
],
"temperature": 0.6,
"top_p": 0.95,
"max_tokens": 8192,
"stream": true,
"seed": 42,
"frequency_penalty": 0.95
}'5. 响应字段说明 (Response Handling)
该模型在流式模式下(stream: true)会返回特殊字段。
delta.reasoning_content: 模型的思维链/推理过程内容。在最终答案生成前,模型可能会先输出这段推理文本。delta.content: 标准的回复内容。usage: 在流式结束时,最后一个数据包可能包含 Token 消耗统计。