WiseDiag-Z1
模型编码:zzkj
同步调用
接口请求
类型 | 描述 |
---|---|
方法 | https |
请求URL | https://api.wisediag.com/v1/chat/completions |
调用方式 | 同步调用,等待模型执行完成并返回最终结果 |
字符编码 | UTF-8 |
请求格式 | JSON |
响应格式 | JSON或标准流事件 |
请求类型 | POST |
开发语言 | 任何能够发起HTTP请求的开发语言 |
请求参数
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
model | String | 是 | 要调用的模型代码 |
messages | List | 是 | 调用模型时,将当前对话信息列表作为提示输入给模型, 按照 {"role": "user", "content": "你好"} 的json 数组形式进行传参; 可能的role包括 "user"和"assistant"。 |
do_sample | Boolean | 否 | do_sample 为 true 时启用采样策略,do_sample 为 false 时采样策略 temperature、top_p 将不生效。默认值为 true。 |
stream | Boolean | 否 | 使用同步调用时,此参数应设置为false或省略。它表示模型在生成所有内容后一次性返回所有内容。默认值为false。若设置为true,模型将通过标准事件流分块返回生成的内容。 |
temperature | Float | 否 | 采样温度,控制输出的随机性,必须是0.0到1.0之间的正数,默认值为0.95 |
top_p | Float | 否 | 另一种温度采样方法,取值范围是0.0到1.0,默认值为0.7 |
max_tokens | Integer | 否 | 模型输出最大 tokens,最大输出为16384,默认值为2048 |
stop | List | 否 | 模型遇到指定的停止字符时将停止生成。格式:["stop_word1"、"stop_word2"、...] |
web_search | Boolean | 否 | 模型是否开启网络搜索,默认为false。 |
消息字段描述
User Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为user |
content | String | 是 | 消息内容 |
Assistant Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为assistant |
content | String | 是 | 消息内容。 |
请求示例
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>", # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")
response = client.chat.completions.create(
model="zzkj", # # 填写需要调用的模型名称
messages = [
{
"role": "user",
"content": "我感冒了怎么办?"
}
]
)
print(response.choices[0].message)
响应示例
{
"created": XXX,
"id": "XXX",
"model": "zzkj",
"request_id": "XXX",
"choices": [
{
"finish_reason": "stop",
"index": 0,
"message": {
"content": "```thinking\n嗯......感冒是一种很常见的疾病,很多人都会遇到。首先,我需要了解感冒的基本症状和原因。感冒通常由病毒引起,比如鼻病毒,会导致流鼻涕、咳嗽、喉咙痛、发烧等症状。\n\n现在我再想想......感冒虽然不舒服,但大多数情况下是自限性的,也就是说,身体会自己好。不过,还是有很多方法可以缓解症状,让患者更舒服。\n\n让我看看是否需要提醒一些注意事项。比如多休息、多喝水,保持室内空气流通,避免传染给他人。饮食方面,吃些清淡易消化的食物,增加维生素C的摄入,可能有助于增强免疫力。\n\n这让我想起了......有些人可能会用药物来缓解症状,比如感冒冲剂、板蓝根、维C银翘片等。但是,使用药物前要仔细阅读说明书,或者咨询医生,避免滥用。\n\n不过话说回来......如果症状比较重,比如高烧不退、呼吸困难,或者有其他并发症,那可能需要去看医生,特别是对于免疫力低下的人群,如老人、小孩、孕妇等。\n\n最后,我觉得应该强调预防措施,比如勤洗手、戴口罩、避免接触病人等,这样可以减少感冒的机会。\n\n总的来说,感冒虽然常见,但也不能掉以轻心,要根据症状轻重采取适当的措施。\n```\n\n感冒是一种常见的上呼吸道感染,通常由病毒引起。以下是一些应对感冒的建议:\n\n### 1. **休息和补充水分**\n- **多休息**:让身体有足够的时间和能量来对抗感染。\n- **多喝水**:保持身体水分充足,有助于稀释黏液,使其更容易排出。\n\n### 2. **缓解症状**\n- **喉咙痛**:可以含润喉片或用温盐水漱口。\n- **流鼻涕和鼻塞**:使用生理盐水喷鼻或蒸汽吸入可以帮助清理鼻腔。\n- **咳嗽**:避免刺激性食物,保持室内空气湿润,必要时可以使用止咳药(遵医嘱)。\n- **发烧**:如果体温超过38℃,可以使用退烧药如对乙酰氨基酚(扑热息痛)或布洛芬(遵医嘱)。\n\n### 3. **饮食建议**\n- **清淡饮食**:选择易消化的食物,如清汤、粥、水果等。\n- **增加维生素C**:多食用富含维生素C的水果,如橙子、草莓等,有助于增强免疫力。\n\n### 4. **预防传播**\n- **勤洗手**:避免用手直接接触眼睛、鼻子和嘴。\n- **戴口罩**:如果症状较重,建议佩戴口罩,避免传染他人。\n- **保持室内通风**:定期开窗通风,保持空气流通。\n\n### 5. **何时就医**\n- 如果出现以下情况,应及时就医:\n - 高烧不退(超过38.5℃且持续24小时以上)。\n - 呼吸困难或胸痛。\n - 症状持续超过10天且无好转迹象。\n - 出现其他异常症状,如皮疹、剧烈头痛等。\n\n### 6. **药物使用**\n- **非处方药**:如感冒冲剂、板蓝根、维C银翘片等,可以缓解部分症状,但需仔细阅读说明书,避免过量。\n- **抗生素**:感冒通常由病毒引起,抗生素对病毒无效,除非有明确的细菌感染证据,否则不建议使用抗生素。\n\n### 7. **预防措施**\n- **增强免疫力**:保持良好的生活习惯,适量运动,保证充足睡眠。\n- **疫苗接种**:接种流感疫苗可以预防某些类型的感冒。\n\n如果症状较轻,通常不需要特别担心,按照上述建议进行自我护理即可。但如果症状严重或持续时间较长,建议及时就医,以排除其他可能的并发症。",
"role": "assistant"
}
}
],
"usage": {
"completion_tokens": XX,
"prompt_tokens": XXX,
"total_tokens": XXX
}
}
流式输出示例
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>", # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")
response = client.chat.completions.create(
model="zzkj", # # 填写需要调用的模型名称
messages = [
{
"role": "user",
"content": "我感冒了怎么办?"
}
],
stream=True,
)
for chunk in response:
print(chunk.choices[0].delta)
WiseDiag-Z1 Think
模型编码:zzkj-think
同步调用
接口请求
类型 | 描述 |
---|---|
方法 | https |
请求URL | https://api.wisediag.com/v1/chat/completions |
调用方式 | 同步调用,等待模型执行完成并返回最终结果 |
字符编码 | UTF-8 |
请求格式 | JSON |
响应格式 | JSON或标准流事件 |
请求类型 | POST |
开发语言 | 任何能够发起HTTP请求的开发语言 |
请求参数
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
model | String | 是 | 要调用的模型代码 |
messages | List | 是 | 调用模型时,将当前对话信息列表作为提示输入给模型, 按照 {"role": "user", "content": "你好"} 的json 数组形式进行传参; 可能的role包括 "system"、"user"和"assistant"。 |
do_sample | Boolean | 否 | do_sample 为 true 时启用采样策略,do_sample 为 false 时采样策略 temperature、top_p 将不生效。默认值为 true。 |
stream | Boolean | 否 | 使用同步调用时,此参数应设置为false或省略。它表示模型在生成所有内容后一次性返回所有内容。默认值为false。若设置为true,模型将通过标准事件流分块返回生成的内容。 |
temperature | Float | 否 | 采样温度,控制输出的随机性,必须是0.0到1.0之间的正数,默认值为0.95 |
top_p | Float | 否 | 另一种温度采样方法,取值范围是0.0到1.0,默认值为0.7 |
max_tokens | Integer | 否 | 模型输出最大 tokens,最大输出为16384,默认值为2048 |
stop | List | 否 | 模型遇到指定的停止字符时将停止生成。格式:["stop_word1"、"stop_word2"、...] |
web_search | Boolean | 否 | 模型是否开启网络搜索,默认为false。 |
消息字段描述
System Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为system |
content | String | 是 | 消息内容 |
User Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为user |
content | String | 是 | 消息内容 |
Assistant Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为assistant |
content | String | 是 | 消息内容。 |
请求示例
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>", # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")
response = client.chat.completions.create(
model="zzkj-think", # # 填写需要调用的模型名称
messages = [
{
"role": "system",
"content": "作为一个全科医学专家,请一步步分析用户的问题,给出全面完整的结构化回复。"
},
{
"role": "user",
"content": "我感冒了怎么办?"
}
]
)
print(response.choices[0].message)
流式输出示例
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>", # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")
response = client.chat.completions.create(
model="zzkj-think", # # 填写需要调用的模型名称
messages = [
{
"role": "system",
"content": "作为一个全科医学专家,请一步步分析用户的问题,给出全面完整的结构化回复。"
},
{
"role": "user",
"content": "我感冒了怎么办?"
}
],
stream=True,
)
for chunk in response:
print(chunk.choices[0].delta)
WiseDiag-Z1Lite
模型编码:zzkj-lite
同步调用
接口请求
类型 | 描述 |
---|---|
方法 | https |
请求URL | https://api.wisediag.com/v1/chat/completions |
调用方式 | 同步调用,等待模型执行完成并返回最终结果 |
字符编码 | UTF-8 |
请求格式 | JSON |
响应格式 | JSON或标准流事件 |
请求类型 | POST |
开发语言 | 任何能够发起HTTP请求的开发语言 |
请求参数
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
model | String | 是 | 要调用的模型代码 |
messages | List | 是 | 调用模型时,将当前对话信息列表作为提示输入给模型, 按照 {"role": "user", "content": "你好"} 的json 数组形式进行传参; 可能的role包括 "system"、"user"和"assistant"。 |
do_sample | Boolean | 否 | do_sample 为 true 时启用采样策略,do_sample 为 false 时采样策略 temperature、top_p 将不生效。默认值为 true。 |
stream | Boolean | 否 | 使用同步调用时,此参数应设置为false或省略。它表示模型在生成所有内容后一次性返回所有内容。默认值为false。若设置为true,模型将通过标准事件流分块返回生成的内容。 |
temperature | Float | 否 | 采样温度,控制输出的随机性,必须是0.0到1.0之间的正数,默认值为0.95 |
top_p | Float | 否 | 另一种温度采样方法,取值范围是0.0到1.0,默认值为0.7 |
max_tokens | Integer | 否 | 模型输出最大 tokens,最大输出为16384,默认值为2048 |
stop | List | 否 | 模型遇到指定的停止字符时将停止生成。格式:["stop_word1"、"stop_word2"、...] |
web_search | Boolean | 否 | 模型是否开启网络搜索,默认为false。 |
消息字段描述
System Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为system |
content | String | 是 | 消息内容 |
User Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为user |
content | String | 是 | 消息内容 |
Assistant Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为assistant |
content | String | 是 | 消息内容。 |
请求示例
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>", # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")
response = client.chat.completions.create(
model="zzkj-lite", # # 填写需要调用的模型名称
messages = [
{
"role": "user",
"content": "我感冒了怎么办?"
}
]
)
print(response.choices[0].message)
流式输出示例
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>", # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")
response = client.chat.completions.create(
model="zzkj-lite", # # 填写需要调用的模型名称
messages = [
{
"role": "user",
"content": "我感冒了怎么办?"
}
],
stream=True,
)
for chunk in response:
print(chunk.choices[0].delta)
WiseDiag-Genetics
模型编码:zzkj-genetics
同步调用
接口请求
类型 | 描述 |
---|---|
方法 | https |
请求URL | https://api.wisediag.com/v1/chat/completions |
调用方式 | 同步调用,等待模型执行完成并返回最终结果 |
字符编码 | UTF-8 |
请求格式 | JSON |
响应格式 | JSON或标准流事件 |
请求类型 | POST |
开发语言 | 任何能够发起HTTP请求的开发语言 |
请求参数
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
model | String | 是 | 要调用的模型代码 |
messages | List | 是 | 调用模型时,将当前对话信息列表作为提示输入给模型, 按照 {"role": "user", "content": "你好"} 的json 数组形式进行传参; 可能的role包括 "system"、"user"和"assistant"。 |
do_sample | Boolean | 否 | do_sample 为 true 时启用采样策略,do_sample 为 false 时采样策略 temperature、top_p 将不生效。默认值为 true。 |
stream | Boolean | 否 | 使用同步调用时,此参数应设置为false或省略。它表示模型在生成所有内容后一次性返回所有内容。默认值为false。若设置为true,模型将通过标准事件流分块返回生成的内容。 |
temperature | Float | 否 | 采样温度,控制输出的随机性,必须是0.0到1.0之间的正数,默认值为0.95 |
top_p | Float | 否 | 另一种温度采样方法,取值范围是0.0到1.0,默认值为0.7 |
max_tokens | Integer | 否 | 模型输出最大 tokens,最大输出为16384,默认值为2048 |
stop | List | 否 | 模型遇到指定的停止字符时将停止生成。格式:["stop_word1"、"stop_word2"、...] |
web_search | Boolean | 否 | 模型是否开启网络搜索,默认为false。 |
消息字段描述
System Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为system |
content | String | 是 | 消息内容 |
User Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为user |
content | String | 是 | 消息内容 |
Assistant Message
参数名 | 类型 | 是否必填 | 参数描述 |
---|---|---|---|
role | String | 是 | 消息的角色信息,应为assistant |
content | String | 是 | 消息内容。 |
请求示例
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>", # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")
response = client.chat.completions.create(
model="zzkj-genetics", # # 填写需要调用的模型名称
messages = [
{
"role": "user",
"content": "请详细介绍什么是地中海贫血?"
}
]
)
print(response.choices[0].message)
流式输出示例
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>", # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")
response = client.chat.completions.create(
model="zzkj-genetics", # # 填写需要调用的模型名称
messages = [
{
"role": "user",
"content": "请详细介绍什么是地中海贫血?"
}
],
stream=True,
)
for chunk in response:
print(chunk.choices[0].delta)