WiseDiag-Z1

模型编码:zzkj

同步调用

接口请求

类型描述
方法https
请求URLhttps://api.wisediag.com/v1/chat/completions
调用方式同步调用,等待模型执行完成并返回最终结果
字符编码UTF-8
请求格式JSON
响应格式JSON或标准流事件
请求类型POST
开发语言任何能够发起HTTP请求的开发语言

请求参数

参数名类型是否必填参数描述
modelString要调用的模型代码
messagesList调用模型时,将当前对话信息列表作为提示输入给模型, 按照 {"role": "user", "content": "你好"} 的json 数组形式进行传参; 可能的role包括 "user"和"assistant"。
do_sampleBooleando_sample 为 true 时启用采样策略,do_sample 为 false 时采样策略 temperature、top_p 将不生效。默认值为 true。
streamBoolean使用同步调用时,此参数应设置为false或省略。它表示模型在生成所有内容后一次性返回所有内容。默认值为false。若设置为true,模型将通过标准事件流分块返回生成的内容。
temperatureFloat采样温度,控制输出的随机性,必须是0.0到1.0之间的正数,默认值为0.95
top_pFloat另一种温度采样方法,取值范围是0.0到1.0,默认值为0.7
max_tokensInteger模型输出最大 tokens,最大输出为16384,默认值为2048
stopList模型遇到指定的停止字符时将停止生成。格式:["stop_word1"、"stop_word2"、...]
web_searchBoolean模型是否开启网络搜索,默认为false。

消息字段描述

User Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为user
contentString消息内容

Assistant Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为assistant
contentString消息内容。

请求示例

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>",  # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")

response = client.chat.completions.create(
    model="zzkj",  # # 填写需要调用的模型名称
    messages = [
            {
                "role": "user",
                "content": "我感冒了怎么办?"
            }
        ]
)
print(response.choices[0].message)

响应示例

{
    "created": XXX,
    "id": "XXX",
    "model": "zzkj",
    "request_id": "XXX",
    "choices": [
        {
            "finish_reason": "stop",
            "index": 0,
            "message": {
                "content": "```thinking\n嗯......感冒是一种很常见的疾病,很多人都会遇到。首先,我需要了解感冒的基本症状和原因。感冒通常由病毒引起,比如鼻病毒,会导致流鼻涕、咳嗽、喉咙痛、发烧等症状。\n\n现在我再想想......感冒虽然不舒服,但大多数情况下是自限性的,也就是说,身体会自己好。不过,还是有很多方法可以缓解症状,让患者更舒服。\n\n让我看看是否需要提醒一些注意事项。比如多休息、多喝水,保持室内空气流通,避免传染给他人。饮食方面,吃些清淡易消化的食物,增加维生素C的摄入,可能有助于增强免疫力。\n\n这让我想起了......有些人可能会用药物来缓解症状,比如感冒冲剂、板蓝根、维C银翘片等。但是,使用药物前要仔细阅读说明书,或者咨询医生,避免滥用。\n\n不过话说回来......如果症状比较重,比如高烧不退、呼吸困难,或者有其他并发症,那可能需要去看医生,特别是对于免疫力低下的人群,如老人、小孩、孕妇等。\n\n最后,我觉得应该强调预防措施,比如勤洗手、戴口罩、避免接触病人等,这样可以减少感冒的机会。\n\n总的来说,感冒虽然常见,但也不能掉以轻心,要根据症状轻重采取适当的措施。\n```\n\n感冒是一种常见的上呼吸道感染,通常由病毒引起。以下是一些应对感冒的建议:\n\n### 1. **休息和补充水分**\n- **多休息**:让身体有足够的时间和能量来对抗感染。\n- **多喝水**:保持身体水分充足,有助于稀释黏液,使其更容易排出。\n\n### 2. **缓解症状**\n- **喉咙痛**:可以含润喉片或用温盐水漱口。\n- **流鼻涕和鼻塞**:使用生理盐水喷鼻或蒸汽吸入可以帮助清理鼻腔。\n- **咳嗽**:避免刺激性食物,保持室内空气湿润,必要时可以使用止咳药(遵医嘱)。\n- **发烧**:如果体温超过38℃,可以使用退烧药如对乙酰氨基酚(扑热息痛)或布洛芬(遵医嘱)。\n\n### 3. **饮食建议**\n- **清淡饮食**:选择易消化的食物,如清汤、粥、水果等。\n- **增加维生素C**:多食用富含维生素C的水果,如橙子、草莓等,有助于增强免疫力。\n\n### 4. **预防传播**\n- **勤洗手**:避免用手直接接触眼睛、鼻子和嘴。\n- **戴口罩**:如果症状较重,建议佩戴口罩,避免传染他人。\n- **保持室内通风**:定期开窗通风,保持空气流通。\n\n### 5. **何时就医**\n- 如果出现以下情况,应及时就医:\n  - 高烧不退(超过38.5℃且持续24小时以上)。\n  - 呼吸困难或胸痛。\n  - 症状持续超过10天且无好转迹象。\n  - 出现其他异常症状,如皮疹、剧烈头痛等。\n\n### 6. **药物使用**\n- **非处方药**:如感冒冲剂、板蓝根、维C银翘片等,可以缓解部分症状,但需仔细阅读说明书,避免过量。\n- **抗生素**:感冒通常由病毒引起,抗生素对病毒无效,除非有明确的细菌感染证据,否则不建议使用抗生素。\n\n### 7. **预防措施**\n- **增强免疫力**:保持良好的生活习惯,适量运动,保证充足睡眠。\n- **疫苗接种**:接种流感疫苗可以预防某些类型的感冒。\n\n如果症状较轻,通常不需要特别担心,按照上述建议进行自我护理即可。但如果症状严重或持续时间较长,建议及时就医,以排除其他可能的并发症。",
                "role": "assistant"
            }
        }
    ],
    "usage": {
        "completion_tokens": XX,
        "prompt_tokens": XXX,
        "total_tokens": XXX
    }
}

流式输出示例

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>",  # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")

response = client.chat.completions.create(
    model="zzkj",  # # 填写需要调用的模型名称
    messages = [
        {
            "role": "user",
            "content": "我感冒了怎么办?"
        }
    ],
    stream=True,
)
for chunk in response:
    print(chunk.choices[0].delta)

WiseDiag-Z1 Think

模型编码:zzkj-think

同步调用

接口请求

类型描述
方法https
请求URLhttps://api.wisediag.com/v1/chat/completions
调用方式同步调用,等待模型执行完成并返回最终结果
字符编码UTF-8
请求格式JSON
响应格式JSON或标准流事件
请求类型POST
开发语言任何能够发起HTTP请求的开发语言

请求参数

参数名类型是否必填参数描述
modelString要调用的模型代码
messagesList调用模型时,将当前对话信息列表作为提示输入给模型, 按照 {"role": "user", "content": "你好"} 的json 数组形式进行传参; 可能的role包括 "system"、"user"和"assistant"。
do_sampleBooleando_sample 为 true 时启用采样策略,do_sample 为 false 时采样策略 temperature、top_p 将不生效。默认值为 true。
streamBoolean使用同步调用时,此参数应设置为false或省略。它表示模型在生成所有内容后一次性返回所有内容。默认值为false。若设置为true,模型将通过标准事件流分块返回生成的内容。
temperatureFloat采样温度,控制输出的随机性,必须是0.0到1.0之间的正数,默认值为0.95
top_pFloat另一种温度采样方法,取值范围是0.0到1.0,默认值为0.7
max_tokensInteger模型输出最大 tokens,最大输出为16384,默认值为2048
stopList模型遇到指定的停止字符时将停止生成。格式:["stop_word1"、"stop_word2"、...]
web_searchBoolean模型是否开启网络搜索,默认为false。

消息字段描述

System Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为system
contentString消息内容

User Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为user
contentString消息内容

Assistant Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为assistant
contentString消息内容。

请求示例

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>",  # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")

response = client.chat.completions.create(
    model="zzkj-think",  # # 填写需要调用的模型名称
    messages = [
            {
                "role": "system",
                "content": "作为一个全科医学专家,请一步步分析用户的问题,给出全面完整的结构化回复。"
            },
            {
                "role": "user",
                "content": "我感冒了怎么办?"
            }
        ]
)
print(response.choices[0].message)

流式输出示例

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>",  # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")

response = client.chat.completions.create(
    model="zzkj-think",  # # 填写需要调用的模型名称
    messages = [
        {
            "role": "system",
            "content": "作为一个全科医学专家,请一步步分析用户的问题,给出全面完整的结构化回复。"
        },
        {
            "role": "user",
            "content": "我感冒了怎么办?"
        }
    ],
    stream=True,
)
for chunk in response:
    print(chunk.choices[0].delta)

WiseDiag-Z1Lite

模型编码:zzkj-lite

同步调用

接口请求

类型描述
方法https
请求URLhttps://api.wisediag.com/v1/chat/completions
调用方式同步调用,等待模型执行完成并返回最终结果
字符编码UTF-8
请求格式JSON
响应格式JSON或标准流事件
请求类型POST
开发语言任何能够发起HTTP请求的开发语言

请求参数

参数名类型是否必填参数描述
modelString要调用的模型代码
messagesList调用模型时,将当前对话信息列表作为提示输入给模型, 按照 {"role": "user", "content": "你好"} 的json 数组形式进行传参; 可能的role包括 "system"、"user"和"assistant"。
do_sampleBooleando_sample 为 true 时启用采样策略,do_sample 为 false 时采样策略 temperature、top_p 将不生效。默认值为 true。
streamBoolean使用同步调用时,此参数应设置为false或省略。它表示模型在生成所有内容后一次性返回所有内容。默认值为false。若设置为true,模型将通过标准事件流分块返回生成的内容。
temperatureFloat采样温度,控制输出的随机性,必须是0.0到1.0之间的正数,默认值为0.95
top_pFloat另一种温度采样方法,取值范围是0.0到1.0,默认值为0.7
max_tokensInteger模型输出最大 tokens,最大输出为16384,默认值为2048
stopList模型遇到指定的停止字符时将停止生成。格式:["stop_word1"、"stop_word2"、...]
web_searchBoolean模型是否开启网络搜索,默认为false。

消息字段描述

System Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为system
contentString消息内容

User Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为user
contentString消息内容

Assistant Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为assistant
contentString消息内容。

请求示例

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>",  # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")

response = client.chat.completions.create(
    model="zzkj-lite",  # # 填写需要调用的模型名称
    messages = [
            {
                "role": "user",
                "content": "我感冒了怎么办?"
            }
        ]
)
print(response.choices[0].message)

流式输出示例

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>",  # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")

response = client.chat.completions.create(
    model="zzkj-lite",  # # 填写需要调用的模型名称
    messages = [
        {
            "role": "user",
            "content": "我感冒了怎么办?"
        }
    ],
    stream=True,
)
for chunk in response:
    print(chunk.choices[0].delta)

WiseDiag-Genetics

模型编码:zzkj-genetics

同步调用

接口请求

类型描述
方法https
请求URLhttps://api.wisediag.com/v1/chat/completions
调用方式同步调用,等待模型执行完成并返回最终结果
字符编码UTF-8
请求格式JSON
响应格式JSON或标准流事件
请求类型POST
开发语言任何能够发起HTTP请求的开发语言

请求参数

参数名类型是否必填参数描述
modelString要调用的模型代码
messagesList调用模型时,将当前对话信息列表作为提示输入给模型, 按照 {"role": "user", "content": "你好"} 的json 数组形式进行传参; 可能的role包括 "system"、"user"和"assistant"。
do_sampleBooleando_sample 为 true 时启用采样策略,do_sample 为 false 时采样策略 temperature、top_p 将不生效。默认值为 true。
streamBoolean使用同步调用时,此参数应设置为false或省略。它表示模型在生成所有内容后一次性返回所有内容。默认值为false。若设置为true,模型将通过标准事件流分块返回生成的内容。
temperatureFloat采样温度,控制输出的随机性,必须是0.0到1.0之间的正数,默认值为0.95
top_pFloat另一种温度采样方法,取值范围是0.0到1.0,默认值为0.7
max_tokensInteger模型输出最大 tokens,最大输出为16384,默认值为2048
stopList模型遇到指定的停止字符时将停止生成。格式:["stop_word1"、"stop_word2"、...]
web_searchBoolean模型是否开启网络搜索,默认为false。

消息字段描述

System Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为system
contentString消息内容

User Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为user
contentString消息内容

Assistant Message

参数名类型是否必填参数描述
roleString消息的角色信息,应为assistant
contentString消息内容。

请求示例

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>",  # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")

response = client.chat.completions.create(
    model="zzkj-genetics",  # # 填写需要调用的模型名称
    messages = [
        {
            "role": "user",
            "content": "请详细介绍什么是地中海贫血?"
        }
    ]
)
print(response.choices[0].message)

流式输出示例

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI
client = OpenAI(api_key="<WiseDiag API Key>",  # 请填写您自己的APIKey
base_url="https://api.wisediag.com/v1")

response = client.chat.completions.create(
    model="zzkj-genetics",  # # 填写需要调用的模型名称
    messages = [
        {
            "role": "user",
            "content": "请详细介绍什么是地中海贫血?"
        }
    ],
    stream=True,
)
for chunk in response:
    print(chunk.choices[0].delta)

这个页面有帮助吗?