如何查看当前可用模型
先用模型列表确认当前 Key 能调用哪些模型。配置客户端前复制完整模型 ID,再填到 model 字段。
查看步骤
- 打开 登录页 登录 AveMujicaAPI 控制台。
- 打开 模型广场。
- 复制精确模型 ID,填入客户端配置。
- Codex 优先选择支持 OpenAI Responses API 的 GPT/Codex 模型。
- 图片生成使用
gpt-image-2,并确认客户端调用的是 Images API。
也可以直接请求模型接口:
bash
curl "https://api.avemujica.moe/v1/models" \
-H "Authorization: Bearer <YOUR_AVEMUJICA_API_KEY>"模型列表字段
| 字段 | 看什么 |
|---|---|
| 模型 ID | 用户配置 CLI/API 时填写的精确名称 |
| 协议 | OpenAI Responses、Chat Completions、Images |
| 可用客户端 | Codex、OpenAI-compatible 客户端、图片客户端 |
| 价格 | 输入、输出或图片计费方式;以控制台展示为准 |
| 上下文 | 最大上下文长度或特殊模式限制;以控制台展示为准 |
| 能力 | 是否支持工具调用、多模态、Responses、图片等能力 |
| 备注 | 已知限制、替代模型、使用范围;以控制台展示为准 |
/v1/models 的示例返回:
json
{
"object": "list",
"data": [
{
"id": "<MODEL_ID>",
"object": "model",
"owned_by": "<OWNER>"
}
]
}客户端读取 id 即可。其他字段用于确认来源、能力或展示信息,具体以接口返回为准。
复制模型 ID 时别带这些
- 不要把模型展示名、价格说明或备注复制进
model字段。 - 不要把其他平台的模型名填到 AveMujicaAPI 的 GPT 客户端里。
- Codex 使用支持 Responses 的 GPT/Codex 模型。
- 图片生成和图片编辑使用
gpt-image-2。 - 报
model not found时,先重新复制模型 ID,再检查 Base URL 和 API Key。
看完后确认
确认这些信息:Codex 使用哪个 GPT/Responses 模型、Base URL 写哪里、是否需要 /v1、图片模型是否为 gpt-image-2、费用如何计算。