Skip to content

如何查看当前可用模型

先用模型列表确认当前 Key 能调用哪些模型。配置客户端前复制完整模型 ID,再填到 model 字段。

查看步骤

  1. 打开 登录页 登录 AveMujicaAPI 控制台。
  2. 打开 模型广场
  3. 复制精确模型 ID,填入客户端配置。
  4. Codex 优先选择支持 OpenAI Responses API 的 GPT/Codex 模型。
  5. 图片生成使用 gpt-image-2,并确认客户端调用的是 Images API。

也可以直接请求模型接口:

bash
curl "https://api.avemujica.moe/v1/models" \
  -H "Authorization: Bearer <YOUR_AVEMUJICA_API_KEY>"

模型列表字段

字段看什么
模型 ID用户配置 CLI/API 时填写的精确名称
协议OpenAI Responses、Chat Completions、Images
可用客户端Codex、OpenAI-compatible 客户端、图片客户端
价格输入、输出或图片计费方式;以控制台展示为准
上下文最大上下文长度或特殊模式限制;以控制台展示为准
能力是否支持工具调用、多模态、Responses、图片等能力
备注已知限制、替代模型、使用范围;以控制台展示为准

/v1/models 的示例返回:

json
{
  "object": "list",
  "data": [
    {
      "id": "<MODEL_ID>",
      "object": "model",
      "owned_by": "<OWNER>"
    }
  ]
}

客户端读取 id 即可。其他字段用于确认来源、能力或展示信息,具体以接口返回为准。

复制模型 ID 时别带这些

  • 不要把模型展示名、价格说明或备注复制进 model 字段。
  • 不要把其他平台的模型名填到 AveMujicaAPI 的 GPT 客户端里。
  • Codex 使用支持 Responses 的 GPT/Codex 模型。
  • 图片生成和图片编辑使用 gpt-image-2
  • model not found 时,先重新复制模型 ID,再检查 Base URL 和 API Key。

看完后确认

确认这些信息:Codex 使用哪个 GPT/Responses 模型、Base URL 写哪里、是否需要 /v1、图片模型是否为 gpt-image-2、费用如何计算。

GPT and OpenAI Responses API for Codex and compatible tools.