模型与接口
接入 AveMujicaAPI 前先确认四项:API Key、Base URL、接口路径、模型 ID。模型 ID 不要手写猜测,先从控制台或 /v1/models 复制。
快速填写
| 项目 | 填写内容 |
|---|---|
| API Base URL | https://api.avemujica.moe/v1 |
| API Key | 控制台创建的 AveMujicaAPI API Key |
| 认证 Header | Authorization: Bearer <YOUR_AVEMUJICA_API_KEY> |
| Codex 协议 | OpenAI Responses API,wire_api = "responses" |
| OpenAI-compatible 协议 | Chat Completions、Models、Images 等 /v1/* 接口 |
| 图片模型 | gpt-image-2 |
| 文档域名 | https://docs.avemujica.moe |
接入方式
| 客户端 | 接口 | 填写内容 |
|---|---|---|
| Codex CLI / Codex App | Responses | base_url = "https://api.avemujica.moe/v1",wire_api = "responses" |
| OpenAI SDK / OpenAI-compatible 客户端 | Chat Completions 或 Responses | Base URL 填 https://api.avemujica.moe/v1,再填写 API Key 和模型 ID |
| Cline、OpenCode、AionUI、Cherry Studio | OpenAI-compatible | Provider 选择 OpenAI-compatible,Base URL 填 https://api.avemujica.moe/v1 |
| Claude Code 兼容工作流 | OpenAI-compatible 桥接层 | 在桥接工具里填 AveMujicaAPI Base URL、API Key、GPT/Codex 模型 ID |
| 图片生成或编辑 | Images API | Base URL 填 https://api.avemujica.moe/v1,模型填 gpt-image-2 |
常用接口
| 接口 | 方法 | 路径 | 用来做什么 |
|---|---|---|---|
| 查看模型 | GET | /v1/models | 列出当前 Key 可调用的模型 |
| Responses | POST | /v1/responses | Codex 和支持 Responses 的程序使用 |
| Chat Completions | POST | /v1/chat/completions | OpenAI-compatible 聊天、代码、工具客户端 |
| 图片生成 | POST | /v1/images/generations | 使用 gpt-image-2 生成图片 |
| 图片编辑 | POST | /v1/images/edits | 客户端支持编辑接口时使用 gpt-image-2 |
查看可用模型
页面路径:
- 打开 模型广场。
- 登录后查看当前账号可用模型。
- 找到要使用的 GPT/Codex 文本模型,复制完整模型 ID。
- 图片生成或编辑使用
gpt-image-2。
接口路径:
bash
curl "https://api.avemujica.moe/v1/models" \
-H "Authorization: Bearer <YOUR_AVEMUJICA_API_KEY>"JavaScript:
js
const response = await fetch("https://api.avemujica.moe/v1/models", {
headers: {
Authorization: "Bearer <YOUR_AVEMUJICA_API_KEY>",
},
});
const data = await response.json();
for (const model of data.data ?? []) {
console.log(model.id);
}Python:
python
from openai import OpenAI
client = OpenAI(
api_key="<YOUR_AVEMUJICA_API_KEY>",
base_url="https://api.avemujica.moe/v1",
)
for model in client.models.list().data:
print(model.id)示例返回结构如下,字段以接口实际返回为准:
json
{
"object": "list",
"data": [
{
"id": "<MODEL_ID>",
"object": "model",
"owned_by": "<OWNER>"
}
]
}返回字段:
| 字段 | 怎么用 |
|---|---|
id | 客户端配置里要填写的模型 ID |
object | 对象类型,例如 list 或 model |
owned_by | 模型来源或归属标记;以接口返回为准 |
| 其他字段 | 上下文、计费、能力标记等信息以控制台和接口返回为准 |
Responses 请求
Codex 使用 Responses。自己写程序调用 Responses 时,可以先用最小请求验证 Key、Base URL 和模型 ID:
bash
curl "https://api.avemujica.moe/v1/responses" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <YOUR_AVEMUJICA_API_KEY>" \
-d '{
"model": "<MODEL_ID_FROM_CONSOLE>",
"input": "用一句话回复:AveMujicaAPI Responses 已连接"
}'常用参数:
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 控制台或 /v1/models 复制的 GPT/Codex 模型 ID |
input | string / array | 是 | 用户输入;复杂结构按客户端或 Responses SDK 支持情况填写 |
temperature | number | 否 | 采样温度;没有调参需求时不填 |
max_output_tokens | integer | 否 | 最大输出 token 数 |
stream | boolean | 否 | 是否使用流式输出 |
只用 Codex CLI 或 Codex App 时,不需要手写这个请求。按 Codex 配置 写好 .codex/config.toml 和 .codex/auth.json 即可。
Chat Completions 请求
OpenAI-compatible 客户端可以用 Chat Completions 做最小验证:
bash
curl "https://api.avemujica.moe/v1/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <YOUR_AVEMUJICA_API_KEY>" \
-d '{
"model": "<MODEL_ID_FROM_CONSOLE>",
"messages": [
{"role": "user", "content": "用一句话回复:AveMujicaAPI 已连接"}
]
}'JavaScript SDK:
js
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "<YOUR_AVEMUJICA_API_KEY>",
baseURL: "https://api.avemujica.moe/v1",
});
const response = await client.chat.completions.create({
model: "<MODEL_ID_FROM_CONSOLE>",
messages: [
{ role: "user", content: "用一句话回复:AveMujicaAPI 已连接" },
],
});
console.log(response.choices[0]?.message?.content);Python SDK:
python
from openai import OpenAI
client = OpenAI(
api_key="<YOUR_AVEMUJICA_API_KEY>",
base_url="https://api.avemujica.moe/v1",
)
response = client.chat.completions.create(
model="<MODEL_ID_FROM_CONSOLE>",
messages=[
{"role": "user", "content": "用一句话回复:AveMujicaAPI 已连接"},
],
)
print(response.choices[0].message.content)常用参数:
| 参数 | 类型 | 必填 | 默认值 | 说明 |
|---|---|---|---|---|
model | string | 是 | - | 控制台或 /v1/models 复制的文本模型 ID |
messages | array | 是 | - | 对话消息列表 |
temperature | number | 否 | 模型默认 | 采样温度;常见范围 0 到 2 |
top_p | number | 否 | 模型默认 | 核采样参数 |
max_tokens | integer | 否 | 模型默认 | 最大输出 token 数 |
stream | boolean | 否 | false | 是否流式输出 |
tools | array | 否 | - | 工具/函数定义;客户端和模型支持时使用 |
tool_choice | string / object | 否 | - | 工具调用选择策略 |
messages 常见角色:
| role | 放什么 |
|---|---|
system | 设定助手行为 |
user | 用户输入 |
assistant | 多轮对话里的历史回复 |
tool | 工具调用返回内容;仅在工具调用流程里使用 |
非流式返回可以从 choices[0].message.content 读取文本:
json
{
"id": "chatcmpl-example",
"object": "chat.completion",
"model": "<MODEL_ID_FROM_CONSOLE>",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "AveMujicaAPI 已连接。"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 12,
"completion_tokens": 8,
"total_tokens": 20
}
}流式请求把 stream 设为 true。客户端会收到 Server-Sent Events,直到 data: [DONE]:
text
data: {"object":"chat.completion.chunk","choices":[{"delta":{"content":"Ave"}}]}
data: {"object":"chat.completion.chunk","choices":[{"delta":{"content":"MujicaAPI"}}]}
data: [DONE]图片请求
图片生成和编辑使用 gpt-image-2。先确认客户端支持 Images API,再填同一个 Base URL。
bash
curl "https://api.avemujica.moe/v1/images/generations" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <YOUR_AVEMUJICA_API_KEY>" \
-d '{
"model": "gpt-image-2",
"prompt": "一张舞台上的哥特乐队概念图",
"size": "1024x1024",
"n": 1
}'常用参数:
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 固定填 gpt-image-2 |
prompt | string | 是 | 图片描述 |
size | string | 否 | 客户端支持的尺寸,例如 1024x1024 |
n | integer | 否 | 生成张数 |
返回包含 data 数组。客户端按自身配置读取 url 或 b64_json,调试时直接查看接口返回字段。
选模型
| 场景 | 选法 |
|---|---|
| Codex 编程 | 选择控制台展示的 GPT/Codex 模型,并确认支持 OpenAI Responses API |
| 普通聊天或工具客户端 | 选择控制台展示的 GPT 文本模型 |
| 图片生成或编辑 | 使用 gpt-image-2 |
| 控制成本 | 先看控制台价格、上下文和能力,再切换模型 |
报 model not found | 回到控制台复制模型 ID,不要使用其他平台的模型名 |
客户端字段速查
| 客户端字段 | 填写内容 |
|---|---|
| Provider / 服务商 | AveMujicaAPI 或 avemujicaapi |
| API Key | <YOUR_AVEMUJICA_API_KEY> |
| Base URL | https://api.avemujica.moe/v1 |
| Model / 模型 | 控制台模型 ID;图片填 gpt-image-2 |
| API 类型 | Codex 选 Responses;其它 OpenAI 风格客户端选 OpenAI-compatible |
| Headers | Authorization: Bearer <YOUR_AVEMUJICA_API_KEY> |
| Test / 测试端点 | 优先用 /v1/models,再发最小文本请求 |
配置写错时的表现
遇到报错时先检查这些项:
- 401:API Key 缺失、复制错误、过期或被环境变量覆盖。
- 403:余额或订阅不可用、账号权限不足。
- 429:请求过快、并发过高或触发限流。
- 404 / model not found:模型 ID 写错,或工具仍在请求其他平台的模型名。
- 400:请求体字段不被当前接口支持,例如把 Images API 参数发给 Chat Completions。
- 客户端连接失败:Base URL 写错、缺少
/v1、代理或证书问题。 - Codex 无响应或协议错误:检查
wire_api = "responses"是否写在model_providers.avemujicaapi下。 - SDK 报
base_url或baseURL无效:确认 SDK 字段名大小写,Python 是base_url,JavaScript SDK 是baseURL。
上线或调试前检查
- Base URL 是否完整包含
/v1。 - API Key 是否来自当前 AveMujicaAPI 账号。
- 模型 ID 是否从控制台或
/v1/models复制。 - Codex 是否使用 Responses。
- 图片请求是否走 Images API。
- 环境变量
OPENAI_API_KEY、OPENAI_BASE_URL是否覆盖客户端配置。 - 生产服务是否有超时、重试、日志脱敏和 Key 轮换方案。
下一步:
- 配置 Codex:阅读 Codex 配置。
- 创建或管理 API Key:阅读 令牌使用说明。
- 查看当前可用模型字段:阅读 如何查看当前可用模型。
- 配置图片模型:阅读 图片模型通用配置。