开发者文档 v1.0
一站式 AI 大模型 API 网关
智脑API平台为开发者提供统一的 OpenAI 兼容接口,聚合 GPT、Claude、o 系列等主流大模型。 只需更换 Base URL,即可在现有项目中无缝切换和使用多种顶级 AI 模型,无需分别对接不同厂商。
多模型聚合
一个 API Key 访问 GPT-5.4、Claude Opus 4、o3-pro 等 20+ 顶级模型,无需分别注册多家服务。
高可用架构
多节点自动负载均衡与故障转移,保障 API 全天候稳定运行,SLA 可达 99.9%。
灵活计费
按量付费与订阅套餐并行,充值比例 ¥1 = $1 余额,最低充值 10 元,支持 OpenAI 和 Claude 专属套餐。
OpenAI 兼容
完全兼容 OpenAI SDK 接口规范,现有代码只需修改 base_url 即可接入,迁移成本为零。
快速开始
只需三步,即可完成接入并发起第一次 AI 对话请求。
注册账号并登录
访问 https://9m8m.com,完成账号注册。注册后即可进入控制台。
获取 API Key
在控制台的「令牌管理」页面,点击「创建新令牌」。系统将生成一个以 sk- 开头的密钥,请妥善保管——该密钥创建后仅显示一次。
API Key 是您账户的访问凭证,请勿在客户端代码、公开仓库或聊天中泄露。如不慎泄露,请立即在控制台删除并重新生成。
发起第一次请求
使用以下 cURL 命令测试连通性,将 sk-YOUR_API_KEY 替换为您的实际密钥:
curl https://9m8m.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-YOUR_API_KEY" \
-d '{
"model": "gpt-4o",
"messages": [
{"role": "user", "content": "你好,请介绍一下你自己。"}
]
}'
如果返回了包含 choices 字段的 JSON 响应,说明接入成功。
API 基础信息
接入地址
| 配置项 | 值 |
|---|---|
| Base URL | https://9m8m.com/v1 |
| Chat Completions | https://9m8m.com/v1/chat/completions |
| 协议 | HTTPS(必须) |
| 请求格式 | JSON(Content-Type: application/json) |
身份认证
所有 API 请求均需在 HTTP 请求头中携带 Bearer Token 进行身份验证:
Authorization: Bearer sk-YOUR_API_KEY
本平台完全兼容 OpenAI API 规范。如果您的项目已经使用了 OpenAI 官方 SDK,只需将 base_url 修改为 https://9m8m.com/v1,并将 api_key 替换为本平台的密钥即可。
支持的模型
平台当前支持以下模型,全部通过统一的 /v1/chat/completions 端点调用。
Codex / OpenAI 系列
| 模型标识 | 类型 | 说明 | 适用场景 |
|---|---|---|---|
gpt-5.4 |
GPT | 最新旗舰模型,综合能力最强 | 复杂推理、长文档分析、专业写作 |
gpt-5.4-mini |
GPT | 5.4 系列轻量版,性价比高 | 日常对话、内容生成、翻译 |
gpt-5.4-nano |
GPT | 5.4 系列极速版,响应最快 | 高并发场景、简单问答、分类 |
gpt-5.3-codex |
GPT | 代码专精模型 | 代码生成、Debug、代码审查 |
gpt-5.2 |
GPT | 上一代旗舰,能力均衡 | 通用对话、文案创作 |
gpt-5.1 |
GPT | 稳定可靠,长期验证 | 生产环境稳定调用 |
gpt-5 |
GPT | GPT-5 基础版 | 通用场景 |
gpt-4o |
GPT | 多模态旗舰,支持图文 | 图片理解、多模态分析 |
gpt-4o-mini |
GPT | 4o 轻量版,成本更低 | 轻量多模态、日常对话 |
gpt-4-turbo |
GPT | GPT-4 加速版 | 兼容旧项目、稳定生产 |
o4-mini |
o系列 | o4 系列轻量推理模型 | 快速推理、数学计算 |
o3 |
o系列 | 高级推理模型 | 数学证明、逻辑推理、科研 |
o3-mini |
o系列 | o3 轻量版 | 中等推理任务、编程辅助 |
o3-pro |
o系列 | o3 专业版,推理天花板 | 竞赛级难题、深度研究 |
o1 |
o系列 | 初代推理模型 | 逻辑推理、策略规划 |
o1-mini |
o系列 | o1 轻量版 | 轻量推理场景 |
o1-pro |
o系列 | o1 增强版 | 复杂多步推理 |
Claude 系列
| 模型标识 | 类型 | 说明 | 适用场景 |
|---|---|---|---|
claude-opus-4-7 |
Claude | Anthropic 最新旗舰,最强推理能力 | 复杂分析、深度推理、专业创作 |
claude-opus-4-6 |
Claude | Opus 4.6,超长上下文 | 长文处理、研究辅助 |
claude-opus-4-5-20251101 |
Claude | Opus 4.5,综合性能卓越 | 深度对话、研究辅助 |
claude-sonnet-4-6 |
Claude | Sonnet 最新版,能力与速度兼顾 | 日常开发、代码辅助、文案 |
claude-sonnet-4-5-20250929 |
Claude | Sonnet 4.5,性价比优秀 | 批量处理、内容生成 |
claude-haiku-4-5-20251001 |
Claude | Haiku 极速版,响应飞快 | 高并发对话、快速分类、摘要 |
追求最佳效果选 gpt-5.4 或 claude-opus-4-7;注重性价比选 gpt-5.4-mini 或 claude-sonnet-4-6;需要深度推理选 o3-pro;高并发低成本选 gpt-5.4-nano 或 claude-haiku-4-5-20251001。
请求格式
平台采用与 OpenAI 完全兼容的请求格式。核心端点为 POST /v1/chat/completions。
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 模型标识,如 gpt-5.4、claude-opus-4-6 |
messages | array | 是 | 对话消息数组,每条包含 role 和 content |
temperature | number | 否 | 采样温度,范围 0-2,默认 1。数值越低输出越确定 |
max_tokens | integer | 否 | 最大输出 token 数 |
stream | boolean | 否 | 是否启用流式输出,默认 false |
top_p | number | 否 | 核采样概率,范围 0-1 |
frequency_penalty | number | 否 | 频率惩罚,范围 -2 到 2 |
presence_penalty | number | 否 | 存在惩罚,范围 -2 到 2 |
消息角色
| 角色 | 说明 |
|---|---|
system | 系统指令,设定 AI 的行为方式和背景。放在消息数组的第一条。 |
user | 用户发送的消息内容。 |
assistant | AI 助手的回复,用于提供对话历史上下文。 |
完整请求示例
{
"model": "gpt-5.4",
"messages": [
{
"role": "system",
"content": "你是一位专业的技术文档撰写助手。"
},
{
"role": "user",
"content": "请帮我写一段 Python 快速排序代码。"
}
],
"temperature": 0.7,
"max_tokens": 2048,
"stream": false
}
响应格式
标准响应(非流式)
{
"id": "chatcmpl-abc123def456",
"object": "chat.completion",
"created": 1781654400,
"model": "gpt-5.4",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "以下是 Python 快速排序的实现..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 42,
"completion_tokens": 256,
"total_tokens": 298
}
}
流式响应(SSE)
当请求中设置 "stream": true 时,响应将以 Server-Sent Events 格式逐块返回:
data: {"id":"chatcmpl-abc123","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"role":"assistant"},"finish_reason":null}]}
data: {"id":"chatcmpl-abc123","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":"以下"},"finish_reason":null}]}
data: {"id":"chatcmpl-abc123","object":"chat.completion.chunk","choices":[{"index":0,"delta":{"content":"是"},"finish_reason":null}]}
data: [DONE]
每个 data: 行包含一个 JSON 对象,delta.content 字段为本次增量输出的文本片段。当收到 data: [DONE] 时,表示生成结束。
错误码说明
当请求发生错误时,API 将返回对应的 HTTP 状态码和 JSON 格式的错误信息:
{
"error": {
"message": "具体的错误描述信息",
"type": "error_type",
"code": "error_code"
}
}
| 状态码 | 含义 | 说明与处理建议 |
|---|---|---|
| 400 | 请求参数错误 | 请求体格式不正确或缺少必需参数。请检查 JSON 格式、model 字段是否正确、messages 数组是否为空。 |
| 401 | 身份认证失败 | API Key 无效、已过期或未提供。请检查 Authorization 请求头格式是否为 Bearer sk-xxx。 |
| 403 | 权限不足 | 当前 API Key 无权访问所请求的模型或资源。请确认账户余额充足且未被禁用。 |
| 429 | 请求频率超限 | 短时间内请求过于频繁。建议实现指数退避重试策略,或适当降低并发数。通常等待数秒后重试即可。 |
| 500 | 服务器内部错误 | 服务端出现未预期的异常。此类错误通常为暂时性故障,建议稍后重试。如持续出现,请联系技术支持。 |
| 503 | 服务暂时不可用 | 模型服务暂时过载或维护中。系统将自动进行负载均衡切换,建议等待片刻后重试。 |
对于 429、500、503 错误,建议实现自动重试机制:首次等待 1 秒,之后每次翻倍(1s → 2s → 4s),最多重试 3 次。大部分暂时性故障可在数秒内自动恢复。
计费说明
充值比例
平台采用美元余额计费制度,人民币充值采用 1:1 比例:
¥1 人民币 = $1 美元余额(1:1),最低充值 10 元。充值后余额以美元显示,API 调用按照模型的 token 消耗从余额中扣除。
分组倍率说明
不同分组享受不同的费率倍率,倍率越低越划算:
| 分组 | 倍率 | 含义 | 适用场景 |
|---|---|---|---|
| 默认分组 | 0.1x | $1 余额 = $0.1 官方 API 费用 | OpenAI 套餐用户 |
| plus 分组 | 0.15x | $1 余额 = $0.15 官方 API 费用 | Plus 用户 |
| claude-max 分组 | 0.5x | $1 余额 = $0.5 官方 API 费用 | 直充使用 Claude 模型 |
Codex / OpenAI 模型计费
GPT 系列和 o 系列模型适用 0.1 倍费率(默认分组),即 $1 余额对应 $0.1 的官方 API 使用量。按照官方定价标准扣费,计费单位为 token。
例如:您充值 ¥10 获得 $10 余额,在 0.1x 倍率下相当于 $1 的官方 API 使用量。
Claude 模型计费
Claude 系列模型在直充模式下适用 0.5 倍费率(claude-max 分组),即 $1 余额对应 $0.5 的官方 API 使用量。订阅 Claude 套餐时适用 1x 倍率,套餐内额度按 1:1 扣减。
Claude 系列模型的运营成本较高,因此费率高于 OpenAI 模型。通过本平台使用 Claude 的综合成本仍低于直接购买 Anthropic 官方 API(需要海外支付方式)。推荐购买 Claude 专属套餐以获得更高的性价比。
订阅套餐
平台提供 OpenAI 和 Claude 两大系列的专属订阅套餐,适合有稳定用量的用户。套餐内额度在有效期内可用,每日设有用量上限以保障服务质量。
OpenAI 套餐(1x 倍率)
Claude 套餐(1x 倍率)
套餐对比
以下是各套餐的详细对比:
| 套餐 | 价格(¥) | 有效期 | 总额度($) | 日限额($) | 倍率 |
|---|---|---|---|---|---|
| OpenAI 体验周卡 | 58 | 7 天 | 700 | 100 | 1x |
| OpenAI 标准月卡 | 198 | 30 天 | 3000 | 100 | 1x |
| OpenAI 高级月卡 | 398 | 30 天 | 6000 | 200 | 1x |
| Claude 体验周卡 | 158 | 7 天 | 350 | 50 | 1x |
| Claude 标准月卡 | 1298 | 30 天 | 3000 | 100 | 1x |
| Claude 高级月卡 | 2598 | 30 天 | 6000 | 200 | 1x |
直充 vs 套餐,哪个更划算?
直充采用 ¥1 = $1 余额(1:1 比例),灵活按量付费。套餐则提供更大的额度包和专属倍率,适合有持续用量的用户。
| 方式 | 充值比例 | 适用倍率 | 优势 |
|---|---|---|---|
| 直接充值(OpenAI) | ¥1 = $1 | 0.1x(默认分组) | 灵活按量,无有效期限制 |
| 直接充值(Claude) | ¥1 = $1 | 0.5x(claude-max 分组) | 灵活按量,无有效期限制 |
| OpenAI 套餐 | 套餐定价 | 1x | 额度更多、单价更低 |
| Claude 套餐 | 套餐定价 | 1x | 专属额度、性价比更高 |
如果主要使用 OpenAI 模型,推荐 OpenAI 标准月卡(¥198),性价比最优。如果是 Claude Code 重度用户,推荐 Claude 标准月卡(¥1298)。偶尔使用或用量不确定的用户,直接充值按量付费更灵活。
代码示例
Python(使用 OpenAI SDK)
首先安装 OpenAI Python SDK:
pip install openai
from openai import OpenAI
client = OpenAI(
api_key="sk-YOUR_API_KEY",
base_url="https://9m8m.com/v1"
)
response = client.chat.completions.create(
model="gpt-5.4",
messages=[
{"role": "system", "content": "你是一个有帮助的AI助手。"},
{"role": "user", "content": "用Python实现一个二分查找算法。"}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)
Node.js(使用 OpenAI SDK)
首先安装 OpenAI Node.js SDK:
npm install openai
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'sk-YOUR_API_KEY',
baseURL: 'https://9m8m.com/v1',
});
async function main() {
const completion = await client.chat.completions.create({
model: 'gpt-5.4',
messages: [
{ role: 'system', content: '你是一个有帮助的AI助手。' },
{ role: 'user', content: '用JavaScript实现一个防抖函数。' }
],
temperature: 0.7,
max_tokens: 1024,
});
console.log(completion.choices[0].message.content);
}
main();
cURL
curl -X POST https://9m8m.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-YOUR_API_KEY" \
-d '{
"model": "gpt-5.4-mini",
"messages": [
{"role": "system", "content": "你是一个有帮助的AI助手。"},
{"role": "user", "content": "什么是量子计算?请用通俗的语言解释。"}
],
"temperature": 0.7,
"max_tokens": 512
}'
流式输出示例
Python 流式输出
from openai import OpenAI
client = OpenAI(
api_key="sk-YOUR_API_KEY",
base_url="https://9m8m.com/v1"
)
stream = client.chat.completions.create(
model="gpt-5.4",
messages=[
{"role": "user", "content": "写一首关于春天的七言绝句。"}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="", flush=True)
print() # 换行
Node.js 流式输出
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'sk-YOUR_API_KEY',
baseURL: 'https://9m8m.com/v1',
});
async function main() {
const stream = await client.chat.completions.create({
model: 'gpt-5.4',
messages: [
{ role: 'user', content: '写一首关于春天的七言绝句。' }
],
stream: true,
});
for await (const chunk of stream) {
const content = chunk.choices[0]?.delta?.content;
if (content) {
process.stdout.write(content);
}
}
console.log();
}
main();
cURL 流式输出
curl -X POST https://9m8m.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-YOUR_API_KEY" \
-N \
-d '{
"model": "gpt-5.4",
"messages": [
{"role": "user", "content": "你好"}
],
"stream": true
}'
Claude Code 接入指南
Claude Code 是 Anthropic 推出的命令行 AI 编程助手。您可以通过本平台的 API 网关来使用 Claude Code,享受更优惠的价格和更稳定的国内访问体验。
配置方法
在您的终端环境中设置以下环境变量:
Linux / macOS
# 将以下内容添加到 ~/.bashrc 或 ~/.zshrc
export ANTHROPIC_BASE_URL="https://9m8m.com"
export ANTHROPIC_API_KEY="sk-YOUR_API_KEY"
# 使配置生效
source ~/.bashrc # 或 source ~/.zshrc
Windows (PowerShell)
# 临时设置(当前会话有效)
$env:ANTHROPIC_BASE_URL = "https://9m8m.com"
$env:ANTHROPIC_API_KEY = "sk-YOUR_API_KEY"
# 永久设置(写入用户环境变量)
[Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "https://9m8m.com", "User")
[Environment]::SetEnvironmentVariable("ANTHROPIC_API_KEY", "sk-YOUR_API_KEY", "User")
Windows (CMD)
:: 永久设置
setx ANTHROPIC_BASE_URL "https://9m8m.com"
setx ANTHROPIC_API_KEY "sk-YOUR_API_KEY"
验证配置
配置完成后,直接启动 Claude Code 即可:
# 启动 Claude Code
claude
# 或在项目目录中启动
cd your-project && claude
如果一切配置正确,Claude Code 将通过本平台的网关与 Claude 模型通信。您可以像平常一样使用所有 Claude Code 功能,包括代码编辑、项目分析、命令执行等。
Claude Code 调用的是 Claude 系列模型,直充适用 0.5x 倍率(claude-max 分组)。建议在控制台关注余额消耗情况。如果是重度 Claude Code 用户,推荐购买 Claude 标准月卡或以上套餐(1x 倍率,性价比更高)。
请确保 ANTHROPIC_BASE_URL 设置为 https://9m8m.com(不含 /v1 后缀),Claude Code 会自动拼接路径。ANTHROPIC_API_KEY 使用您在本平台生成的 API Key。
VS Code 插件接入
VS Code 是最流行的代码编辑器之一,借助 AI 插件可以极大提升编码效率。以下介绍两款主流 AI 编程插件的接入方法。
A) Continue 插件(推荐)
Continue 是一款开源的 AI 编程助手插件,支持代码补全、对话、重构等丰富功能,且完美兼容 OpenAI API 格式。
安装 Continue 插件
打开 VS Code,点击左侧扩展图标(或按 Ctrl+Shift+X),在搜索框中输入 Continue,找到由 Continue.dev 发布的插件并点击「安装」。
打开配置文件
安装完成后,点击左侧边栏的 Continue 图标打开侧边栏,然后点击底部的 齿轮图标(设置),即可打开 config.json 配置文件。
填写模型配置
在 config.json 中添加以下配置,将 sk-YOUR_API_KEY 替换为您的实际密钥:
{
"models": [
{
"title": "GPT-5.4",
"provider": "openai",
"model": "gpt-5.4",
"apiBase": "https://9m8m.com/v1",
"apiKey": "sk-YOUR_API_KEY"
},
{
"title": "Claude Opus 4.7",
"provider": "openai",
"model": "claude-opus-4-7",
"apiBase": "https://9m8m.com/v1",
"apiKey": "sk-YOUR_API_KEY"
}
]
}
您可以在 models 数组中添加多个模型配置,在使用时随时切换。provider 统一填 openai 即可,本平台兼容 OpenAI API 格式。
开始使用
保存配置后,在 Continue 侧边栏的模型下拉列表中选择您配置的模型,即可在编辑器中直接与 AI 对话、生成代码、解释代码或进行重构。按 Ctrl+L 可快速打开 Continue 对话框。
B) Cline 插件
Cline(原 Claude Dev)是一款强大的 AI 编程助手,支持自主编辑文件、执行命令等高级功能。
安装 Cline 插件
在 VS Code 扩展商店搜索 Cline,找到插件并安装。安装后左侧边栏会出现 Cline 图标。
配置 API 提供商
点击 Cline 侧边栏图标,在顶部设置区域将 API Provider 切换为 OpenAI Compatible。
开始使用
配置完成后,在 Cline 对话框中输入您的需求即可。Cline 可以自动分析项目结构、编辑代码文件、运行终端命令,是非常强大的 AI 编程搭档。
两款插件各有优势:Continue 适合日常代码补全和对话辅助,Cline 更擅长自主完成复杂编码任务。您可以同时安装,根据场景灵活使用。
JetBrains 插件接入
如果您使用 IntelliJ IDEA、PyCharm、WebStorm 等 JetBrains 系列 IDE,可以通过 CodeGPT 插件接入本平台。
CodeGPT 插件配置
安装 CodeGPT 插件
打开 JetBrains IDE,进入 Settings(Ctrl+Alt+S)→ Plugins → Marketplace,搜索 CodeGPT 并安装。安装后需重启 IDE。
配置自定义 API
重启后进入 Settings → Tools → CodeGPT,在服务提供商中选择 Custom OpenAI,然后填写以下信息:
模型名称可以填写本平台支持的任意模型,如 gpt-5.4、gpt-4o、claude-sonnet-4-6 等。具体可用模型请参阅上方「支持的模型」章节。
开始使用
配置完成后,您可以在编辑器中右键选择 CodeGPT 功能,或使用快捷键打开 AI 对话窗口。支持代码生成、代码解释、Bug 修复等常用功能。
Cherry Studio 接入
Cherry Studio 是一款精美的跨平台 AI 桌面客户端,支持多模型对话、知识库管理、Prompt 模板等丰富功能,界面友好,非常适合日常 AI 对话使用。
下载安装
前往 Cherry Studio 官网 下载适合您操作系统的安装包(支持 Windows、macOS、Linux),完成安装并打开应用。
添加自定义服务商
打开 Cherry Studio,进入 设置 → 模型服务商,点击 添加自定义服务商,填写以下信息:
添加模型
在刚添加的服务商下方,点击 添加模型,手动输入模型名称(如 gpt-5.4、claude-opus-4-7),或点击「获取模型列表」自动拉取可用模型。
开始对话
返回主界面,在顶部的模型选择器中切换到您刚添加的模型,即可开始对话。Cherry Studio 支持多轮对话、Markdown 渲染、代码高亮等功能。
Cherry Studio 支持同时配置多个服务商和模型,您可以在对话中随时切换模型进行对比。还支持设置系统提示词、调整温度等参数。
ChatBox 接入
ChatBox 是一款优秀的跨平台 AI 桌面客户端,支持 Windows、macOS、Linux 以及 iOS 和 Android 移动端,界面简洁易用。
下载安装
前往 ChatBox 官网 下载对应平台的客户端,安装后打开应用。
配置 AI 提供商
打开 ChatBox,进入 设置 → AI 模型提供商,选择 OpenAI API Compatible,然后填写以下信息:
ChatBox 的 API Host 填写 https://9m8m.com(不带 /v1 后缀),ChatBox 会自动拼接路径。
开始使用
配置完成后,返回主界面即可开始与 AI 对话。ChatBox 支持多轮对话、Markdown 渲染、代码高亮,还可以创建多个对话窗口同时进行不同话题的讨论。
LobeChat 接入
LobeChat 是一款开源的高颜值 AI 聊天界面,支持 Web 部署和本地运行,功能丰富,包括插件系统、知识库、多模态等。
访问 LobeChat
您可以直接访问 LobeChat 在线版,也可以通过 Docker 自行部署。本地部署方式请参考 LobeChat GitHub 仓库。
配置语言模型
进入 LobeChat 后,点击左下角 设置 → 语言模型 → OpenAI,进行以下配置:
选择模型并对话
保存设置后,在对话界面顶部的模型选择器中选择您想使用的模型(如 gpt-5.4、gpt-4o 等),即可开始对话。LobeChat 支持丰富的 AI 助手角色、插件扩展和文件上传功能。
如果在模型列表中没有看到您需要的模型,可以在设置中开启「自定义模型名称」功能,手动输入模型 ID(如 claude-opus-4-7)即可使用。
更多客户端
除了以上介绍的工具,还有许多优秀的 AI 客户端支持自定义 OpenAI API 地址,均可无缝接入本平台。
OpenCat
iOS / macOS 原生 AI 客户端,界面精美,支持自定义 API 地址和多模型切换。
BotGPT
iOS 平台的 AI 聊天客户端,支持 OpenAI 兼容 API,操作简单直观。
NextChat
开源 Web 聊天应用,支持一键部署到 Vercel,自带 Prompt 模板和对话管理。
LibreChat
功能强大的开源自托管聊天平台,支持多 AI 服务商、插件、文件上传等高级功能。
只要支持自定义 OpenAI API 地址的工具,都可以接入本平台。通用配置如下:
如果您在接入过程中遇到任何问题,欢迎通过下方「联系我们」获取技术支持。
兑换码使用教程
如果您获得了兑换码,可以按照以下步骤兑换余额或并发数到您的账户。
登录平台
打开浏览器访问 https://9m8m.com,使用您的账号登录平台。
进入兑换页面
登录后,点击左侧菜单中的「兑换码」选项,或直接访问兑换页面。
粘贴兑换码
在兑换码输入框中,粘贴您获得的兑换码。
点击兑换
确认兑换码无误后,点击「兑换」按钮提交。
兑换完成
兑换成功后,余额或并发数会自动增加到您的账户,您可以在仪表盘查看更新后的余额。
- 兑换码区分大小写,建议直接复制粘贴
- 每个兑换码只能使用一次
- 兑换码有有效期,请在有效期内使用
- 如果兑换失败,请检查兑换码是否正确或联系客服
常见问题
/v1/chat/completions 接口规范,包括流式输出、function calling 等特性。使用 OpenAI 官方 Python/Node.js SDK 时,只需修改 base_url 和 api_key 两个参数即可无缝切换,无需修改任何业务逻辑代码。Authorization: Bearer sk-xxx,注意 Bearer 后面有一个空格;(3) 在控制台确认该令牌是否仍处于「启用」状态且未被删除;(4) 确认账户余额大于 0。https://9m8m.com 即可访问,无需任何代理或VPN。对于国内用户而言,访问延迟显著优于直连海外 API 服务。这也是使用本平台的核心优势之一。tools 参数定义可调用的函数,模型会根据上下文判断是否需要调用。联系我们
© 2026 智脑API平台 | 提供高质量 AI 模型 API 服务