Logo陪读蛙
模型提供商

OpenAI 兼容自定义提供商

在陪读蛙中配置任何兼容 OpenAI API 的提供商,包括第三方服务和自托管解决方案

302.AI 特别优惠

开始使用 302.AI,获取最新模型的按用量付费服务。通过我们的链接注册可获得 1 美元免费额度。

什么是 OpenAI 兼容提供商?

OpenAI 兼容提供商是实现与 OpenAI 相同 API 接口的服务,使它们成为即插即用的替代品。这种标准化允许您:

  • 连接到代理服务 提供对多种模型的访问
  • 访问区域 AI 服务 提供 OpenAI 兼容端点
  • 使用自托管解决方案 完全控制您的数据
  • 连接企业 AI 服务 遵循 OpenAI API 标准

兼容提供商选项

陪读蛙包含几个预配置的 OpenAI 兼容提供商以便使用:

SiliconFlow

  • 基础 URL: https://api.siliconflow.cn/v1
  • 模型: Qwen/Qwen3-Next-80B-A3B-Instruct
  • 适用于: 中国和国际模型的高性能推理

Tensdaq

  • 基础 URL: https://tensdaq-api.x-aio.com/v1
  • 模型: DeepSeek v3.1、Qwen3-235B-A22B-Instruct-2507
  • 适用于: 革命性竞价平台,市场驱动定价

302.AI

  • 基础 URL: https://api.302.ai/v1
  • 模型: GPT-4.1 Mini、Qwen3-235B-A22B
  • 适用于: 中国最新模型,按用量付费 API

和一个完全自定义的提供商选项,您可以配置任何 OpenAI 兼容服务。

Custom Provider

  • 基础 URL: 可配置(例如:https://api.example.com/v1
  • 模型: 使用自定义模型名称
  • 适用于: 任何 OpenAI 兼容服务

详细配置指南

第一步:访问设置页面

  1. 点击浏览器工具栏中的陪读蛙扩展图标
  2. 在弹出窗口中点击「选项」按钮
  3. 或者右键点击扩展图标,选择「选项」

第二步:选择提供商

API 提供商页面

点击「添加提供商」按钮,选择「内置 LLM 提供商」部分,选择您想要使用的提供商。

第三步:获取 API 密钥

在对应的地方添加 API Key。如果您是自托管的服务,您可以去后台创建 API Key。如果您是第三方服务,您可以去对应的服务商官网创建 API Key。

第四步:配置模型选择

我们有两种场景:翻译和阅读。我们推荐您根据使用场景选择合适的模型。

场景说明要求
翻译仅用于将文字从一种语言翻译成另一种语言推荐使用速度较快的小模型
阅读阅读文章,并进行分析和总结需要支持结构化输出的模型

陪读蛙的阅读功能需要 AI 模型能够输出特定格式的 JSON 对象。并非所有模型都支持此功能

  • 完全支持:OpenAI GPT 系列、Google Gemini 系列、Anthropic Claude 系列
  • ⚠️ 部分支持:DeepSeek、大部分开源模型(可能需要调整)
  • 不支持:较老的模型或不支持 JSON 输出的模型

第五步:验证配置

配置完成后进行测试:

  1. 点击「测试连接」按钮
  2. 系统发送测试请求
  3. 查看返回结果确认配置正确
  4. 如果失败,检查 API 密钥和网络连接

故障排除指南

常见配置问题

问题类型症状解决方案验证方法
API 密钥错误"Invalid API Key"重新复制密钥,检查空格测试连接按钮
余额不足"Quota exceeded"充值账户或更换提供商查看提供商控制台
网络问题连接超时检查网络,尝试代理ping 提供商域名
模型限制模型不可用检查权限,选择其他模型查看提供商文档

总结

通过本指南,您应该能够:

  1. ✅ 了解各提供商的特点和适用场景
  2. ✅ 成功配置所需的 AI 提供商
  3. ✅ 选择适合的模型进行翻译和阅读
  4. ✅ 解决常见的配置和使用问题

如果您在使用过程中遇到其他问题,建议查看提供商的官方文档或在陪读蛙 Discord 社区寻求帮助。