OpenAI 兼容服务
概念
OpenAI 推出了 ChatGPT 之后,出现了很多中转站和新的 AI 服务,而这些服务为了方便已经在使用 OpenAI 的用户,会提供与 OpenAI 兼容的调用方式。
配置说明
自定义 API 接口地址
您的自定义AI模型服务的API接口基础请求地址,该接口地址要求兼容OpenAI接口格式,以chat/completions路径结尾,例如 https://api.groq.com/openai/v1/chat/completions。
那么您应该在沙拉查词翻译中配置为:https://api.groq.com/openai/v1/
apiKey
通常是一个长字符串,用于验证您的请求身份,可以在您的AI模型服务平台的账号密钥设置页中找到,不同平台使用的格式是不同的,错误、欠费的apiKey无法测试成功。
例如sk-O6FclmECYFJyTB664b6681D06eEb47919b8570Be1fA2B434
。
不同平台这个apiKey的名称可能不同,例如OpenRouter平台叫做apiKey,而Groq平台叫做api_key,也有可能是secret_key,实际上都是一个意思
Prompt
Prompt是单段翻译时使用的提示词,如果您不理解这些提示词是干什么的,保持默认即可。如果您确实需要调整那么请注意:
- 注意
{{from}}
表示段落的语言,{{to}}
表示目标语言 ,{{text}}
表示段落的文本内容,这些占位符需要保留。
模型名称
准确来说,指的是请求时发送的模型名字符串。不同平台的模型名格式不同,不同模型名代表了不同模型选择,因此计费和速率控制等都不同,请严格依据平台文档选择并填入,尤其是对于那些想要精准控制模型版本的人。例如ollama中的phi3:14b-medium-4k-instruct-q4_0
代表了微软的开源模型Phi3的中杯版本(14B参数,Medium大小)上下文窗口4K大小、指令微调后Q4_0量化方法的版本。注意不要误使用base模型或者非instruct/chat模型,这些模型没有专门针对对话数据进行训练,指令跟随效果不佳,很有可能无法正常返回译文。
ChatGPT 申请步骤
-
准备一个 ChatGPT 账号 请自行准备一个 ChatGPT 账号,确保您能正常打开 https://chat.openai.com 且能正常对话。
-
创建 Secret Key
- 打开 https://platform.openai.com/account/api-keys
- 点击【Create new secret key】按钮,会出现一个弹窗,里面显示了 Secret Key
- 复制 Secret Key
- 在沙拉查词翻译中填写 OpenAI 的 Secret Key 将 Secret Key 填写进沙拉查词翻译的【设置】-【词典账号】-【ChatGPT】中。
还有哪些服务是兼容 OpenAI 接口的?
以下列举了一些主流的兼容 OpenAI 接口的服务,您可以参考这些服务的文档来配置沙拉查词翻译。
Ollama 本地部署开源模型
- 安装配置并启动 Ollama
- 从官网下载安装 Ollama
- 设置允许跨域并启动
- macOS:命令行执行
launchctl setenv OLLAMA_ORIGINS "*"
,再启动App。 - Windows:控制面板-系统属性-环境变量-用户环境变量新建2个环境变量:变量名
OLLAMA_HOST
变量值0.0.0.0
,变量名OLLAMA_ORIGINS
变量值*
,再启动App。 - Linux:命令行执行
OLLAMA_ORIGINS="*" ollama serve
。
- macOS:命令行执行
-
翻译服务配置如下: apiKey: ollama 模型: 请见模型库中模型的具体Tags,例如
qwen:14b-chat-v1.5-q4_1
自定义 API 接口地址: http://localhost:11434/v1/ 如果您是在局域网内其他主机运行的ollama服务,那么请将localhost替换为您的主机IP地址。 并发速率按照运行的主机算力和使用的模型自行斟酌。 -
参考文档 https://github.com/ollama/ollama/blob/main/docs/api.md https://github.com/ollama/ollama/issues/2335 对于使用LM-Studio部署的,可以参考其文档,配置方式类似,不过您需要先下载好模型并运行。
Groq官方平台
- apiKey: 到这个页面获取密钥。
- 模型: 截止到本文撰写时,有四款模型:llama3-8b-8192、llama3-70b-8192、mixtral-8x7b-32768、gemma-7b-it,请根据自己的翻译需求测试选择。目前这些模型的中译英效果尚可,但是英译中效果不佳,不建议用于英译中场景。
- 自定义 API 接口地址: https://api.groq.com/openai/v1/
- 速率控制: 您可以在这个页面查看您账户的请求限速。如果选择的模型的REQUESTS PER MINUTE是30,那么建议设置每秒最大请求数为1或2,不要过高。
Deepseek官方平台
- apiKey: 到这个页面获取密钥。
- 模型:截止到本文撰写时,只推荐该平台的deepseek-chat模型用于翻译。
- 自定义 API 接口地址: https://api.deepseek.com/
OpenRouter中转平台
- apiKey: 到这个页面获取密钥。
- 模型:到这个模型页面查看模型列表。例如anthropic/claude-3-haiku.
- 自定义 API 接口地址: https://openrouter.ai/api/v1/
- 限速:请参考这里。截止到本文撰写时,如果您账号里余额是10美元,那么您每秒可以发出10次请求,20美元则是20QPS,依次类推。尽管并发可以很高,但由于平台也是租用官方平台的资源,共享一个大的限速池,所以如果同时使用的人的请求数较多,也会造成请求失败,这种情况并非OpenRouter平台的限制,这种请求失败的HTTP响应码是200,但是返回的Payload是限速错误说明,沉浸式翻译表现为不显示译文(即返回文本无法解析下,译文为空),这种情况下插件暂时没做相应的空译文异常处理,也不方便重试,遇到这种情况只能更换翻译服务重新翻译。当然,您也可以自建API中转处理这种情况。
其他
其他平台大同小异,无非是获取 apiKey、模型名称、请求地址,注意速率限制等信息。