OpenAI 互換サービス
概念
OpenAI が ChatGPT をリリースして以来、多くのプロキシサービスと新しい AI サービスが登場しました。これらのサービスは、既に OpenAI を使用しているユーザーの利便性を考慮して、OpenAI と互換性のある API を提供しています。
設定説明
カスタム API エンドポイント
カスタム AI モデルサービスの API エンドポイントのベース URL です。このエンドポイントは OpenAI の API 形式と互換性があり、chat/completions パスで終わる必要があります。例:https://api.groq.com/openai/v1/chat/completions
沙拉查词(Saladict)翻訳では、以下のように設定します:https://api.groq.com/openai/v1/
apiKey
通常は長い文字列で、リクエストの認証に使用されます。AI モデルサービスプラットフォームのアカウント設定ページで見つけることができます。プラットフォームによって形式が異なり、無効または残高不足の apiKey ではテストに失敗します。
例:sk-O6FclmECYFJyTB664b6681D06eEb47919b8570Be1fA2B434
プラットフォームによって apiKey の名称が異なる場合があります。例えば、OpenRouter プラットフォームでは apiKey、Groq プラットフォームでは api_key、または secret_key と呼ばれることもありますが、本質的には同じものです。
プロンプト
プロンプトは単一の翻訳時に使用される指示文です。これらの指示文の目的が分からない場合は、デフォルトのままにしておくことをお勧めします。調整が必要な場合は以下に注意してください:
{{from}}
は段落の言語、{{to}}
は目標言語、{{text}}
は段落のテキスト内容を表すプレースホルダーです。これらは保持する必要があります。
モデル名
正確には、リクエスト時に送信されるモデル名の文字列を指します。プラットフォームによってモデル名の形式が異なり、異なるモデル名は異なるモデルの選択を表します。そのため、課金やレート制限なども異なります。プラットフォームのドキュメントに従って厳密に選択し入力してください。特にモデルのバージョンを正確に制御したい場合は重要���す。例えば、ollama の phi3:14b-medium-4k-instruct-q4_0
は、Microsoft のオープンソースモデル Phi3 のミディアムバージョン(14B パラメータ、Medium サイズ)、コンテキストウィンドウ 4K サイズ、instruction-tuning 済み、Q4_0 量子化方式のバージョンを表します。base モデルや non-instruct/chat モデルを誤って使用しないよう注意してください。これらのモデルは対話データで特別にトレーニングされていないため、指示に従う効果が低く、正常に翻訳を返せない可能性が高いです。
ChatGPT 申請手順
-
ChatGPT アカウントの準備 ChatGPT アカウントを用意し、https://chat.openai.com にアクセスして正常に対話できることを確認してください。
-
Secret Key の作成
- https://platform.openai.com/account/api-keys にアクセス
- 【Create new secret key】ボタンをクリック。ポップアップに Secret Key が表示されます
- Secret Key をコピー
- 沙拉查词(Saladict)翻訳に OpenAI の Secret Key を入力 Secret Key を沙拉查词(Saladict)翻訳の【設定】-【辞書アカウント】-【ChatGPT】に入力します。
OpenAI API と互換性のある他のサービスは?
以下に、主要な OpenAI API 互換サービスを紹介します。これらのサービスのドキュメントを参考に沙拉查词(Saladict)翻訳を設定できます。
Ollama ローカルでのオープンソースモデルのデプロイ
- Ollama のインストールと設定、起動
- 公式サイトから Ollama をダウンロードしてインストール
- クロスオリジンを許可して起動
- macOS:コマンドラインで
launchctl setenv OLLAMA_ORIGINS "*"
を実行し、アプリを起動。 - Windows:コントロールパネル-システムのプロパティ-環境変数-ユーザー環境変数に2つの環境変数を新規作成:変数名
OLLAMA_HOST
値0.0.0.0
、変数名OLLAMA_ORIGINS
値*
、その後アプリを起動。 - Linux:コマンドラインで
OLLAMA_ORIGINS="*" ollama serve
を実行。
- macOS:コマンドラインで
-
翻訳サービスの設定: apiKey: ollama モデル: モデルライブラリの具体的な Tags を参照。例:
qwen:14b-chat-v1.5-q4_1
カスタム API エンドポイント: http://localhost:11434/v1/ LAN 内の他のホストで ollama サービスを実行している場合は、localhost をホストの IP アドレスに置き換えてください。 同時実行レートは、実行ホストの性能���使用するモデルに応じて調整してください。 -
参考ドキュメント https://github.com/ollama/ollama/blob/main/docs/api.md https://github.com/ollama/ollama/issues/2335 LM-Studioでデプロイする場合は、そのドキュメントを参照してください。設定方法は似ていますが、事前にモデルをダウンロードして実行する必要があります。
Groq 公式プラットフォーム
- apiKey: このページでキーを取得。
- モデル: 本文執筆時点で4つのモデルがあります:llama3-8b-8192、llama3-70b-8192、mixtral-8x7b-32768、gemma-7b-it。翻訳ニーズに応じてテストして選択してください。現時点では、これらのモデルは中国語から英語への翻訳は良好ですが、英語から中国語への翻訳は十分ではないため、英語から中国語への翻訳には推奨されません。
- カスタム API エンドポイント: https://api.groq.com/openai/v1/
- レート制限: このページでアカウントのリクエスト制限を確認できます。選択したモデルの REQUESTS PER MINUTE が 30 の場合、1秒あたりの最大リクエスト数を1または2に設定することをお勧��します。高すぎる設定は避けてください。
Deepseek 公式プラットフォーム
- apiKey: このページでキーを取得。
- モデル:本文執筆時点では、翻訳用には deepseek-chat モデルのみを推奨。
- カスタム API エンドポイント: https://api.deepseek.com/
OpenRouter プロキシプラットフォーム
- apiKey: このページでキーを取得。
- モデル:モデルページでモデルリストを確認。例:anthropic/claude-3-haiku
- カスタム API エンドポイント: https://openrouter.ai/api/v1/
- レート制限:こちらを参照。本文執筆時点で、アカウントの残高が10ドルの場合、1秒あたり10リクエスト、20ドルなら20QPSというように設定されています。並行処理は高く設定できますが、プラットフォームも公式プラットフォームのリソースを借りており、大きな制限プールを共有しているため、同時に多くのユーザーがリクエストを行うと、リクエストが失敗する可能性があります。これは OpenRouter プラットフォームの制限ではなく、このようなリクエスト失敗の HTTP レスポンスコードは 200 ですが、返される Payload はレート制限エラーの説明です。沈浸式翻訳では翻訳文が表示されません(返されるテキストが解析できない場合、翻訳文は空になります)。このような場合、プラグインは現時点で空の翻訳文の異常処理を行っておらず、リトライも困難です。この状況に遭遇した場合は、翻訳サービスを変更して再翻訳するしかありません。もちろん、独自の API プロキシを構築してこの状況に対処することもできます。
その他
他のプラットフォームも同様で、apiKey、モデル名、リクエストアドレスの取得、レート制限などの情報に注意してください。