iconSaladict

OpenAI 互換サービス

概念

OpenAI が ChatGPT をリリースして以来、多くのプロキシサービスと新しい AI サービスが登場しました。これらのサービスは、既に OpenAI を使用しているユーザーの利便性を考慮して、OpenAI と互換性のある API を提供しています。

設定説明

カスタム API エンドポイント

カスタム AI モデルサービスの API エンドポイントのベース URL です。このエンドポイントは OpenAI の API 形式と互換性があり、chat/completions パスで終わる必要があります。例:https://api.groq.com/openai/v1/chat/completions

沙拉查词(Saladict)翻訳では、以下のように設定します:https://api.groq.com/openai/v1/

apiKey

通常は長い文字列で、リクエストの認証に使用されます。AI モデルサービスプラットフォームのアカウント設定ページで見つけることができます。プラットフォームによって形式が異なり、無効または残高不足の apiKey ではテストに失敗します。

例:sk-O6FclmECYFJyTB664b6681D06eEb47919b8570Be1fA2B434

プラットフォームによって apiKey の名称が異なる場合があります。例えば、OpenRouter プラットフォームでは apiKey、Groq プラットフォームでは api_key、または secret_key と呼ばれることもありますが、本質的には同じものです。

プロンプト

プロンプトは単一の翻訳時に使用される指示文です。これらの指示文の目的が分からない場合は、デフォルトのままにしておくことをお勧めします。調整が必要な場合は以下に注意してください:

  • {{from}} は段落の言語、{{to}} は目標言語、{{text}} は段落のテキスト内容を表すプレースホルダーです。これらは保持する必要があります。

モデル名

正確には、リクエスト時に送信されるモデル名の文字列を指します。プラットフォームによってモデル名の形式が異なり、異なるモデル名は異なるモデルの選択を表します。そのため、課金やレート制限なども異なります。プラットフォームのドキュメントに従って厳密に選択し入力してください。特にモデルのバージョンを正確に制御したい場合は重要���す。例えば、ollama の phi3:14b-medium-4k-instruct-q4_0 は、Microsoft のオープンソースモデル Phi3 のミディアムバージョン(14B パラメータ、Medium サイズ)、コンテキストウィンドウ 4K サイズ、instruction-tuning 済み、Q4_0 量子化方式のバージョンを表します。base モデルや non-instruct/chat モデルを誤って使用しないよう注意してください。これらのモデルは対話データで特別にトレーニングされていないため、指示に従う効果が低く、正常に翻訳を返せない可能性が高いです。

ChatGPT 申請手順

  1. ChatGPT アカウントの準備 ChatGPT アカウントを用意し、https://chat.openai.com にアクセスして正常に対話できることを確認してください。

  2. Secret Key の作成

  1. 沙拉查词(Saladict)翻訳に OpenAI の Secret Key を入力 Secret Key を沙拉查词(Saladict)翻訳の【設定】-【辞書アカウント】-【ChatGPT】に入力します。

OpenAI API と互換性のある他のサービスは?

以下に、主要な OpenAI API 互換サービスを紹介します。これらのサービスのドキュメントを参考に沙拉查词(Saladict)翻訳を設定できます。

Ollama ローカルでのオープンソースモデルのデプロイ

  • Ollama のインストールと設定、起動
  1. 公式サイトから Ollama をダウンロードしてインストール
  2. クロスオリジンを許可して起動
    1. macOS:コマンドラインで launchctl setenv OLLAMA_ORIGINS "*" を実行し、アプリを起動。
    2. Windows:コントロールパネル-システムのプロパティ-環境変数-ユーザー環境変数に2つの環境変数を新規作成:変数名 OLLAMA_HOST0.0.0.0、変数名 OLLAMA_ORIGINS*、その後アプリを起動。
    3. Linux:コマンドラインで OLLAMA_ORIGINS="*" ollama serve を実行。
  • 翻訳サービスの設定: apiKey: ollama モデル: モデルライブラリの具体的な Tags を参照。例:qwen:14b-chat-v1.5-q4_1 カスタム API エンドポイント: http://localhost:11434/v1/ LAN 内の他のホストで ollama サービスを実行している場合は、localhost をホストの IP アドレスに置き換えてください。 同時実行レートは、実行ホストの性能���使用するモデルに応じて調整してください。

  • 参考ドキュメント https://github.com/ollama/ollama/blob/main/docs/api.md https://github.com/ollama/ollama/issues/2335 LM-Studioでデプロイする場合は、そのドキュメントを参照してください。設定方法は似ていますが、事前にモデルをダウンロードして実行する必要があります。

Groq 公式プラットフォーム

  • apiKey: このページでキーを取得。
  • モデル: 本文執筆時点で4つのモデルがあります:llama3-8b-8192、llama3-70b-8192、mixtral-8x7b-32768、gemma-7b-it。翻訳ニーズに応じてテストして選択してください。現時点では、これらのモデルは中国語から英語への翻訳は良好ですが、英語から中国語への翻訳は十分ではないため、英語から中国語への翻訳には推奨されません。
  • カスタム API エンドポイント: https://api.groq.com/openai/v1/
  • レート制限: このページでアカウントのリクエスト制限を確認できます。選択したモデルの REQUESTS PER MINUTE が 30 の場合、1秒あたりの最大リクエスト数を1または2に設定することをお勧��します。高すぎる設定は避けてください。

Deepseek 公式プラットフォーム

  • apiKey: このページでキーを取得。
  • モデル:本文執筆時点では、翻訳用には deepseek-chat モデルのみを推奨。
  • カスタム API エンドポイント: https://api.deepseek.com/

OpenRouter プロキシプラットフォーム

  • apiKey: このページでキーを取得。
  • モデル:モデルページでモデルリストを確認。例:anthropic/claude-3-haiku
  • カスタム API エンドポイント: https://openrouter.ai/api/v1/
  • レート制限:こちらを参照。本文執筆時点で、アカウントの残高が10ドルの場合、1秒あたり10リクエスト、20ドルなら20QPSというように設定されています。並行処理は高く設定できますが、プラットフォームも公式プラットフォームのリソースを借りており、大きな制限プールを共有しているため、同時に多くのユーザーがリクエストを行うと、リクエストが失敗する可能性があります。これは OpenRouter プラットフォームの制限ではなく、このようなリクエスト失敗の HTTP レスポンスコードは 200 ですが、返される Payload はレート制限エラーの説明です。沈浸式翻訳では翻訳文が表示されません(返されるテキストが解析できない場合、翻訳文は空になります)。このような場合、プラグインは現時点で空の翻訳文の異常処理を行っておらず、リトライも困難です。この状況に遭遇した場合は、翻訳サービスを変更して再翻訳するしかありません。もちろん、独自の API プロキシを構築してこの状況に対処することもできます。

その他

他のプラットフォームも同様で、apiKey、モデル名、リクエストアドレスの取得、レート制限などの情報に注意してください。