Services compatibles OpenAI
Concept
Depuis le lancement de ChatGPT par OpenAI, de nombreux services proxy et nouveaux services d'IA sont apparus. Ces services proposent des API compatibles avec OpenAI pour faciliter la transition des utilisateurs existants d'OpenAI.
Guide de configuration
URL de point de terminaison API personnalisée
L'URL de base du point de terminaison API de votre service de modèle d'IA personnalisé. Ce point de terminaison doit être compatible avec le format API d'OpenAI et se terminer par le chemin chat/completions, par exemple https://api.groq.com/openai/v1/chat/completions
Dans la traduction Saladict, vous devez configurer : https://api.groq.com/openai/v1/
apiKey
Généralement une longue chaîne de caractères utilisée pour authentifier vos requêtes. Vous pouvez la trouver dans les paramètres de compte de votre plateforme de service de modèle d'IA. Le format varie selon la plateforme, et les apiKey invalides ou sans solde suffisant échoueront au test.
Exemple : sk-O6FclmECYFJyTB664b6681D06eEb47919b8570Be1fA2B434
Le nom de cet apiKey peut varier selon la plateforme. Par exemple, il s'appelle apiKey sur la plateforme OpenRouter, api_key sur Groq, ou encore secret_key, mais ils signifient essentiellement la même chose.
Prompt
Le prompt est l'instruction utilisée lors d'une traduction unique. Si vous ne comprenez pas l'utilité de ces instructions, il est préférable de conserver les valeurs par défaut. Si vous devez faire des ajustements, notez :
{{from}}
représente la langue du paragraphe,{{to}}
la langue cible, et{{text}}
le contenu textuel du paragraphe. Ces placeholders doivent être conservés.
Nom du modèle
Plus précisément, il s'agit de la chaîne du nom du modèle envoyée lors de la requête. Les formats des noms de modèles varient selon les plateformes, et différents noms de modèles représentent différentes sélections de modèles. Par conséquent, la facturation et les limites de taux diffèrent également. Veuillez sélectionner et saisir strictement selon la documentation de la plateforme, particulièrement si vous souhaitez contrôler précisément la version du modèle. Par exemple, phi3:14b-medium-4k-instruct-q4_0
dans ollama représente la version moyenne (14B paramètres, taille Medium) du modèle open source Phi3 de Microsoft avec une fenêtre de contexte de 4K, instruction-tuning terminé, version de quantification Q4_0. Évitez d'utiliser par erreur des modèles de base ou non-instruct/chat. Ces modèles n'ont pas été spécialement entraînés sur des données de dialogue, suivent moins bien les instructions et risquent de ne pas retourner de traductions correctes.
Étapes d'inscription ChatGPT
-
Préparer un compte ChatGPT Préparez un compte ChatGPT et assurez-vous de pouvoir accéder normalement à https://chat.openai.com et dialoguer.
-
Créer une Secret Key
- Accédez à https://platform.openai.com/account/api-keys
- Cliquez sur le bouton [Create new secret key]. Une popup affichera la Secret Key
- Copiez la Secret Key
- Saisir la Secret Key OpenAI dans la traduction Saladict Saisissez la Secret Key dans [Paramètres]-[Comptes dictionnaire]-[ChatGPT] de la traduction Saladict.
Quels autres services sont compatibles avec l'API OpenAI ?
Voici les principaux services compatibles avec l'API OpenAI. Vous pouvez vous référer à leur documentation pour configurer la traduction Saladict.
Déploiement local de modèles open source avec Ollama
- Installation, configuration et démarrage d'Ollama
- Téléchargez et installez Ollama depuis le site officiel
- Autorisez le cross-origin et démarrez
- macOS : Exécutez
launchctl setenv OLLAMA_ORIGINS "*"
dans le terminal, puis lancez l'application. - Windows : Dans Panneau de configuration-Propriétés système-Variables d'environnement-Variables utilisateur, créez deux nouvelles variables : nom
OLLAMA_HOST
valeur0.0.0.0
, nomOLLAMA_ORIGINS
valeur*
, puis lancez l'application. - Linux : Exécutez
OLLAMA_ORIGINS="*" ollama serve
dans le terminal.
- macOS : Exécutez
-
Configuration du service de traduction : apiKey : ollama Modèle : Voir les Tags spécifiques dans la bibliothèque de modèles, ex :
qwen:14b-chat-v1.5-q4_1
Point de terminaison API personnalisé : http://localhost:11434/v1/ Si vous exécutez le service ollama sur un autre hôte de votre LAN, remplacez localhost par l'adresse IP de votre hôte. Ajustez le taux d'exécution simultanée selon les performances de l'hôte d'exécution et le modèle utilisé. -
Documentation de référence https://github.com/ollama/ollama/blob/main/docs/api.md https://github.com/ollama/ollama/issues/2335 Pour les déploiements avec LM-Studio, consultez leur documentation. La configuration est similaire, mais vous devez d'abord télécharger et exécuter le modèle.
Plateforme officielle Groq
- apiKey : Obtenez la clé sur cette page.
- Modèles : Au moment de la rédaction, il y a quatre modèles : llama3-8b-8192, llama3-70b-8192, mixtral-8x7b-32768, gemma-7b-it. Testez et choisissez selon vos besoins de traduction. Actuellement, ces modèles sont bons pour la traduction du chinois vers l'anglais, mais ne sont pas recommandés pour l'anglais vers le chinois.
- Point de terminaison API personnalisé : https://api.groq.com/openai/v1/
- Limite de taux : Vous pouvez vérifier les limites de requêtes de votre compte sur cette page. Si le modèle choisi a 30 REQUESTS PER MINUTE, nous recommandons de définir 1 ou 2 requêtes maximum par seconde. Évitez les paramètres trop élevés.
Plateforme officielle Deepseek
- apiKey : Obtenez la clé sur cette page.
- Modèle : Au moment de la rédaction, seul le modèle deepseek-chat est recommandé pour la traduction.
- Point de terminaison API personnalisé : https://api.deepseek.com/
Plateforme proxy OpenRouter
- apiKey : Obtenez la clé sur cette page.
- Modèles : Consultez la liste des modèles sur la page des modèles. Exemple : anthropic/claude-3-haiku
- Point de terminaison API personnalisé : https://openrouter.ai/api/v1/
- Limite de taux : Voir ici. Au moment de la rédaction, avec un solde de compte de 10 dollars, vous pouvez faire 10 requêtes par seconde, 20 QPS avec 20 dollars, etc. Bien que le parallélisme puisse être élevé, la plateforme utilise aussi les ressources des plateformes officielles et partage un grand pool de limites, donc les requêtes peuvent échouer si de nombreux utilisateurs font des requêtes simultanément. Ce n'est pas une limitation d'OpenRouter ; ces requêtes échouées ont un code de réponse HTTP 200, mais le Payload retourné contient une explication de limite de taux. Dans la traduction immersive, aucune traduction n'est affichée (traduction vide si le texte retourné ne peut pas être analysé). Dans ce cas, le plugin ne gère actuellement pas ces erreurs de traduction vide et les tentatives sont difficiles. Face à cette situation, vous devez changer de service de traduction et retraduire. Bien sûr, vous pouvez aussi construire votre propre proxy API pour gérer cette situation.
Autres
Les autres plateformes sont similaires - faites attention aux informations d'apiKey, nom de modèle, adresse de requête et limites de taux.