Skip to content

Commit ed707af

Browse files
🤖 style: update i18n (#10368)
đź’„ style: update i18n Co-authored-by: canisminor1990 <17870709+canisminor1990@users.noreply.github.com>
1 parent 5bfe36d commit ed707af

File tree

17 files changed

+1032
-121
lines changed

17 files changed

+1032
-121
lines changed

‎locales/ar/models.json‎

Lines changed: 108 additions & 13 deletions
Large diffs are not rendered by default.

‎locales/bg-BG/models.json‎

Lines changed: 126 additions & 15 deletions
Large diffs are not rendered by default.

‎locales/de-DE/models.json‎

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1715,6 +1715,9 @@
17151715
"google/gemini-2.5-pro-preview": {
17161716
"description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und MINT zu analysieren sowie große Datensätze, Codebasen und Dokumente mit langem Kontext zu untersuchen."
17171717
},
1718+
"google/gemini-3-pro-image-preview": {
1719+
"description": "Gemini 3 Pro Image (Nano Banana Pro) ist ein von Google entwickeltes Bildgenerierungsmodell, das gleichzeitig multimodale Dialoge unterstĂĽtzt."
1720+
},
17181721
"google/gemini-3-pro-image-preview-free": {
17191722
"description": "Kostenlose Vorschauversion von Gemini 3 Pro Image mit begrenztem Kontingent fĂĽr multimodale Generierung."
17201723
},

‎locales/en-US/models.json‎

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1715,6 +1715,9 @@
17151715
"google/gemini-2.5-pro-preview": {
17161716
"description": "Gemini 2.5 Pro Preview is Google's most advanced thinking model, capable of reasoning through complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using extended context."
17171717
},
1718+
"google/gemini-3-pro-image-preview": {
1719+
"description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model, which also supports multimodal conversations."
1720+
},
17181721
"google/gemini-3-pro-image-preview-free": {
17191722
"description": "Gemini 3 Pro Image Free Edition supports limited multimodal generation."
17201723
},

‎locales/es-ES/models.json‎

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1715,6 +1715,9 @@
17151715
"google/gemini-2.5-pro-preview": {
17161716
"description": "Gemini 2.5 Pro Preview es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y áreas STEM, así como de analizar grandes conjuntos de datos, bases de código y documentos utilizando contextos extensos."
17171717
},
1718+
"google/gemini-3-pro-image-preview": {
1719+
"description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, que también admite conversaciones multimodales."
1720+
},
17181721
"google/gemini-3-pro-image-preview-free": {
17191722
"description": "VersiĂłn gratuita de Gemini 3 Pro Image, compatible con generaciĂłn multimodal con cuota limitada."
17201723
},

‎locales/fa-IR/models.json‎

Lines changed: 108 additions & 13 deletions
Large diffs are not rendered by default.

‎locales/fr-FR/models.json‎

Lines changed: 108 additions & 13 deletions
Original file line numberDiff line numberDiff line change
@@ -1715,6 +1715,9 @@
17151715
"google/gemini-2.5-pro-preview": {
17161716
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, des bases de code et des documents en utilisant un contexte étendu."
17171717
},
1718+
"google/gemini-3-pro-image-preview": {
1719+
"description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google, prenant également en charge les dialogues multimodaux."
1720+
},
17181721
"google/gemini-3-pro-image-preview-free": {
17191722
"description": "Version gratuite de Gemini 3 Pro Image, prenant en charge une génération multimodale avec quota limité."
17201723
},
@@ -2777,14 +2780,51 @@
27772780
"openai/gpt-4-turbo": {
27782781
"description": "gpt-4-turbo d'OpenAI possède une vaste connaissance générale et une expertise sectorielle, capable de suivre des instructions complexes en langage naturel et de résoudre précisément des problèmes difficiles. Sa date de coupure des connaissances est avril 2023, avec une fenêtre de contexte de 128 000 tokens."
27792782
},
2780-
"openai/gpt-4.1": {},
2781-
"openai/gpt-4.1-mini": {},
2782-
"openai/gpt-4.1-nano": {},
2783-
"openai/gpt-4o": {},
2784-
"openai/gpt-4o-mini": {},
2785-
"openai/gpt-5": {},
2786-
"openai/gpt-5-mini": {},
2787-
"openai/gpt-5-nano": {},
2783+
"openai/gpt-4.1": {
2784+
"description": "La série GPT-4.1 offre un contexte étendu ainsi qu’une meilleure capacité d’ingénierie et de raisonnement."
2785+
},
2786+
"openai/gpt-4.1-mini": {
2787+
"description": "GPT-4.1 Mini propose une latence réduite et un excellent rapport qualité-prix, idéal pour des contextes de taille moyenne."
2788+
},
2789+
"openai/gpt-4.1-nano": {
2790+
"description": "GPT-4.1 Nano est une option à très faible coût et faible latence, adaptée aux dialogues courts et fréquents ou aux scénarios de classification."
2791+
},
2792+
"openai/gpt-4o": {
2793+
"description": "La série GPT-4o est le modèle Omni d’OpenAI, prenant en charge les entrées texte + image et les sorties textuelles."
2794+
},
2795+
"openai/gpt-4o-mini": {
2796+
"description": "GPT-4o-mini est une version rapide et compacte de GPT-4o, idéale pour les scénarios multimodaux à faible latence."
2797+
},
2798+
"openai/gpt-5": {
2799+
"description": "GPT-5 est le modèle haute performance d’OpenAI, adapté à une large gamme de tâches de production et de recherche."
2800+
},
2801+
"openai/gpt-5-chat": {
2802+
"description": "GPT-5 Chat est une sous-version de GPT-5 optimisée pour les dialogues, avec une latence réduite pour une meilleure expérience interactive."
2803+
},
2804+
"openai/gpt-5-codex": {
2805+
"description": "GPT-5-Codex est une variante de GPT-5 spécialement optimisée pour les scénarios de codage, adaptée aux flux de travail de programmation à grande échelle."
2806+
},
2807+
"openai/gpt-5-mini": {
2808+
"description": "GPT-5 Mini est une version allégée de la famille GPT-5, conçue pour des scénarios à faible coût et faible latence."
2809+
},
2810+
"openai/gpt-5-nano": {
2811+
"description": "GPT-5 Nano est la version ultra-compacte de la famille, idéale pour les cas d’usage exigeant des performances optimales en termes de coût et de latence."
2812+
},
2813+
"openai/gpt-5-pro": {
2814+
"description": "GPT-5 Pro est le modèle phare d’OpenAI, offrant des capacités avancées de raisonnement, de génération de code et des fonctionnalités de niveau entreprise, avec prise en charge du routage en phase de test et de politiques de sécurité renforcées."
2815+
},
2816+
"openai/gpt-5.1": {
2817+
"description": "GPT-5.1 est le dernier modèle phare de la série GPT-5, avec des améliorations significatives en raisonnement général, suivi d’instructions et fluidité des dialogues, adapté à un large éventail de tâches."
2818+
},
2819+
"openai/gpt-5.1-chat": {
2820+
"description": "GPT-5.1 Chat est un membre léger de la famille GPT-5.1, optimisé pour les dialogues à faible latence tout en conservant de solides capacités de raisonnement et d’exécution d’instructions."
2821+
},
2822+
"openai/gpt-5.1-codex": {
2823+
"description": "GPT-5.1-Codex est une variante de GPT-5.1 optimisée pour l’ingénierie logicielle et les flux de travail de codage, adaptée aux refactorisations complexes, au débogage avancé et aux tâches de codage autonomes de longue durée."
2824+
},
2825+
"openai/gpt-5.1-codex-mini": {
2826+
"description": "GPT-5.1-Codex-Mini est une version compacte et accélérée de GPT-5.1-Codex, mieux adaptée aux scénarios de codage sensibles à la latence et au coût."
2827+
},
27882828
"openai/gpt-oss-120b": {
27892829
"description": "Modèle de langage général extrêmement performant avec des capacités de raisonnement puissantes et contrôlables."
27902830
},
@@ -2809,7 +2849,9 @@
28092849
"openai/o3-mini-high": {
28102850
"description": "o3-mini haute version de raisonnement, offrant une grande intelligence avec les mêmes objectifs de coût et de latence que o1-mini."
28112851
},
2812-
"openai/o4-mini": {},
2852+
"openai/o4-mini": {
2853+
"description": "OpenAI o4-mini est un modèle de raisonnement compact et efficace d’OpenAI, conçu pour les scénarios à faible latence."
2854+
},
28132855
"openai/o4-mini-high": {
28142856
"description": "Version à haut niveau d'inférence d'o4-mini, optimisée pour une inférence rapide et efficace, offrant une grande efficacité et performance dans les tâches de codage et visuelles."
28152857
},
@@ -3011,13 +3053,21 @@
30113053
"qwen/qwen2.5-coder-7b-instruct": {
30123054
"description": "Modèle de code puissant de taille moyenne, prenant en charge une longueur de contexte de 32K, spécialisé dans la programmation multilingue."
30133055
},
3014-
"qwen/qwen3-14b": {},
3056+
"qwen/qwen3-14b": {
3057+
"description": "Qwen3-14B est la version 14B de la série Qwen, adaptée aux scénarios de raisonnement général et de dialogue."
3058+
},
30153059
"qwen/qwen3-14b:free": {
30163060
"description": "Qwen3-14B est un modèle de langage causal dense de 14 milliards de paramètres dans la série Qwen3, conçu pour un raisonnement complexe et des dialogues efficaces. Il permet un passage sans effort entre un mode de pensée pour des tâches telles que les mathématiques, la programmation et le raisonnement logique, et un mode non-pensant pour des dialogues généraux. Ce modèle a été affiné pour le suivi des instructions, l'utilisation d'outils d'agents, l'écriture créative et des tâches multilingues dans plus de 100 langues et dialectes. Il gère nativement un contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
30173061
},
30183062
"qwen/qwen3-235b-a22b": {
30193063
"description": "Qwen3-235B-A22B est un modèle de mélange d'experts (MoE) de 235 milliards de paramètres développé par Qwen, activant 22 milliards de paramètres à chaque passage avant. Il permet un passage sans effort entre un mode de pensée pour des tâches complexes de raisonnement, de mathématiques et de code, et un mode non-pensant pour une efficacité dans les dialogues généraux. Ce modèle démontre de solides capacités de raisonnement, un support multilingue (plus de 100 langues et dialectes), un suivi avancé des instructions et des capacités d'appel d'outils d'agents. Il gère nativement une fenêtre de contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
30203064
},
3065+
"qwen/qwen3-235b-a22b-2507": {
3066+
"description": "Qwen3-235B-A22B-Instruct-2507 est la version Instruct de la série Qwen3, équilibrant les instructions multilingues et les contextes longs."
3067+
},
3068+
"qwen/qwen3-235b-a22b-thinking-2507": {
3069+
"description": "Qwen3-235B-A22B-Thinking-2507 est une variante Thinking de Qwen3, renforcée pour les tâches complexes de mathématiques et de raisonnement."
3070+
},
30213071
"qwen/qwen3-235b-a22b:free": {
30223072
"description": "Qwen3-235B-A22B est un modèle de mélange d'experts (MoE) de 235 milliards de paramètres développé par Qwen, activant 22 milliards de paramètres à chaque passage avant. Il permet un passage sans effort entre un mode de pensée pour des tâches complexes de raisonnement, de mathématiques et de code, et un mode non-pensant pour une efficacité dans les dialogues généraux. Ce modèle démontre de solides capacités de raisonnement, un support multilingue (plus de 100 langues et dialectes), un suivi avancé des instructions et des capacités d'appel d'outils d'agents. Il gère nativement une fenêtre de contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
30233073
},
@@ -3036,6 +3086,21 @@
30363086
"qwen/qwen3-8b:free": {
30373087
"description": "Qwen3-8B est un modèle de langage causal dense de 8 milliards de paramètres dans la série Qwen3, conçu pour des tâches intensives en raisonnement et des dialogues efficaces. Il permet un passage sans effort entre un mode de pensée pour les mathématiques, le codage et le raisonnement logique, et un mode non-pensant pour des dialogues généraux. Ce modèle a été affiné pour le suivi des instructions, l'intégration d'agents, l'écriture créative et l'utilisation multilingue dans plus de 100 langues et dialectes. Il prend en charge nativement une fenêtre de contexte de 32K tokens et peut être étendu à 131K tokens via YaRN."
30383088
},
3089+
"qwen/qwen3-coder": {
3090+
"description": "Qwen3-Coder est la famille de générateurs de code de Qwen3, spécialisée dans la compréhension et la génération de code dans de longs documents."
3091+
},
3092+
"qwen/qwen3-coder-plus": {
3093+
"description": "Qwen3-Coder-Plus est un modèle d’agent de codage spécialement optimisé de la série Qwen, prenant en charge des appels d’outils plus complexes et des conversations prolongées."
3094+
},
3095+
"qwen/qwen3-max": {
3096+
"description": "Qwen3 Max est le modèle de raisonnement haut de gamme de la série Qwen3, adapté au raisonnement multilingue et à l’intégration d’outils."
3097+
},
3098+
"qwen/qwen3-max-preview": {
3099+
"description": "Qwen3 Max (aperçu) est la version Max de la série Qwen, axée sur le raisonnement avancé et l’intégration d’outils (version préliminaire)."
3100+
},
3101+
"qwen/qwen3-vl-plus": {
3102+
"description": "Qwen3 VL-Plus est la version enrichie en capacités visuelles de Qwen3, améliorant le raisonnement multimodal et le traitement vidéo."
3103+
},
30393104
"qwen2": {
30403105
"description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
30413106
},
@@ -3411,6 +3476,9 @@
34113476
"vercel/v0-1.5-md": {
34123477
"description": "Accès au modèle derrière v0 pour générer, réparer et optimiser des applications Web modernes, avec raisonnement spécifique aux frameworks et connaissances à jour."
34133478
},
3479+
"volcengine/doubao-seed-code": {
3480+
"description": "Doubao-Seed-Code est un grand modèle optimisé par Volcengine pour la programmation agentique, performant sur de nombreux benchmarks de codage et d’agents, avec prise en charge de contextes jusqu’à 256K."
3481+
},
34143482
"wan2.2-t2i-flash": {
34153483
"description": "Version ultra-rapide Wanxiang 2.2, le modèle le plus récent à ce jour. Améliorations globales en créativité, stabilité et réalisme, avec une vitesse de génération rapide et un excellent rapport qualité-prix."
34163484
},
@@ -3438,8 +3506,24 @@
34383506
"wizardlm2:8x22b": {
34393507
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
34403508
},
3441-
"x-ai/grok-4-fast": {},
3442-
"x-ai/grok-code-fast-1": {},
3509+
"x-ai/grok-4": {
3510+
"description": "Grok 4 est le modèle phare de raisonnement de xAI, offrant de puissantes capacités de raisonnement et de traitement multimodal."
3511+
},
3512+
"x-ai/grok-4-fast": {
3513+
"description": "Grok 4 Fast est un modèle à haut débit et faible coût de xAI (prise en charge d’une fenêtre de contexte de 2M), idéal pour les scénarios nécessitant une forte concurrence et de longs contextes."
3514+
},
3515+
"x-ai/grok-4-fast-non-reasoning": {
3516+
"description": "Grok 4 Fast (Non-Reasoning) est un modèle multimodal à haut débit et faible coût de xAI (prise en charge d’une fenêtre de contexte de 2M), destiné aux scénarios sensibles à la latence et au coût ne nécessitant pas de raisonnement intégré. Il fonctionne en parallèle avec la version reasoning de Grok 4 Fast, et le raisonnement peut être activé via le paramètre reasoning enable de l’API. Les prompts et complétions peuvent être utilisés par xAI ou OpenRouter pour améliorer les modèles futurs."
3517+
},
3518+
"x-ai/grok-4.1-fast": {
3519+
"description": "Grok 4.1 Fast est un modèle à haut débit et faible coût de xAI (prise en charge d’une fenêtre de contexte de 2M), idéal pour les scénarios nécessitant une forte concurrence et de longs contextes."
3520+
},
3521+
"x-ai/grok-4.1-fast-non-reasoning": {
3522+
"description": "Grok 4.1 Fast (Non-Reasoning) est un modèle multimodal à haut débit et faible coût de xAI (prise en charge d’une fenêtre de contexte de 2M), destiné aux scénarios sensibles à la latence et au coût ne nécessitant pas de raisonnement intégré. Il fonctionne en parallèle avec la version reasoning de Grok 4.1 Fast, et le raisonnement peut être activé via le paramètre reasoning enable de l’API. Les prompts et complétions peuvent être utilisés par xAI ou OpenRouter pour améliorer les modèles futurs."
3523+
},
3524+
"x-ai/grok-code-fast-1": {
3525+
"description": "Grok Code Fast 1 est le modèle de code rapide de xAI, produisant des sorties lisibles et adaptées à l’ingénierie."
3526+
},
34433527
"x1": {
34443528
"description": "Le modèle Spark X1 sera mis à niveau, et sur la base de ses performances déjà leaders dans les tâches mathématiques, il atteindra des résultats comparables dans des tâches générales telles que le raisonnement, la génération de texte et la compréhension du langage, en se mesurant à OpenAI o1 et DeepSeek R1."
34453529
},
@@ -3500,7 +3584,15 @@
35003584
"yi-vision-v2": {
35013585
"description": "Modèle pour des tâches visuelles complexes, offrant des capacités de compréhension et d'analyse de haute performance basées sur plusieurs images."
35023586
},
3503-
"z-ai/glm-4.6": {},
3587+
"z-ai/glm-4.5": {
3588+
"description": "GLM 4.5 est le modèle phare de Z.AI, prenant en charge les modes de raisonnement hybrides et optimisé pour les tâches d’ingénierie et de long contexte."
3589+
},
3590+
"z-ai/glm-4.5-air": {
3591+
"description": "GLM 4.5 Air est une version allégée de GLM 4.5, adaptée aux scénarios sensibles au coût tout en conservant de solides capacités de raisonnement."
3592+
},
3593+
"z-ai/glm-4.6": {
3594+
"description": "GLM 4.6 est le modèle phare de Z.AI, avec des capacités étendues de longueur de contexte et de codage."
3595+
},
35043596
"zai-org/GLM-4.5": {
35053597
"description": "GLM-4.5 est un modèle de base conçu pour les applications d'agents intelligents, utilisant une architecture Mixture-of-Experts (MoE). Il est profondément optimisé pour l'appel d'outils, la navigation web, l'ingénierie logicielle et la programmation front-end, supportant une intégration transparente avec des agents de code tels que Claude Code et Roo Code. GLM-4.5 utilise un mode d'inférence hybride, adapté à des scénarios variés allant du raisonnement complexe à l'usage quotidien."
35063598
},
@@ -3521,5 +3613,8 @@
35213613
},
35223614
"zai/glm-4.5v": {
35233615
"description": "GLM-4.5V est construit sur le modèle de base GLM-4.5-Air, héritant des techniques éprouvées de GLM-4.1V-Thinking, tout en réalisant une mise à l'échelle efficace grâce à une puissante architecture MoE de 106 milliards de paramètres."
3616+
},
3617+
"zenmux/auto": {
3618+
"description": "La fonction de routage automatique de ZenMux sélectionne automatiquement le modèle le plus performant et le plus rentable parmi les modèles pris en charge, en fonction du contenu de votre requête."
35243619
}
35253620
}

‎locales/it-IT/models.json‎

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1715,6 +1715,9 @@
17151715
"google/gemini-2.5-pro-preview": {
17161716
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi nel campo del codice, della matematica e delle STEM, oltre a utilizzare un contesto esteso per analizzare grandi set di dati, repository di codice e documenti."
17171717
},
1718+
"google/gemini-3-pro-image-preview": {
1719+
"description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google, che supporta anche il dialogo multimodale."
1720+
},
17181721
"google/gemini-3-pro-image-preview-free": {
17191722
"description": "Gemini 3 Pro Image versione gratuita, supporta generazione multimodale con limiti di utilizzo."
17201723
},

0 commit comments

Comments
 (0)