Skip to content

Commit 04764ad

Browse files
🤖 style: update i18n (#9243)
💄 style: update i18n Co-authored-by: canisminor1990 <17870709+canisminor1990@users.noreply.github.com>
1 parent e8044e3 commit 04764ad

File tree

18 files changed

+126
-72
lines changed

18 files changed

+126
-72
lines changed

locales/ar/models.json

Lines changed: 7 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -290,6 +290,9 @@
290290
"Pro/moonshotai/Kimi-K2-Instruct": {
291291
"description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE مع قدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
292292
},
293+
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
294+
"description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
295+
},
293296
"QwQ-32B-Preview": {
294297
"description": "QwQ-32B-Preview هو نموذج معالجة اللغة الطبيعية المبتكر، قادر على معالجة مهام توليد الحوار وفهم السياق بشكل فعال."
295298
},
@@ -1778,6 +1781,9 @@
17781781
"imagen-4.0-ultra-generate-preview-06-06": {
17791782
"description": "نسخة ألترا من سلسلة نموذج Imagen للجيل الرابع لتحويل النص إلى صورة"
17801783
},
1784+
"inclusionAI/Ling-mini-2.0": {
1785+
"description": "Ling-mini-2.0 هو نموذج لغوي كبير عالي الأداء بحجم صغير يعتمد على بنية MoE. يحتوي على 16 مليار معلمة إجمالية، لكن يتم تفعيل 1.4 مليار فقط لكل رمز (789 مليون غير مضمن)، مما يحقق سرعة توليد عالية جداً. بفضل تصميم MoE الفعال وبيانات التدريب عالية الجودة وعلى نطاق واسع، بالرغم من أن المعلمات المفعلة تبلغ فقط 1.4 مليار، إلا أن Ling-mini-2.0 يظهر أداءً رفيع المستوى في المهام اللاحقة يمكن مقارنته بنماذج LLM الكثيفة التي تقل عن 10 مليارات والمع نماذج MoE الأكبر حجماً."
1786+
},
17811787
"internlm/internlm2_5-7b-chat": {
17821788
"description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات."
17831789
},
@@ -2214,14 +2220,11 @@
22142220
"description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE يتمتع بقدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
22152221
},
22162222
"moonshotai/Kimi-K2-Instruct-0905": {
2217-
"description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2223+
"description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
22182224
},
22192225
"moonshotai/kimi-k2-0905": {
22202226
"description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
22212227
},
2222-
"moonshotai/kimi-k2-instruct": {
2223-
"description": "kimi-k2 هو نموذج أساسي مبني على بنية MoE يتمتع بقدرات فائقة في البرمجة والوكيل، مع إجمالي 1 تريليون معلمة و32 مليار معلمة مفعلة. في اختبارات الأداء المعيارية في مجالات المعرفة العامة، البرمجة، الرياضيات، والوكيل، يتفوق نموذج K2 على النماذج المفتوحة المصدر الرئيسية الأخرى."
2224-
},
22252228
"moonshotai/kimi-k2-instruct-0905": {
22262229
"description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
22272230
},

locales/bg-BG/models.json

Lines changed: 7 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -290,6 +290,9 @@
290290
"Pro/moonshotai/Kimi-K2-Instruct": {
291291
"description": "Kimi K2 е базов модел с MoE архитектура с изключителни кодови и агентски способности, с общо 1 трилион параметри и 32 милиарда активирани параметри. В бенчмаркове за общо знание, програмиране, математика и агентски задачи моделът K2 превъзхожда други водещи отворени модели."
292292
},
293+
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
294+
"description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
295+
},
293296
"QwQ-32B-Preview": {
294297
"description": "QwQ-32B-Preview е иновативен модел за обработка на естествен език, способен да обработва ефективно сложни задачи за генериране на диалог и разбиране на контекста."
295298
},
@@ -1778,6 +1781,9 @@
17781781
"imagen-4.0-ultra-generate-preview-06-06": {
17791782
"description": "Imagen 4-то поколение текст-към-изображение модел серия Ултра версия"
17801783
},
1784+
"inclusionAI/Ling-mini-2.0": {
1785+
"description": "Ling-mini-2.0 е малък, високопроизводителен голям езиков модел, базиран на MoE архитектура. Той разполага с 16 милиарда общи параметри, но за всеки токен се активират само 1.4 милиарда (без вграждания 789 милиона), което осигурява изключително висока скорост на генериране. Благодарение на ефективния MoE дизайн и големия обем висококачествени тренировъчни данни, въпреки че активните параметри са само 1.4 милиарда, Ling-mini-2.0 демонстрира водещи резултати в задачи надолу по веригата, сравними с плътни LLM с по-малко от 10 милиарда параметри и по-големи MoE модели."
1786+
},
17811787
"internlm/internlm2_5-7b-chat": {
17821788
"description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии."
17831789
},
@@ -2214,14 +2220,11 @@
22142220
"description": "Kimi K2 е базов модел с MoE архитектура, с изключителни кодови и агентски способности, общо 1 трилион параметри и 32 милиарда активирани параметри. В бенчмаркове за общо знание, програмиране, математика и агентски задачи моделът K2 превъзхожда други водещи отворени модели."
22152221
},
22162222
"moonshotai/Kimi-K2-Instruct-0905": {
2217-
"description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2223+
"description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
22182224
},
22192225
"moonshotai/kimi-k2-0905": {
22202226
"description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
22212227
},
2222-
"moonshotai/kimi-k2-instruct": {
2223-
"description": "kimi-k2 е базов модел с MoE архитектура с изключителни способности за кодиране и агент, с общо 1 трилион параметри и 32 милиарда активни параметри. В бенчмаркови тестове за общи знания, програмиране, математика и агенти, моделът K2 превъзхожда други водещи отворени модели."
2224-
},
22252228
"moonshotai/kimi-k2-instruct-0905": {
22262229
"description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
22272230
},

locales/de-DE/models.json

Lines changed: 7 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -290,6 +290,9 @@
290290
"Pro/moonshotai/Kimi-K2-Instruct": {
291291
"description": "Kimi K2 ist ein MoE-Architektur-Basis-Modell mit herausragenden Code- und Agentenfähigkeiten, insgesamt 1 Billion Parameter und 32 Milliarden aktivierten Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agentenaufgaben übertrifft das K2-Modell andere führende Open-Source-Modelle."
292292
},
293+
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
294+
"description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
295+
},
293296
"QwQ-32B-Preview": {
294297
"description": "QwQ-32B-Preview ist ein innovatives Modell für die Verarbeitung natürlicher Sprache, das komplexe Aufgaben der Dialoggenerierung und des Kontextverständnisses effizient bewältigen kann."
295298
},
@@ -1778,6 +1781,9 @@
17781781
"imagen-4.0-ultra-generate-preview-06-06": {
17791782
"description": "Imagen 4. Generation Text-zu-Bild Modellserie Ultra-Version"
17801783
},
1784+
"inclusionAI/Ling-mini-2.0": {
1785+
"description": "Ling-mini-2.0 ist ein kleines, leistungsstarkes großes Sprachmodell basierend auf der MoE-Architektur. Es verfügt über 16 Milliarden Gesamtparameter, aktiviert jedoch pro Token nur 1,4 Milliarden (nicht-Embedding 789 Millionen), was eine extrem hohe Generierungsgeschwindigkeit ermöglicht. Dank des effizienten MoE-Designs und umfangreicher, qualitativ hochwertiger Trainingsdaten zeigt Ling-mini-2.0 trotz nur 1,4 Milliarden aktivierter Parameter Spitzenleistungen bei nachgelagerten Aufgaben, die mit dichten LLMs unter 10 Milliarden und größeren MoE-Modellen vergleichbar sind."
1786+
},
17811787
"internlm/internlm2_5-7b-chat": {
17821788
"description": "InternLM2.5 bietet intelligente Dialoglösungen in mehreren Szenarien."
17831789
},
@@ -2214,14 +2220,11 @@
22142220
"description": "Kimi K2 ist ein MoE-Basis-Modell mit herausragenden Code- und Agentenfähigkeiten, insgesamt 1 Billion Parameter und 32 Milliarden aktivierten Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agentenaufgaben übertrifft das K2-Modell andere führende Open-Source-Modelle."
22152221
},
22162222
"moonshotai/Kimi-K2-Instruct-0905": {
2217-
"description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2223+
"description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
22182224
},
22192225
"moonshotai/kimi-k2-0905": {
22202226
"description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
22212227
},
2222-
"moonshotai/kimi-k2-instruct": {
2223-
"description": "kimi-k2 ist ein MoE-Architektur-Basismodell mit außergewöhnlichen Fähigkeiten in Code und Agenten, mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agenten übertrifft das K2-Modell andere führende Open-Source-Modelle."
2224-
},
22252228
"moonshotai/kimi-k2-instruct-0905": {
22262229
"description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
22272230
},

0 commit comments

Comments
 (0)