في 11 فبراير، أطلقت شركة Zhipu رسميًا الجيل الجديد من النموذج الرائد GLM-5، والذي يركز على البرمجة وقدرات الوكيل الذكي، وذكرت الشركة أنه حقق أفضل أداء في مجال المصادر المفتوحة. يعد هذا الإصدار خطوة مهمة بعد DeepSeek، ويأتي ضمن فعاليات موسم عيد الربيع لنماذج الذكاء الاصطناعي المحلية.
تم توسيع حجم معلمات GLM-5 من الجيل السابق الذي كان 355 مليار إلى 744 مليار، وارتفع عدد المعلمات النشطة من 32 مليار إلى 40 مليار. وأكدت شركة Zhipu أن النموذج الغامض “Pony Alpha”، الذي تصدر قائمة الشعبية على منصة خدمات النماذج العالمية OpenRouter، هو في الواقع GLM-5.
أظهرت التقييمات الداخلية أن أداء GLM-5 في سيناريوهات البرمجة والتطوير، مثل الواجهة الأمامية والخلفية والمهام الطويلة، قد زاد بمعدل يزيد عن 20% مقارنة بالجيل السابق، مع اقترابه من مستوى Claude Opus 4.5 في تجربة البرمجة الحقيقية. وقد تم إطلاق النموذج على منصة chat.z.ai. ويعد هذا الإصدار علامة على أن النماذج الكبيرة المحلية تقترب باستمرار من المستوى العالمي من حيث التقنية والأداء، وتوفر خيارًا مفتوح المصدر للمطورين.
تضاعف حجم المعلمات وتوسعة البيانات التدريبية بشكل كبير
حقق النموذج الرائد الجديد GLM-5 ترقية رئيسية في بنية النموذج. حيث تم توسيع حجم المعلمات من 355 مليار (مع 32 مليار نشطة) إلى 744 مليار (مع 40 مليار نشطة)، وزاد حجم البيانات التدريبية من 23 تيرابايت إلى 28.5 تيرابايت، مما يعزز بشكل كبير القدرات الذكية العامة بفضل استثمار أكبر في الحوسبة.
أدخل النموذج لأول مرة آلية الانتباه المتناثر DeepSeek، التي تحافظ على جودة معالجة النصوص الطويلة مع تقليل تكاليف النشر وزيادة كفاءة استخدام الرموز. وتتماشى هذه التقنية مع إصدارات DeepSeek-V3 وV3.2.
أما من حيث التكوين، فبنى GLM-5 من 78 طبقة مخفية، ويحتوي على 256 وحدة خبراء، يتم تفعيل 8 منها في كل مرة، مع حوالي 44 مليار معلمة نشطة، ودرجة التشتت 5.9%، ويدعم نافذة سياق تصل إلى 202 ألف رمز.
تحسينات ملحوظة في قدرات البرمجة
حقق النموذج الرائد الجديد GLM-5 أداءً متميزًا في تقييم Claude Code الداخلي. في سيناريوهات البرمجة والتطوير، مثل الواجهة الأمامية والخلفية والمهام الطويلة، تفوق بشكل كامل على الجيل السابق GLM-4.7، مع زيادة الأداء بمعدل يزيد عن 20%.
يستطيع GLM-5 إتمام مهام التخطيط والتنفيذ الطويلة والمعقدة، مثل إعادة الهيكلة الخلفية والتصحيح العميق، مع تدخل بشري قليل جدًا، ويقترب من مستوى Claude Opus 4.5 في بيئة البرمجة الحقيقية.
تعتبر Zhipu أن GLM-5 هو النموذج الرائد الجديد للمحادثة والبرمجة والوكيل الذكي، مع تركيز خاص على قدراته في التعامل مع الأنظمة المعقدة والمهام الطويلة للوكيل.
تحقيق أداء مفتوح المصدر متميز في قدرات الوكيل
حقق GLM-5 أعلى أداء في قدرات الوكيل على مستوى المصادر المفتوحة، حيث تصدر العديد من معايير التقييم. في اختبارات BrowseComp (البحث عبر الإنترنت وفهم المعلومات)، MCP-Atlas (استدعاء الأدوات الشامل من طرف إلى طرف)، وτ2-Bench (تخطيط وتنفيذ أدوات الوكيل التلقائي في سيناريوهات معقدة)، حقق النموذج أفضل النتائج.
ولتحقيق قفزات في القدرات، أنشأت الشركة إطار تدريب جديد يسمى “Slime”، يدعم نماذج أكبر وأكثر تعقيدًا من التعلم المعزز، مما يحسن بشكل كبير من كفاءة عمليات التدريب بعد التمرين.
بالإضافة إلى ذلك، اقترحت Zhipu خوارزمية التعلم المعزز للوكيل غير المتزامن، التي تتيح للنموذج التعلم المستمر من التفاعلات الطويلة، مما يعزز الإمكانات العميقة للنموذج المدرب مسبقًا. وأصبحت هذه الآلية واحدة من الميزات التقنية الأساسية لـ GLM-5.
إصدارات مكثفة من النماذج الكبيرة المحلية خلال موسم عيد الربيع
إطلاق Zhipu Qingyan GLM-5 يمثل أحدث علامة على المنافسة المكثفة في سوق النماذج الكبيرة المحلية خلال موسم عيد الربيع. وفي نفس المساء، أطلقت Minimax إصدارها Minimax 2.5، بعد أقل من شهر على إصدار النسخة السابقة 2.2.
وقد تصاعدت وتيرة الإصدارات بشكل ملحوظ. حيث أطلقت DeepSeek نماذج جديدة، وظهرت منتجات مثل Qwen 3.5 من Alibaba وSeeDance 2.0 من ByteDance، في الفترة الأخيرة. وتختار العديد من الشركات بشكل متزامن تقديم نماذج جديدة خلال موسم الربيع، مما يعكس دخول سوق النماذج الكبيرة المحلية إلى مرحلة المنافسة الشرسة.
حتى الآن، لم يتم الكشف بشكل كامل عن الوثائق التقنية التفصيلية لـ GLM-5 وMinimax 2.5، ولا تزال أداؤها الفعلي قيد التحقق من قبل مجتمع المطورين والمؤسسات المختصة.
تحذيرات المخاطر وشروط الإعفاء
السوق محفوف بالمخاطر، ويجب الحذر عند الاستثمار. لا تشكل هذه المقالة نصيحة استثمارية شخصية، ولم تأخذ في الاعتبار الأهداف أو الحالة المالية أو الاحتياجات الخاصة للمستخدمين. يجب على المستخدمين تقييم مدى توافق الآراء والوجهات النظر الواردة مع ظروفهم الخاصة. يتحمل المستخدمون مسؤولية استثماراتهم بناءً على ذلك.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
智谱 إصدار الجيل الجديد من النموذج الرائد GLM-5، مع التركيز على تحسين قدرات البرمجة والوكيل الذكي
في 11 فبراير، أطلقت شركة Zhipu رسميًا الجيل الجديد من النموذج الرائد GLM-5، والذي يركز على البرمجة وقدرات الوكيل الذكي، وذكرت الشركة أنه حقق أفضل أداء في مجال المصادر المفتوحة. يعد هذا الإصدار خطوة مهمة بعد DeepSeek، ويأتي ضمن فعاليات موسم عيد الربيع لنماذج الذكاء الاصطناعي المحلية.
تم توسيع حجم معلمات GLM-5 من الجيل السابق الذي كان 355 مليار إلى 744 مليار، وارتفع عدد المعلمات النشطة من 32 مليار إلى 40 مليار. وأكدت شركة Zhipu أن النموذج الغامض “Pony Alpha”، الذي تصدر قائمة الشعبية على منصة خدمات النماذج العالمية OpenRouter، هو في الواقع GLM-5.
أظهرت التقييمات الداخلية أن أداء GLM-5 في سيناريوهات البرمجة والتطوير، مثل الواجهة الأمامية والخلفية والمهام الطويلة، قد زاد بمعدل يزيد عن 20% مقارنة بالجيل السابق، مع اقترابه من مستوى Claude Opus 4.5 في تجربة البرمجة الحقيقية. وقد تم إطلاق النموذج على منصة chat.z.ai. ويعد هذا الإصدار علامة على أن النماذج الكبيرة المحلية تقترب باستمرار من المستوى العالمي من حيث التقنية والأداء، وتوفر خيارًا مفتوح المصدر للمطورين.
تضاعف حجم المعلمات وتوسعة البيانات التدريبية بشكل كبير
حقق النموذج الرائد الجديد GLM-5 ترقية رئيسية في بنية النموذج. حيث تم توسيع حجم المعلمات من 355 مليار (مع 32 مليار نشطة) إلى 744 مليار (مع 40 مليار نشطة)، وزاد حجم البيانات التدريبية من 23 تيرابايت إلى 28.5 تيرابايت، مما يعزز بشكل كبير القدرات الذكية العامة بفضل استثمار أكبر في الحوسبة.
أدخل النموذج لأول مرة آلية الانتباه المتناثر DeepSeek، التي تحافظ على جودة معالجة النصوص الطويلة مع تقليل تكاليف النشر وزيادة كفاءة استخدام الرموز. وتتماشى هذه التقنية مع إصدارات DeepSeek-V3 وV3.2.
أما من حيث التكوين، فبنى GLM-5 من 78 طبقة مخفية، ويحتوي على 256 وحدة خبراء، يتم تفعيل 8 منها في كل مرة، مع حوالي 44 مليار معلمة نشطة، ودرجة التشتت 5.9%، ويدعم نافذة سياق تصل إلى 202 ألف رمز.
تحسينات ملحوظة في قدرات البرمجة
حقق النموذج الرائد الجديد GLM-5 أداءً متميزًا في تقييم Claude Code الداخلي. في سيناريوهات البرمجة والتطوير، مثل الواجهة الأمامية والخلفية والمهام الطويلة، تفوق بشكل كامل على الجيل السابق GLM-4.7، مع زيادة الأداء بمعدل يزيد عن 20%.
يستطيع GLM-5 إتمام مهام التخطيط والتنفيذ الطويلة والمعقدة، مثل إعادة الهيكلة الخلفية والتصحيح العميق، مع تدخل بشري قليل جدًا، ويقترب من مستوى Claude Opus 4.5 في بيئة البرمجة الحقيقية.
تعتبر Zhipu أن GLM-5 هو النموذج الرائد الجديد للمحادثة والبرمجة والوكيل الذكي، مع تركيز خاص على قدراته في التعامل مع الأنظمة المعقدة والمهام الطويلة للوكيل.
تحقيق أداء مفتوح المصدر متميز في قدرات الوكيل
حقق GLM-5 أعلى أداء في قدرات الوكيل على مستوى المصادر المفتوحة، حيث تصدر العديد من معايير التقييم. في اختبارات BrowseComp (البحث عبر الإنترنت وفهم المعلومات)، MCP-Atlas (استدعاء الأدوات الشامل من طرف إلى طرف)، وτ2-Bench (تخطيط وتنفيذ أدوات الوكيل التلقائي في سيناريوهات معقدة)، حقق النموذج أفضل النتائج.
ولتحقيق قفزات في القدرات، أنشأت الشركة إطار تدريب جديد يسمى “Slime”، يدعم نماذج أكبر وأكثر تعقيدًا من التعلم المعزز، مما يحسن بشكل كبير من كفاءة عمليات التدريب بعد التمرين.
بالإضافة إلى ذلك، اقترحت Zhipu خوارزمية التعلم المعزز للوكيل غير المتزامن، التي تتيح للنموذج التعلم المستمر من التفاعلات الطويلة، مما يعزز الإمكانات العميقة للنموذج المدرب مسبقًا. وأصبحت هذه الآلية واحدة من الميزات التقنية الأساسية لـ GLM-5.
إصدارات مكثفة من النماذج الكبيرة المحلية خلال موسم عيد الربيع
إطلاق Zhipu Qingyan GLM-5 يمثل أحدث علامة على المنافسة المكثفة في سوق النماذج الكبيرة المحلية خلال موسم عيد الربيع. وفي نفس المساء، أطلقت Minimax إصدارها Minimax 2.5، بعد أقل من شهر على إصدار النسخة السابقة 2.2.
وقد تصاعدت وتيرة الإصدارات بشكل ملحوظ. حيث أطلقت DeepSeek نماذج جديدة، وظهرت منتجات مثل Qwen 3.5 من Alibaba وSeeDance 2.0 من ByteDance، في الفترة الأخيرة. وتختار العديد من الشركات بشكل متزامن تقديم نماذج جديدة خلال موسم الربيع، مما يعكس دخول سوق النماذج الكبيرة المحلية إلى مرحلة المنافسة الشرسة.
حتى الآن، لم يتم الكشف بشكل كامل عن الوثائق التقنية التفصيلية لـ GLM-5 وMinimax 2.5، ولا تزال أداؤها الفعلي قيد التحقق من قبل مجتمع المطورين والمؤسسات المختصة.
تحذيرات المخاطر وشروط الإعفاء
السوق محفوف بالمخاطر، ويجب الحذر عند الاستثمار. لا تشكل هذه المقالة نصيحة استثمارية شخصية، ولم تأخذ في الاعتبار الأهداف أو الحالة المالية أو الاحتياجات الخاصة للمستخدمين. يجب على المستخدمين تقييم مدى توافق الآراء والوجهات النظر الواردة مع ظروفهم الخاصة. يتحمل المستخدمون مسؤولية استثماراتهم بناءً على ذلك.