تخطط أمازون لنشر نماذج الذكاء الاصطناعي على شرائح Cerebras الضخمة.

تخطط أمازون لنشر نماذج الذكاء الاصطناعي على شرائح Cerebras الضخمة.

10 hardware

أمازون وسيريبراس توحدان قواهما لتسريع نماذج اللغة الكبيرة

أعلنت خدمات أمازون السحابية (AWS) أنها ستبدأ في منتصف عام 2026 باستخدام شرائح شركة سيريبراس سيستمز إنك جنبًا إلى جنب مع معالجاتها الخاصة Trainium. وفقًا لمعلومات الشركة، سيسمح ذلك بإنشاء "ظروف مثالية" لتشغيل وصيانة نماذج اللغة الكبيرة (LLM). لا تزال تفاصيل الجانب المالي للصفقة غير مكشوفة.

ما الذي سيحدث بالضبط
* ستتعامل شرائح Trainium 3 التابعة لـ AWS مع طلبات المستخدمين – "تفهم" معناها.
* ثم تتولى شرائح سيريبراس Wafer‑Scale Engine (WSE) توليد الرد.

بهذا الشكل، يعمل متسعان متخصصان على التوالي ويقدمان حسابات الاستدلال لنماذج اللغة الكبيرة.

> “التفاعل بين المكونات المختلفة عادةً ما يبطئ العملية”، كما يشير نافيـة بشارا، نائب رئيس AWS. – “لكننا نسعى للحصول على ميزة باستخدام شرائح تتعامل مع الاستدلال بسرعة أكبر.”

الميزة ملحوظة بشكل خاص في الأماكن التي تكون فيها سرعة الاستجابة حاسمة: مثل كتابة الكود خطوة بخطوة أو توليد النص في الوقت الحقيقي.

لماذا هذا مهم
* أمازون هي واحدة من أكبر مقدمي الخدمات السحابية ومستخدماً نشطاً لمعالجات GPU من Nvidia. تقوم الشركة حالياً بتطوير شرائح الذكاء الاصطناعي الخاصة بها لتعزيز كفاءة مراكز البيانات وتقديم خدمات فريدة للعملاء.
* بالنسبة لسيريبراس، يُعد التعاون مع AWS أول عقد كبير من عملاق المراكز البيانية، مما يزيد التعرف على العلامة التجارية أمام السوق المحتمل. كما أنه مهم في ظل استعدادهم لطرح أسهمهم العامة (IPO).

النتائج
تعمل AWS وسيريبراس معًا لإنشاء بنية تحتية جديدة لنماذج اللغة الكبيرة: تتعامل شرائح Trainium 3 مع الطلبات، بينما تولد WSE الردود. على الرغم من أن خدمة منفردة تعتمد فقط على Trainium قد تكون أرخص، فإن الحل المدمج يعد بتسريع كبير حيث "الوقت هو المال". هذا يعزز موقع أمازون كلاعب رئيسي لدى Nvidia ويعزز في الوقت نفسه شرائح الذكاء الاصطناعي الخاصة بالشركة نحو كفاءة أعلى.

التعليقات (0)

شارك أفكارك — يرجى الالتزام بالأدب والبقاء ضمن الموضوع.

لا توجد تعليقات بعد. اترك تعليقًا وشارك رأيك!

لترك تعليق، يرجى تسجيل الدخول.

سجّل الدخول للتعليق