اختار البنتاغون نماذج OpenAI لاستخدامها في الذكاء الاصطناعي، متجاوزاً Anthropic

اختار البنتاغون نماذج OpenAI لاستخدامها في الذكاء الاصطناعي، متجاوزاً Anthropic

9 hardware

اتفاق بين شركة OpenAI والقطاع الدفاعي الأمريكي: مرحلة جديدة في الصراع مع Anthropic

في مساء يوم الجمعة، أعلن سام ألتمان، رئيس شركة OpenAI، عن إبرام تفاهم مع وزارة الدفاع الأمريكية لتكييف حلول OpenAI وفقًا لاحتياجات الوزارة. جاء ذلك ردًا على النزاع الأخير الذي نشأ بسبب رفض شركة Anthropic السماح للقطاع الدفاعي باستخدام تطويراتها دون قيود أخلاقية صارمة.

ما حدث
1. عقد مع وزارة الدفاع

- اتفقت OpenAI ووزارة الدفاع على شروط استخدام تقنيات الشركة في الأنظمة السرية.
- أكد ألتمان أن الوزارة أظهرت احترامًا عميقًا لمسائل الأمن خلال جميع مراحل التعاون، وأنها تسعى للتعاون.

2. سبب النزاع مع Anthropic

- رفضت Anthropic التوصل إلى اتفاق بمبلغ 200 مليون دولار لأنها لم توافق على إزالة قيودها الأخلاقية.
- نتيجة لذلك أدرجت الوزارة Anthropic في قائمة الموردين "المشكوك فيهم" خوفًا من تهديد الأمن القومي. وأمرت جميع الهيئات الحكومية بوقف استخدام روبوت الدردشة Claude والبحث عن بديل خلال ستة أشهر.

الشروط الرئيسية للتعاون مع OpenAI
- حظر المراقبة الجماعية: لن تُستخدم الذكاء الاصطناعي للأنظمة التي تراقب المواطنين الأمريكيين على نطاق واسع.
- قيود الأسلحة الذاتية القيادة: لا يُسمح بالتحكم في أنظمة قتالية ذاتية بالكامل قادرة على القضاء على البشر دون تدخل بشري.

أعلن ألتمان أن OpenAI سيضمن الالتزام بهذه المبادئ من قبل وزارة الدفاع، مع وجود فريق متخصص مستقل من OpenAI للإشراف على ذلك.

دعوة للتوحيد
طلب سام ألتمان من وزارة الدفاع توسيع شروط التعاون المماثلة لتشمل جميع الشركات في مجال الذكاء الاصطناعي، بهدف القضاء على التناقضات مع اللاعبين الآخرين في السوق.

رد Anthropic
أبدى ممثلو Anthropic خيبة أمل عميقة بقرار الوزارة بإدراج شركتهم ضمن قائمة الموردين غير الموثوق بهم. احتفظت الشركة بحق الطعن في هذا القرار أمام المحكمة.

التعليقات (0)

شارك أفكارك — يرجى الالتزام بالأدب والبقاء ضمن الموضوع.

لا توجد تعليقات بعد. اترك تعليقًا وشارك رأيك!

لترك تعليق، يرجى تسجيل الدخول.

سجّل الدخول للتعليق