جوجل وأوبن أي آي يدعمان أنثروبيك في صراعها مع البنتاغون، ويشارك مئات الموظفين فيها
ملخص الحدث
استمرت الأسبوع في مركز الاهتمام بسبب الخلافات بين شركة Anthropic ووزارة الدفاع الأمريكية (MoD). طالبت الحكومة بتطبيق أوسع للذكاء الاصطناعي مما تسمح به قواعد المطور. ردًا على ذلك، أعرب مئات من موظفي OpenAI وجوجل عن دعمهم لـ Anthropic، متضادين "الاستخدام غير المسيطر" للذكاء الاصطناعي العسكري.
1. ما حدث
العنصر تفاصيل أطراف النزاع *Anthropic* (مطور نموذج Claude) ↔ وزارة الدفاع الأمريكية طلب الحكومة استخدام موسع للذكاء الاصطناعي في المهام العسكرية، بما في ذلك جمع بيانات المواطنين وأنظمة الأسلحة المستقلة. موقف Anthropic حظر استخدام Claude للمراقبة على المواطنين الأمريكيين والأنظمة التدميرية الآلية بدون رقابة بشرية.
2. رد الصناعة
* في رسالة مفتوحة بعنوان «لا يمكن تقسيمنا»، دعا موظفو OpenAI وجوجل شركاتهم للاتحاد ضد استخدام الذكاء الاصطناعي للمراقبة والتدمير المستقل.
* تم توقيع عريضة من أكثر من 450 موظفًا (حوالي نصفهم كشفوا أسمائهم) تقريبًا، وقد شكلها ممثلو Google بالكامل.
* الموقّعون: جميع موظفي OpenAI أو Google، دون تحديد الانتماء إلى شركات الذكاء الاصطناعي، الأحزاب السياسية أو غيرها من المنظمات.
3. العواقب على Anthropic
* بعد رفضه منح البنتاغون "وصولًا غير محدود" إلى Claude، تم إدراج الشركة في القائمة السوداء.
* يجب على المقاولين الأمريكيين الذين يعملون بعقود عسكرية الآن التوقف عن استخدام Claude والبحث عن بديل خلال ستة أشهر.
* يجرى البنتاغون حاليًا مفاوضات مع OpenAI وجوجل ولديه عقد ساري مع xAI لاستخدام روبوت الدردشة Grok للأنظمة السرية.
4. تعليقات الإدارة
* سام ألتمان (OpenAI): أعلن استعداده لاتباع مبادئ Anthropic وأكد أن التهديدات من البنتاغون «غير ملائمة» لجميع المشاركين في السوق.
الخلاصة:
أدت الخلافات بين Anthropic والحكومة إلى إدراج الشركة في القائمة السوداء، بينما أظهرت صناعة الذكاء الاصطناعي تضامنًا مع موقف حماية الخصوصية والسيطرة على التكنولوجيا العسكرية. يواصل البنتاغون البحث عن بدائل ويجري مفاوضات مع اللاعبين الرئيسيين في السوق.
التعليقات (0)
شارك أفكارك — يرجى الالتزام بالأدب والبقاء ضمن الموضوع.
سجّل الدخول للتعليق