أحذّر البنتاغون المقاولين من العمل مع Anthropic، بينما ستستمر مايكروسوفت في تزويد العملاء بالوصول
مختصر عن آخر الأخبار:
ما حدث أدى إلى ذلك انعكاس وزارة الدفاع الأمريكية (وزارة الحرب) – "انتقلت للموضوع" هذا الأسبوع أعلنت أن شركة Anthropic الآن تعتبر مزودًا غير موثوق به للذكاء الاصطناعي وأحرم جميع المقاولين من حق العمل مع هذه الشركة الناشئة. مايكروسوفت وعملاؤها: قام محامو مايكروسوفت بتحليل القوانين وخلصوا إلى أنه يمكن لمستخدميهم الاستمرار في استخدام نماذج Anthropic عبر برامج الشركة الخاصة. القطاع الدفاعي الأمريكي: أصدرت بعض الشركات أوامر للموظفين بالتخلي عن حلول Anthropic لصالح منصات ذكاء اصطناعي بديلة. وفقًا للقانون، كان بإمكانهم القيام بذلك خلال ستة أشهر، لكن للموظفين الحكوميين يجب أن يكون التخلي فوريًا. موقف مايكروسوفت: 1) لا يمكن لموظفي وزارة الدفاع استخدام منتجات Anthropic عبر التكامل مع حلول مايكروسوفت (بما في ذلك روبوت الدردشة Claude). 2) إذا كان عمل العملاء مع مايكروسوفت غير متعلق بالدفاع، فهم أحرار في استخدام Anthropic في Microsoft 365، GitHub و AI Foundry. كيف يعمل عمليًا: - التكامل من خريف الماضي: قامت مايكروسوفت بالفعل بدمج حلول Anthropic في خدماتها، لكنها لم تنفصل عن OpenAI – المستثمر الذي يملك حصة كبيرة منذ فترة طويلة. - GitHub Copilot AI: يمكن للمطورين استخدام Claude عبر GitHub Copilot AI، بالإضافة إلى الوصول إلى Codex من OpenAI. هذا يتيح لهم التبديل بين المنصات حسب رغبتهم. - Microsoft 365 Copilot (من أكتوبر): يمكن لعملاء Microsoft 365 منذ بداية أكتوبر اختيار بين حلول Anthropic وOpenAI ضمن Copilot دون قيود إذا كان نشاطهم غير متعلق بالدفاع. الخلاصة: أخرجت وزارة الدفاع الأمريكية Anthropic من قائمة المزودين الموثوق بهم للذكاء الاصطناعي، لكن مايكروسوفت لا تزال توفر لعملائها إمكانية الوصول إلى هذه النماذج عبر خدماتها الخاصة، شريطة ألا تكون مرتبطة بالمهام العسكرية. وفي الوقت نفسه يُلزم موظفو الوزارة بالتخلي عن استخدام منتجات Anthropic فورًا.
التعليقات (0)
شارك أفكارك — يرجى الالتزام بالأدب والبقاء ضمن الموضوع.
سجّل الدخول للتعليق