يطلب Google وOpenAI تعزيز القيود على استخدام الذكاء الاصطناعي في المجال العسكري

يطلب Google وOpenAI تعزيز القيود على استخدام الذكاء الاصطناعي في المجال العسكري

14 software

تتحد العمالقة التكنولوجيون لحماية أنفسهم من الضغوط العسكرية

نشرت موظفو شركات Google وOpenAI رسالة مفتوحة بعنوان «لن نُقسّم». جمع فيها ما يقرب من 900 توقيع، معظمها حوالي مئة موظف من OpenAI ومئات ممثلين من Google. الهدف هو دعوة إلى فرض قيود أكثر صرامة على استخدام الذكاء الاصطناعي في الأغراض العسكرية.

لماذا نشأت التوترات
* أدرج وزارة الدفاع الأمريكية (MO) تقنيات شركة Anthropic ضمن القائمة السوداء، بعد أن رفضت الشركة السماح باستخدامها للمراقبة الجماعية والأسلحة ذاتية التشغيل بالكامل.
* تُعَدّ الرسالة انتقاداً لاستراتيجية الوزارة: «يحاولون تقسيم كل شركة…». يهدف مؤلفو الرسالة إلى خلق تفاهم وتضامن بين الشركات التكنولوجية ردًا على الضغط الحكومي.

ردود فعل واسعة في الصناعة
* خلال الأشهر الأخيرة طالبت الصناعة بزيادة الشفافية في التعامل مع الحكومة، خاصةً عندما يتعلق الأمر بعقود الخدمات السحابية والذكاء الاصطناعي.
* تواجه Google انتقادات بسبب المفاوضات المتصورة مع البنتاغون لتطبيق نموذج Gemini في نظام عسكري سري.

محامو الحقوق
* في يوم الجمعة أصدرت مجموعة No Tech For Apartheid بيانًا يقول: «يجب على Amazon وGoogle وMicrosoft رفض مطالب البنتاغون».
* يعتقدون أن هذه الشركات قد تشارك في المراقبة الجماعية وممارسات غير قانونية أخرى.
* تشير المجموعة إلى صفقة محتملة مع البنتاغون، مقارنةً إياها باتفاق Grok من xAI الذي يسمح للوزارة بنشر الذكاء الاصطناعي «في بيئات سرية دون قيود».

رسالة مفتوحة دعمًا لـ Anthropic
* مئات موظفين من شركات مختلفة (OpenAI وSalesforce وDatabricks وIBM وCursor وغيرها) وقعوا على رسالة مفتوحة إلى وزارة الدفاع.
* تطلب الرسالة إلغاء وضع Anthropic كـ «خطر لسلسلة الإمداد».
* كما تقترح الكونغرس دراسة ضرورة تطبيق صلاحيات استثنائية ضد الشركات التكنولوجية الأمريكية.

داخل Google
* الأسبوع الماضي، أكثر من مئة موظف يعملون على الذكاء الاصطناعي توجهوا إلى الإدارة معقلقين بشأن تعاون الشركة مع وزارة الدفاع.
* يطالبون بوضع «خطوط حمراء» مماثلة لتلك التي اعتمدتها Anthropic.
* يدّعي جيف دين، الباحث العلمي الرئيسي في Google، أن المراقبة الجماعية تنتهك التعديل الرابع وتهدد حرية التعبير.
* يشير إلى ميل أنظمة المراقبة للانحرافات السياسية والتمييز.

تاريخ النزاعات
* في عام 2018 واجهت Google ثورة من آلاف الموظفين بسبب مشروع Maven – برنامج البنتاغون يستخدم الذكاء الاصطناعي لتحليل فيديوهات الطائرات بدون طيار.
* بعد ذلك، وضعت الشركة «مبادئ الذكاء الاصطناعي» التي تنظم استخدام هذه التقنيات.
* في عام 2024 قامت Google بطرد أكثر من 50 موظفًا عقب احتجاجات حول مشروع Nimbus، عقد مشترك مع Amazon بمبلغ مليون دولار.

الخلاصة
تواصل العمالقة التكنولوجيون الكفاح من أجل الشفافية والاستخدام الأخلاقي للذكاء الاصطناعي. تُظهر الرسائل المفتوحة والمظاهرات الجماعية والمتطلبات بشأن «الخطوط الحمراء» تزايد القلق بين المتخصصين: يرغبون في ضمان أن التطبيقات العسكرية للذكاء الاصطناعي ستظل ضمن إطار القانون وحقوق الإنسان.

التعليقات (0)

شارك أفكارك — يرجى الالتزام بالأدب والبقاء ضمن الموضوع.

لا توجد تعليقات بعد. اترك تعليقًا وشارك رأيك!

لترك تعليق، يرجى تسجيل الدخول.

سجّل الدخول للتعليق