أحذرت شركة Anthropic: ستتحول نموذج Claude Mythos المستقبلي إلى "فاندر فاهو" للهاكرز.
تهديدات إلكترونية من نماذج الذكاء الاصطناعي الجديدة: ما يجب على الشركات معرفته
ما الذي يغيّر الوضع؟ تحضّر Anthropic نموذج Claude Mythos، والذي يعد بنظام مستقل ودقيق ومعقد للوصول إلى الأنظمة المؤسسية والحكومية والبلدية. وفقًا لتقدير Axios، سيزداد خطر الهجمات الضخمة باستخدامه بشكل كبير في عام 2026. تُشير تصريحات "التقدم" إلى أن Mythos يتفوق بالفعل على أي نماذج موجودة من حيث القدرات الإلكترونية ويستشرف موجة هجمات ستسبق جهود الدفاع.
أول أمثلة واقعية
في نهاية عام 2025، استخدمت مجموعة مدعومة من الدولة الصينية وكلاء الذكاء الاصطناعي للقرصنة المستقلة في نحو 30 هدفًا حول العالم. كان الذكاء الاصطناعي يسيطر على 80٪ إلى 90٪ من الإجراءات التكتيكية.
قدرات جديدة لأنظمة الوكلاء
تمكن النماذج الحديثة الوكلاء من التفكير والعمل والارتجال دون توقف. الآن يعتمد حجم الهجوم ليس على حجم الفريق، بل على قدرات الحوسبة للمهاجم. يمكن لشخص واحد تنظيم هجوم إلكتروني معقد.
زيادة ضعف الشركات
يبدأ الموظفون في تشغيل Claude وCopilot وغيرها من نماذج الوكلاء من أجهزتهم الشخصية، مما يخلق وكلاء خاصين بهم دون الرقابة الكافية. هذا يفتح قناة اختراق جديدة للمجرمين – "الذكاء الاصطناعي المظلم".
تقييم الخبراء
أظهر استطلاع Dark Reading أن 48٪ من خبراء الأمن السيبراني يرون أن الذكاء الاصطناعي الوكيل هو الاتجاه الرئيسي للهجمات في عام 2026، حتى أعلى من الديب فايك وغيرها من المخاطر.
ما الذي يجب فعله الآن
1. فهم الخطر – يجب على كل موظف إدراك خطر استخدام وكلاء الذكاء الاصطناعي بجانب المعلومات السرية.
2. البيئات المعزولة – يجب أن تتم العمل مع الذكاء الاصطناعي الوكيل في بيئات آمنة ومعزولة دون وصول مباشر إلى الأنظمة الحيوية.
3. الرقابة والتدقيق – نفذ سياسات صارمة للرقابة على إنشاء واستخدام وكلاء الذكاء الاصطناعي داخل المنظمة.
4. تدريب الموظفين – أجرِ تدريبات دورية حول الاستخدام الآمن للتقنيات الجديدة.
يُعترف بهذا التهديد كأحد أكبر تهديدات للشركات حاليًا، لذا يجب أن تصبح الاستعداد له أولوية في استراتيجية الأمن المعلوماتي.
التعليقات (0)
شارك أفكارك — يرجى الالتزام بالأدب والبقاء ضمن الموضوع.
سجّل الدخول للتعليق