يقوم Copilot بمراجعة رسائل المستخدمين الخاصة متجاوزاً الحماية – وقد اعترفت مايكروسوفت أن ذلك خطأ.
اكتشفت مايكروسوفت خطأً في Copilot يسبب تلخيص الرسائل الخاصة
وفقًا لإشعار الشركة الرسمي، بدأ الخطأ في Microsoft 365 Copilot من بداية يناير في جعل المساعد الذكي يلخص تلقائيًا محتوى رسائل البريد الإلكتروني للمستخدمين. تجاوز ذلك سياسات منع فقدان البيانات (DLP) التي تستخدمها المؤسسات لحماية المعلومات الحساسة.
ما الذي حدث بالضبط
* تم تسجيل الخطأ رقم CW1226326 في 21 يناير ويؤثر على وظيفة الدردشة في علامة Copilot العملية.
* نتيجة لذلك، كان الخوارزمية تقرأ غير صحيحًا رسائل البريد الإلكتروني الموجودة في مجلدات «المرسلة» و«النسخ الاحتياطية»، بما في ذلك الرسائل التي تم وضع علامة عليها كـ«سريّة» (وهي تمنع الوصول لأدوات الأتمتة).
* تقول رسالة مايكروسوفت: *«يتم معالجة رسائل البريد الإلكتروني للمستخدمين المعلّمة بـ «سري» بطريقة غير صحيحة بواسطة Microsoft 365 Copilot Chat». وتؤكد أيضًا أن الذكاء الاصطناعي يملخ الرسائل حتى مع وجود علامة السرية أو سياسة DLP.
كيف تتفاعل مايكروسوفت
* لاحقًا أكدت الشركة أن السبب هو خطأ في الكود وبدأت العمل على تصحيح في بداية فبراير.
* حتى منتصف الأسبوع الحالي، أبلغت مايكروسوفت أنها تتابع نشر الإصلاح وتواصل مع المستخدمين المتأثرين لتقييم جودة التحديث.
ما لا يزال غير معروف
لم تحدد مايكروسوفت بعد مواعيد إصلاح الخطأ بالكامل ولم تكشف عن عدد المستخدمين أو المؤسسات التي تأثرت. وتشير التقارير إلى أن نطاق المشكلة قد يتغير أثناء التحقيق.
التعليقات (0)
شارك أفكارك — يرجى الالتزام بالأدب والبقاء ضمن الموضوع.
سجّل الدخول للتعليق