سيقوم جوجل بدمج ميزة تتبع الحالة النفسية في روبوت الدردشة Gemini
جوجل تعزز دعم الصحة النفسية في روبوت الدردشة جيميني
أعلنت شركة جوجل عن خطط لإضافة ميزات إلى روبوتها الجديد للذكاء الاصطناعي جيميني تهدف إلى حماية المستخدمين من الأزمات العاطفية والاعتداء على الذات. تم اتخاذ القرار بعد أن واجه المنافسون، بما في ذلك OpenAI، دعاوى قضائية تتعلق بالضرر المزعوم الناتج عن بوتاتهم.
ما الجديد في جيميني
الوظيفة | الوصف
إعادة توجيه إلى الخط الساخن | عند اكتشاف علامات أفكار انتحارية أو سلوكيات ضارّة، يقترح البوت تلقائيًا الاتصال بدعم الأزمة.
وحدة "المساعدة متاحة" | تظهر قسمًا منفصلًا في محادثات الصحة النفسية حيث يمكن للمستخدم الحصول على توصيات وموارد للمعالجة الذاتية.
تغييرات التصميم | تم تعديل واجهة المستخدم لتقليل خطر تحفيز الاعتداء على الذات (على سبيل المثال، تمت إزالة المحفزات البصرية).
لماذا تقوم جوجل بذلك
- دعاوى قضائية ضد المنافسين: أجابت OpenAI وشركات أخرى بالفعل على اتهامات تسبب الضرر للمستخدمين.
- مخاطر للمستخدمين: شهدت السنوات الأخيرة زيادة في حالات تطور علاقات متطفلة مع روبوتات الذكاء الاصطناعي، مما قد يؤدي إلى اضطرابات نفسية أو حتى جرائم و انتحارات.
- ملاحظات في الولايات المتحدة: يدرس الكونغرس التهديدات التي قد تشكلها الروبوتات للأطفال والمراهقين.
مثال على قضية قضائية
في مارس، قدمت عائلة رجل أمريكي يبلغ من العمر 36 عامًا المتوفى دعوى ضد جوجل. ادّعت أن تفاعل الرجل مع جيميني شمل "انغماسًا لمدة أربعة أيام في سلوكيات عنيفة" وأسفر عن انتحاره. قالت جوجل إن البوت وجه المستخدم عدة مرات إلى خط الأزمة، لكنها وعدت بتعزيز إجراءات الأمان.
كيف تستجيب جوجل للمعلومات الكاذبة
أبلغ بعض المستخدمين أن الروبوتات قدمت معلومات غير صحيحة تشجع على سلوكيات خطرة. ردًا على ذلك، قامت جوجل بتدريب جيميني:
- عدم دعم المعتقدات الزائفة: يرفض البوت تأكيد الادعاءات الخاطئة.
- التأكيد على الفرق بين الخبرة الذاتية والحقائق الموضوعية: إذا لزم الأمر، يشير البوت بلطف إلى عدم موثوقية المعلومات.
بهذه الطريقة تسعى جوجل لجعل جيميني أداة أكثر أمانًا، محافظًا على الصحة النفسية للمستخدمين من المخاطر المحتملة المرتبطة بروبوتات الذكاء الاصطناعي.
التعليقات (0)
شارك أفكارك — يرجى الالتزام بالأدب والبقاء ضمن الموضوع.
سجّل الدخول للتعليق