الروبوتات الذكية ترتكب أخطاء في التشخيص بنحو 80٪، كما تبين في الدراسة
ملخص للنتائج البحثية
أظهر دراسة حديثة نشرت في *Jama Network Open* واستشهد بها في *Financial Times* أن الروبوتات الحوارية الشائعة لا تستطيع تشخيص الحالات الطبية بدقة عندما تُعطى مجموعة بيانات محدودة. ففي أكثر من 80٪ من الحالات، كانت النتائج خاطئة، بينما ارتفع الدقة إلى 90٪ فقط عند توفير وصف كامل للأعراض.
كيفية إجراء الدراسة
خطوة | ما تم فعله | اختيار الحالة
---|---|---
اختيار الحالات | 29 سيناريوًّا سريريًّا من الأدبيات المرجعية |
نقل البيانات | تُرسَل معلومات المريض تدريجيًا إلى الروبوتات: تاريخ المرض → نتائج الفحوصات → التحاليل المخبرية |
أسئلة للذكاء الاصطناعي | يُسأل عن التشخيص؛ يتم قياس الدقة والشمولية للإجابات
المشاركون في التجربة
- 20 نموذج شائع من OpenAI، Anthropic، Google، xAI، DeepSeek.
- مع بيانات غير مكتملة، أكثر من 80٪ منهم قدموا تشخيصًا خاطئًا.
- مع زيادة حجم المعلومات، ارتفعت الدقة: أفضل حالات >90٪، ومتوسط الأخطاء أقل من 40٪.
ردود المطورين
| شركة | تعليق |
|---|---|
| Google & Anthropic | عند طلب توصيات طبية، يُنصح بشدة بالرجوع إلى أخصائي. |
| OpenAI | يشير إلى أن شروط الاستخدام تنص على عدم تصميم خدماتهم لتقديم توصيات طبية مرخصة. |
| xAI & DeepSeek | لم يقدموا تعليقات. |
بعضهم يطور نماذج متخصصة: قامت Google بتطوير AMIE، الذي يُظهر نتائج جيدة، لكن استنتاجاته لا تزال تحتاج إلى تأكيد طبيب بشري، خاصةً مع أهمية التقييم البصري.
الاستنتاج
يمكن أن تكون الروبوتات الحوارية أداة مساعدة مفيدة، لكنها غالبًا ما تخطئ عندما يكون المعلومات محدودة. لا يزال استخدامها كبديل للخبير الطبي المؤهل غير مقبول، على الرغم من أنه قد يفيد في المناطق التي تعاني من نقص الوصول إلى الطب التقليدي.
التعليقات (0)
شارك أفكارك — يرجى الالتزام بالأدب والبقاء ضمن الموضوع.
سجّل الدخول للتعليق