الذكاء الاصطناعي التوليدي على الرغم من العديد من التقدم الذي أحرزه حتى الآن إلا أنهُ لا يزال يعاني من العيوب. من السلوكيات المنتقدة لروبوتات الدردشة ذات الذكاء الاصطناعي أنها في بعض الحالات تعطي إجابة تبدو معقولة ولكن في الواقع معلوماتها غير صحيحة؛ وفي هذه الحالة يعاني الذكاء الاصطناعي من الأوهام. ولذا قامت شركة DeepMind Google بإنشاء حل لتقليل هذا العيب.
وفقًا لمسودة بحث أعدتها شركة ديب مايند (DeepMind) وجامعة ستانفورد، طور الباحثون نظامًا يسمى Search Augmented Factuality Evaluator أو SAFE والذي يقوم بفحص الإجابات الطويلة التي تنتجها روبوتات الدردشة التي تعمل بالذكاء الاصطناعي والتحقق من صحتها.
حل ديب مايند لتقليل وهم الذكاء الاصطناعي
يقوم نظام SAFE الخاص بـ DeepMind بتحليل ومعالجة وتقييم استجابات الذكاء الاصطناعي عبر أربع مراحل لقياس دقتها وصحتها. أولاً يقوم النظام (SAFE) بتقسيم إجابة روبوت الذكاء الاصطناعي إلى عبارات أو حقائق فردية ثم بعد مراجعتها يقارنها بنتائج بحث جوجل. يقوم النظام أيضًا بقياس مدى ملاءمة كل عبارة للسؤال الرئيسي.
ولتقييم أداء SAFE أنشأ الباحثون مجموعة بيانات تسمى LongFact وهي عبارة عن مجموعة تضم حوالي 16000 بيان. لاختبار النظام استخدم الباحثون 13 نموذجًا لغويًا كبيرًا من أربع عائلات مختلفة بما في ذلك GPT وGemini وCloud وPaLM-2.
في 72% من الحالات قدم نظام SAFE نفس النتائج التي قدمها المدونون والمراجعون البشريون. وفي الحالات التي لم يكن هناك اتفاق بين النظام والحالات البشرية كان SAFE على صواب في 76% من الحالات. بالإضافة إلى ذلك يدعي الباحثون أن استخدام النظام أرخص بـ 20 مرة من استخدام المراجعين البشريين؛ ولذلك يمكن استخدام هذا النظام كحل فعال من حيث التكلفة على نطاق واسع.