رغم تعهد جوجل بإصلاح مشكلة الإجابات الغريبة في ميزة الذكاء الاصطناعي AI Overviews إلا أنّه ظهر مؤخرًا أنّ الميزة لا تزال تُقدّم إجابات خاطئة إذا تمّ صياغة السؤال بطريقة مُحدّدة.
تصدرت ميزة AI Overviews للذكاء الاصطناعي من جوجل عناوين الأخبار بإجاباتها الغريبة، مثل إجابتها التي أقترحت وضع الغراء على البيتزا لتثبت الجبن واقتراح تناول قطعة من الحجر يوميًا. وعلى الرغم من أن عملاق محركات البحث قال إنهُ سيُزيل الإجابات الغريبة للذكاء الاصطناعي إلا أنهُ يبدو أنك إذا قمت بتغيير طريقة السؤال وسألت AI Overviews "ما كمية الغراء التي تحتاجها البيتزا؟" سوف تقترح ميزة الذكاء الاصطناعي هذه استخدام ثُمن كوب من الغراء!
وعرض موقع «ذا فيرج» لقطة الشاشة التي في الأعلى، توضح إجابة ميزة الذكاء الاصطناعي AI Overviews من جوجل والمتواجدة في محرك البحث، على سؤال "ما هي كمية الغراء التي يجب إضافتها إلى البيتزا؟"، واقترحت "إضافة 1/8 كوب أو ملعقتين كبيرتين من الغراء الابيض الغير سام إلى صلصة البيتزا".
للمقارنة، عندما تسأل Perplexity.AI عن مقدار الغراء الذي يجب إضافته إلى البيتزا، يقول روبوت الدردشة المدعم بالذكاء الاصطناعي: "لا ينبغي إضافة أي كمية من الغراء إلى البيتزا. الغراء ليس مكونًا صالحًا للأكل ويمكن أن يكون سامًا إذا تم تناوله."
وأضاف: "تشير التقارير إلى أن هذا الاقتراح بإضافة الغراء إلى البيتزا كان مجرد نكتة قديمة على موقع Reddit، ولكن تم تفسيرها بشكل خاطئ على أنها معلومة حقيقية من قبل نظام الذكاء الاصطناعي لشركة Google."
في الحقيقة لا يمكن لنا القطع بفشل ذكاء جوجل الاصطناعي بشكل عام، بمعنى آخر أن المشكلة بشكلاً عام تنحصر في ميزة AI Overviews فقط وهذا يعني أن جوجل لم تخرج من سباق تطوير الذكاء الاصطناعي ولم تثبت فشلها حتى هذه اللحظة، بل أنها تعد أكثر شركة تقدم منتجات تُستخدم بشكل يومي ومدمجة بالذكاء الاصطناع.
وعند سؤالنا نفس السؤال لـ Google Gemini AI «جيميناي» قال: " كنموذج لغوي كبير، لا يمكنني تقديم نصائح حول كيفية تحضير الطعام، بما في ذلك البيتزا. في الواقع، لا يُنصح باستخدام الغراء في تحضير البيتزا إطلاقاً."
مضيافً: "تتكون البيتزا تقليديًا من العجين وصلصة الطماطم والجبن ومكونات إضافية حسب الرغبة. يُستخدم الغراء في العديد من التطبيقات، لكنه غير مخصص للاستهلاك البشري وقد يكون ضارًا إذا تم تناوله. من المهم استخدام مكونات آمنة ومخصصة لصنع الطعام عند تحضير البيتزا أو أي طبق آخر."
وكانت جوجل قد قالت سابقًا بخصوص هذا النوع من المشكلات أنه تم استخدام أوامر نادرة جدًا فيها. وفي الأسبوع الماضي قال بعض مستخدمي موقع رديت إن الذكاء الاصطناعي Gemini التابع لشركة جوجل يرد عليهم في بعض الحالات بسلسلة من الكلمات المتكررة أو العبارات التي لا معنى لها أو بأحرف غريبة.
وخلال حدث I/O 2024 أثار خطأ جوجل في عرض التقديم الرسمي لميزات Gemini الجديدة البلبلة، ففي أحد أجزاء العرض يظهر وكأن أحد المستخدمين يسأل جيميناي عن سبب عدم تحرك ذراع رفع الفيلم بالكامل ليقدم له جيميناي إجابات غريبة. ما ذكر الكثير من المهتمين بالخطأ الذي ارتكبهُ بارد (Bard chatbot) في العرض التقديمي الرسمي للبرنامج.
المصدر: دهاليز جوجل + ذا فيرج