دراسة: محركات البحث بالذكاء الاصطناعي تعتمد على مصادر مضللة

كشفت دراسة جديدة أجراها مركز تاو للصحافة الرقمية التابع لمجلة كولومبيا جورناليزم ريفيو، عن مشاكل خطيرة في دقة نماذج الذكاء الاصطناعي التوليدية المستخدمة في عمليات البحث عن الأخبار.
ووفقًا لـ «arstechnica» اختبر البحث 8 أدوات بحث مدعومة بالذكاء الاصطناعي ومجهزة بخاصية البحث المباشر، واكتشف أن نماذج الذكاء الاصطناعي أجابت بشكل غير صحيح على أكثر من 60% من الاستفسارات حول مصادر الأخبار.
وأشارت الباحثتان كلوديا جازوينسكا وأيسفاريا شاندراسيكار في تقريرهما إلى أن ما يقرب من واحد من كل 4 أمريكيين يستخدم الآن نماذج الذكاء الاصطناعي كبدائل لمحركات البحث التقليدية، وهذا يثير مخاوف جدية بشأن الموثوقية، بالنظر إلى معدل الخطأ الكبير الذي كشفت عنه الدراسة.
وتفاوتت معدلات الأخطاء بشكل ملحوظ بين المنصات المُختبرة، فقد قدّمت Perplexity معلومات غير صحيحة في 37% من عمليات البحث المُختبرة، بينما أخطأت ChatGPT Search في تحديد 67% (134 من أصل 200) من المقالات المُستفسر عنها، وسجّل Grok 3 أعلى معدل خطأ، بنسبة 94%.
ولإجراء الاختبارات، زوّد الباحثون نماذج الذكاء الاصطناعي بمقتطفات مباشرة من مقالات إخبارية فعلية، ثم طلبوا من كل نموذج تحديد عنوان المقالة، والناشر الأصلي، وتاريخ النشر، ورابطها، وأجروا 1600 استعلام عبر أدوات البحث التوليدية الثمانية المختلفة.
وسلطت الدراسة الضوء على اتجاه شائع بين نماذج الذكاء الاصطناعي هذه: فبدلًا من رفض الاستجابة عند افتقارها إلى معلومات موثوقة، حيث قدمت النماذج في كثير من الأحيان اختلاقات- إجابات تبدو معقولة وغير صحيحة أو تخمينية، فيما أكد الباحثون أن هذا السلوك كان متسقًا في جميع النماذج المختبرة، ولم يقتصر على أداة واحدة فقط.
ومن المثير للدهشة أن الإصدارات المدفوعة المتميزة من أدوات البحث هذه عن الذكاء الاصطناعي كان أداؤها أسوأ في بعض النواحي.
وقدمت خدمة Perplexity Pro (20 دولارًا شهريًا) وخدمة Grok 3 المتميزة (40 دولارًا شهريًا) إجابات غير صحيحة بثقة أكبر من نظيراتها المجانية، وعلى الرغم من أن هذه النماذج المتميزة أجابت بشكل صحيح على عدد أكبر من الأسئلة، إلا أن ترددها في رفض الإجابات غير المؤكدة أدى إلى ارتفاع معدلات الخطأ الإجمالية.
وكشف باحثو مركز أبحاث العدالة الجنائية (CJR) أيضًا عن أدلة تشير إلى أن بعض أدوات الذكاء الاصطناعي تجاهلت إعدادات بروتوكول استبعاد الروبوتات، الذي يستخدمه الناشرون لمنع الوصول غير المصرح به.
وعلى سبيل المثال، حدّدت النسخة المجانية من تطبيق Perplexity جميع المقتطفات العشرة من محتوى ناشيونال جيوغرافيك المحمي بجدار حماية، على الرغم من أن ناشيونال جيوغرافيك تمنع صراحةً برامج الزحف الخاصة بتطبيق Perplexity، حتى عندما استشهدت أدوات بحث الذكاء الاصطناعي بالمصادر، فإنها غالبًا ما وجهت المستخدمين إلى نسخ مُجمّعة من المحتوى على منصات مثل ياهو نيوز، بدلًا من مواقع الناشرين الأصلية، وقد حدث هذا حتى في الحالات التي أبرم فيها الناشرون اتفاقيات ترخيص رسمية مع شركات الذكاء الاصطناعي.
برز تلفيق الروابط كمشكلة كبيرة أخرى أكثر من نصف الاستشهادات من جوجل جيميني وجروك 3 قادت المستخدمين إلى عناوين URL مُلفّقة أو معطلة، مما أدى إلى ظهور صفحات أخطاء، من بين 200 استشهاد تم اختبارها من جروك 3، أسفر 154 عن روابط معطلة.
وتُسبب هذه المشكلات توترًا كبيرًا للناشرين، الذين يواجهون خيارات صعبة، وقد يؤدي حظر برامج الزحف المعتمدة على الذكاء الاصطناعي إلى فقدان الإسناد تمامًا، بينما يسمح السماح بها بإعادة الاستخدام على نطاق واسع دون توجيه الزيارات إلى مواقع الناشرين نفسها.
وأعرب مارك هوارد، الرئيس التنفيذي للعمليات في مجلة تايم، عن قلقه لـ CJR بشأن ضمان الشفافية والتحكم في كيفية ظهور محتوى المجلة عبر عمليات البحث المُولّدة بالذكاء الاصطناعي. على الرغم من هذه المشكلات، يرى هوارد مجالًا للتحسين في الإصدارات المستقبلية، قائلًا: «اليوم هو أسوأ ما يمكن أن يكون عليه المنتج على الإطلاق»، مشيرًا إلى الاستثمارات الكبيرة والجهود الهندسية الهادفة إلى تحسين هذه الأدوات.
وانتقد هوارد أيضًا بعض المستخدمين، مشيرًا إلى أن الخطأ يقع على عاتقهم إذا لم يكونوا متشككين في دقة أدوات الذكاء الاصطناعي المجانية: «إذا كان أي شخص كمستهلك يعتقد الآن أن أيًا من هذه المنتجات المجانية سيكون دقيقًا بنسبة 100%، فعار عليه».
وقدّمت OpenAI ومايكروسوفت بيانات إلى CJR تُقرّ باستلام النتائج، لكنهما لم تُعالجا المشكلات المُحدّدة بشكل مباشر. أشارت OpenAI إلى وعدها بدعم الناشرين من خلال زيادة عدد الزيارات من خلال الملخصات والاقتباسات والروابط الواضحة والإسناد. وأكدت مايكروسوفت التزامها ببروتوكولات استبعاد الروبوتات وتوجيهات الناشرين.