آخر الأخبار

دراسة تكشف مخاطر الاعتماد على الذكاء الاصطناعي في البحث عن الأخبار

تشهد أدوات البحث المعتمدة على نماذج الذكاء الاصطناعي التوليدي انتشارًا متزايدًا كبديل لمحركات البحث التقليدية، حيث تجذب المزيد من المستخدمين بفضل قدرتها على تقديم المعلومات بسرعة وسهولة. ومع ذلك، كشفت دراسة حديثة صادرة عن مركز تاو للصحافة الرقمية بجامعة كولومبيا عن مشكلات جوهرية في دقة هذه النماذج، خاصة عند استخدامها كمصدر للأخبار.

مخاوف متزايدة من دقة المعلومات

أظهرت الدراسة أن نماذج الذكاء الاصطناعي، بما في ذلك تلك المطورة من قبل شركات مثل OpenAI وxAI، غالبًا ما تقدم معلومات غير دقيقة أو تلفق القصص عند الاستفسار عن الأحداث الجارية. وأشارت الباحثتان كلوديا يازفينسكا وأيسواريا تشاندراسيكار إلى أن نحو 25% من الأمريكيين أصبحوا يعتمدون على هذه النماذج بدلاً من محركات البحث التقليدية، مما يزيد من خطورة نشر معلومات مضللة قد تؤثر على الرأي العام وصحة القرارات المبنية عليها.

اختبار شامل يكشف معدلات الخطأ

أجرى الباحثون اختبارات على ثمانية نماذج ذكاء اصطناعي مزودة بخاصية البحث المباشر، بما في ذلك ChatGPT Search، Perplexity، Gemini، وGrok-3 Search. شملت التجربة 1600 استفسار حول مقالات إخبارية حقيقية، بهدف التحقق من دقة المعلومات المقدمة.

وخلصت النتائج إلى أن هذه النماذج قدمت إجابات خاطئة في أكثر من 60% من الحالات المتعلقة بالمصادر الإخبارية. وتفاوتت معدلات الخطأ بشكل كبير، حيث سجل نموذج Perplexity نسبة خطأ بلغت 37%، بينما ارتفع معدل ChatGPT Search إلى 67%، في حين تصدّر Grok-3 القائمة بمعدل خطأ مذهل بلغ 94%.

إجابات ملفقة بدلًا من الاعتراف بعدم المعرفة

أحد أخطر الاكتشافات التي توصلت إليها الدراسة هو ميل هذه النماذج إلى تقديم إجابات مضللة بدلاً من الاعتراف بعدم امتلاك معلومات مؤكدة. والأكثر إثارة للقلق أن الإصدارات المدفوعة لهذه النماذج، مثل Perplexity Pro وGrok 3، التي تكلف اشتراكات شهرية مرتفعة، كانت أكثر ميلًا إلى تقديم إجابات خاطئة بثقة أكبر من نظيراتها المجانية.

انتهاك خصوصية المحتوى الإخباري

كشفت الدراسة أيضًا عن انتهاكات لحقوق الناشرين، حيث تبين أن بعض أدوات الذكاء الاصطناعي تجاوزت بروتوكولات استبعاد الروبوتات، ما سمح لها بالوصول إلى محتوى محمي لم يكن من المفترض أن يكون متاحًا لها. فعلى سبيل المثال، تمكن نموذج Perplexity المجاني من استخراج مقتطفات من محتوى محجوب على ناشيونال جيوغرافيك، رغم أن الموقع يمنع صراحةً برامج الزحف الخاصة به.

كما لوحظ أن بعض أدوات الذكاء الاصطناعي تعيد توجيه المستخدمين إلى نسخ غير رسمية من المحتوى المنشور على مواقع مثل Yahoo News بدلاً من روابط الناشرين الأصليين، مما يؤثر سلبًا على مصادر الأخبار الحقيقية ويقلل من عائداتها.

تحذيرات من خبراء الإعلام

أعرب مارك هوارد، الرئيس التنفيذي للعمليات في مجلة تايم، عن قلقه من التحديات التي يواجهها الناشرون في التحكم بالمحتوى الذي تستهلكه نماذج الذكاء الاصطناعي. كما أشار إلى المخاطر التي قد تنشأ عندما تعيد هذه النماذج صياغة الأخبار بشكل غير دقيق، كما حدث مع BBC News، التي واجهت مشكلة مع شركة آبل بسبب تنبيهات إخبارية غير صحيحة تم إنشاؤها عبر Apple Intelligence.

ورغم هذه التحديات، يرى هوارد أن هذه الأدوات ستتحسن بمرور الوقت مع استمرار التطوير والاستثمار فيها، لكنه حث المستخدمين على التحقق من دقة المعلومات التي تقدمها هذه الأدوات وعدم الاعتماد عليها بشكل أعمى.

ماذا بعد؟

أكدت شركتا OpenAI ومايكروسوفت استلامهما نتائج الدراسة، وأعلنتا التزامهما بدعم الناشرين عبر توفير زيارات لمواقعهم من خلال الروابط والاقتباسات، لكنهما لم تعالجا المخاوف المطروحة بشكل مباشر. ومع استمرار الجدل حول دقة الذكاء الاصطناعي كمصدر للأخبار، يبقى السؤال الأهم: هل يمكن الوثوق بهذه الأدوات في تقديم معلومات دقيقة، أم أن الاعتماد عليها دون تدقيق قد يؤدي إلى تضليل المستخدمين؟

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.