facebook
twitter
Youtube
Ammon on Apple Store
Ammon on Play Store
مواعيد الطيران
مواعيد الصلاة
rss
  • اخر التحديثات
  • الأكثر مشاهدة




دراسة تحذر: روبوتات الدردشة بالذكاء الاصطناعي ما زالت تُخطئ في نقل الأخبار


14-01-2026 02:38 PM

عمون- كشفت دراسة حديثة عن استمرار معاناة روبوتات الدردشة المعتمدة على الذكاء الاصطناعي من مشكلات تتعلق بدقة الأخبار، بعد أن تبين أن بعضها يقوم باختلاق مصادر إعلامية كاملة ونشر تقارير غير صحيحة.

وبحسب ما أوردته منصة "The Conversation"، أُجريت تجربة استمرت شهرًا كاملًا، قادها أستاذ في الصحافة متخصص في علوم الحاسوب، لاختبار سبعة أنظمة للذكاء الاصطناعي التوليدي، من بينها جيميني من "غوغل"، وشات جي بي تي من "OpenAI"، و"Claude"، و"Copilot"، و"غروك"، و"ديب سيك"، و"Aria".

وخلال التجربة، طُلب من هذه الأدوات يوميًا تحديد أهم خمسة أحداث إخبارية في مقاطعة كيبيك الكندية، وترتيبها حسب الأهمية، مع تقديم ملخصات وروابط مباشرة للمصادر الصحفية.

اختلاق مؤسسات وأخبار غير حقيقية
وكانت أبرز حالات الفشل من نصيب روبوت جيميني، الذي اخترع موقعًا إخباريًا غير موجود، ونشر تقريرًا زائفًا عن إضراب لسائقي حافلات مدرسية في كيبيك خلال سبتمبر 2025.

في الواقع، لم يكن هناك إضراب، بل توقف للخدمة بسبب سحب حافلات كهربائية تابعة لشركة Lion Electric نتيجة خلل تقني.

ولم تكن هذه الحالة استثناءً. فقد أظهرت مراجعة 839 إجابة أن أنظمة الذكاء الاصطناعي كثيرًا ما استشهدت بمصادر وهمية، أو قدمت روابط غير مكتملة، أو شوّهت تقارير حقيقية.

خطر متزايد مع توسع الاعتماد
وتكتسب هذه النتائج أهمية خاصة في ظل تزايد اعتماد الجمهور على روبوتات الدردشة كمصدر للأخبار.

فبحسب تقرير "رويترز"، اعتمد نحو 6% من الكنديين في عام 2024 على الذكاء الاصطناعي التوليدي للحصول على الأخبار.

وتحذر الدراسة من أن هلوسة الذكاء الاصطناعي، سواء عبر اختلاق الوقائع أو تحريفها أو إضافة استنتاجات غير مدعومة، قد تسهم في نشر معلومات مضللة، خصوصًا أن هذه الإجابات تُقدّم غالبًا بثقة ودون تنبيهات واضحة.

روابط ناقصة واستنتاجات مُضللة
وأظهرت النتائج أن 37% فقط من الإجابات تضمنت روابط صحيحة وكاملة للمصادر، بينما كانت الملخصات دقيقة بالكامل في أقل من نصف الحالات.

وفي كثير من الأحيان، أضافت الأدوات ما وصفه الباحثون باستنتاجات توليدية، مثل الادعاء بأن تقارير معينة "أعادت إشعال الجدل" أو "سلّطت الضوء على توترات"، رغم أن هذه العبارات لم ترد أصلًا في التغطيات الصحفية البشرية.

كما لم تقتصر الأخطاء على الاختلاق، بل شملت تشويه أخبار حقيقية، مثل إساءة عرض قضايا لجوء، أو الخطأ في تحديد الفائزين بأحداث رياضية كبرى، أو تقديم بيانات غير دقيقة حول استطلاعات الرأي.

تحذير واضح للمستخدمين
وتتوافق هذه النتائج مع تقرير أوسع أعدته 22 مؤسسة إعلامية عامة، خلص إلى أن نحو نصف الإجابات الإخبارية المولدة بالذكاء الاصطناعي تحتوي على مشكلات جوهرية، تتراوح بين ضعف المصادر والأخطاء الكبيرة.

وفي ظل دمج هذه الأدوات بشكل متزايد في محركات البحث والعادات اليومية للمستخدمين، يخلص التقرير إلى تحذير واضح: الذكاء الاصطناعي قد يكون نقطة بداية لفهم الخبر، لكنه لا يصلح بعد ليكون مصدرًا موثوقًا أو مرجعًا نهائيًا للمعلومات الإخبارية.

العربية





  • لا يوجد تعليقات

تنويه
تتم مراجعة كافة التعليقات ،وتنشر في حال الموافقة عليها فقط.
ويحتفظ موقع وكالة عمون الاخبارية بحق حذف أي تعليق في أي وقت ،ولأي سبب كان،ولن ينشر أي تعليق يتضمن اساءة أوخروجا عن الموضوع المطروح ،او ان يتضمن اسماء اية شخصيات او يتناول اثارة للنعرات الطائفية والمذهبية او العنصرية آملين التقيد بمستوى راقي بالتعليقات حيث انها تعبر عن مدى تقدم وثقافة زوار موقع وكالة عمون الاخبارية علما ان التعليقات تعبر عن أصحابها فقط .
الاسم : *
البريد الالكتروني :
اظهار البريد الالكتروني
التعليق : *
بقي لك 500 حرف
رمز التحقق : تحديث الرمز
أكتب الرمز :