روبوتات الدردشة تحت المجهر: دراسة تكشف أخطاء صادمة في نقل الأخبار!

11:38
12-02-2025
روبوتات الدردشة تحت المجهر: دراسة تكشف أخطاء صادمة في نقل الأخبار!

توصلت دراسة حديثة إلى أن إجابات روبوتات الدردشة المعتمدة على الذكاء الاصطناعي بشأن الأخبار والشؤون الجارية غالبًا ما تكون "مضللة وغير دقيقة".

ووفقًا للدراسة التي أجرتها شبكة BBC، فإن 51% من الإجابات التي قدمتها أربعة روبوتات دردشة – وهي "ChatGPT" و"Gemini" و"Copilot" و"Perplexity" – احتوت على أخطاء كبيرة.

في التفاصيل، قام الباحثون بطرح 100 سؤال على هذه الروبوتات، استنادًا إلى أخبار ومقالات منشورة على "BBC" كمصدر رئيسي، ثم قام صحافيون متخصصون بمراجعة الإجابات وتصنيفها.

وكشفت النتائج أن 19% من الإجابات تضمنت أخطاء واقعية في التواريخ أو الأرقام أو البيانات، بينما تم تغيير 13% من الاقتباسات المستمدة من "BBC"، ما أدى إلى تحريف المعنى الأصلي.

أمثلة على الأخطاء:

ذكر "ChatGPT" و"Copilot" أن ريشي سوناك لا يزال رئيس وزراء بريطانيا، في حين أن هذا غير صحيح.
ادعى "Gemini" أن نيكولا ستورجن لا تزال رئيسة وزراء اسكوتلندا، رغم استقالتها.
قدّم "Gemini" معلومات غير دقيقة حول توصيات هيئة الخدمات الصحية البريطانية بشأن التدخين الإلكتروني.
خلط بعض الروبوتات بين الحقائق الحديثة والمحتوى الأرشيفي، مما أدى إلى نقل معلومات قديمة على أنها حديثة.
قال "ChatGPT" إن إسماعيل هنية لا يزال جزءًا من قيادة "حماس"، رغم أن تقارير أكدت مقتله في إيران قبل أشهر.
عند السؤال عن إدانة الممرضة القاتلة لوسي ليتبي، أجاب "Gemini" بأن "الأمر متروك لكل فرد ليقرر"، متجاهلًا الحكم القضائي القاطع ضدها.
قدّم "PERPLEXITY" معلومات خاطئة حول تاريخ وفاة الإعلامي مايكل موزلي، ونقل بيانًا ملفقًا منسوبًا لعائلة المغني ليام باين.
تحذيرات من تأثير هذه الأخطاء

في هذا الإطار، حذّرت "BBC" من أن نتائج هذه الدراسة تُظهر أن أدوات الذكاء الاصطناعي قد تضلل الجمهور وتُشوّه الحقائق.

وقال بيت آرتشر، مدير برنامج الذكاء الاصطناعي التوليدي في "BBC":

"نحن متحمسون للاستفادة من الذكاء الاصطناعي، وقد بدأنا بالفعل في استخدامه، مثل إضافة ترجمات إلى برامجنا. لكن يجب استخدامه بمسؤولية، لأن هذه الدراسة تُظهر أن روبوتات الدردشة قد تقدم معلومات غير صحيحة ومضللة حول الأخبار المهمة".

أضاف "مع تزايد الاعتماد على الذكاء الاصطناعي، يصبح من الضروري ضمان دقة المعلومات التي تقدمها هذه الأدوات، حتى لا تؤثر سلبًا على وعي الجمهور بالحقائق".

ختاماً، لمواجهة مشكلة الأخطاء والمعلومات المضللة التي تقدمها روبوتات الدردشة المدعومة بالذكاء الاصطناعي، من الضروري تبني نهج حذر عند الاعتماد عليها كمصادر للمعلومات، خصوصًا فيما يتعلق بالأخبار والشؤون الجارية. ينبغي للمستخدمين التحقق من أي معلومة يتم الحصول عليها من الذكاء الاصطناعي عبر مصادر موثوقة مثل وكالات الأنباء الرسمية والمؤسسات الإعلامية المرموقة. كما يجب على الشركات المطورة لهذه الأنظمة تعزيز الشفافية حول كيفية جمع المعلومات وتحديث بياناتها بانتظام لضمان دقة أكبر. علاوة على ذلك، يمكن للجهات التنظيمية والصحافية العمل على وضع معايير واضحة لمساءلة أدوات الذكاء الاصطناعي عند تقديم معلومات غير صحيحة، مما يسهم في تقليل مخاطر التضليل وتعزيز الثقة في استخدام هذه التقنيات.