لماذا تفشل نماذج الذكاء الاصطناعي في التحقق من الصور؟

مع صعود نماذج الذكاء الاصطناعي الحديثة، بات كثيرون يعلقون آمالا على قدرتها في مواجهة سيل الصور المفبركة والمضللة التي تغزو شبكات التواصل الاجتماعي، غير أن دراسات واختبارات ونماذج عملية كشفت أن هذه الأدوات، رغم ما تبديه من براعة في قراءة الصور وتحليلها، فإنها تفشل في التحقق منها.
ورغم أن شركات الذكاء الاصطناعي لا تسوّق أدواتها بوصفها مخصصة للتحقق من الصور والمرئيات، فإن إطلاق "شات جي بي تي 5" شجع المستخدمين على اللجوء إلى خاصية "البحث على الويب" في ظل انتشار شعبية منصات أخرى مثل خدمة الذكاء الاصطناعي "غروك" للبحث عن الصور المتداولة والتحقق منها.
اقرأ أيضا
list of 2 itemsسلاح ذو حدين
لكن انتشار هذه الخدمات، رغم عدم تخصصها، يدفعنا إلى طرح سؤال ذي أهمية: ما صحة نتائج هذه الأدوات عندما يتعلق الأمر بأوقات مهمة وحساسة كالحروب أو الاحتجاجات أو الكوارث الطبيعية؟
في 26 أغسطس/آب 2025، كشفت دراسة صادرة عن مركز "تاو" للصحافة الرقمية بجامعة كولومبيا أن نماذج الذكاء الاصطناعي ترتكب أخطاء فادحة قد "تعمق التضليل بدلا من الحد منه".
وقرر المركز، التابع لكلية الصحافة بجامعة كولومبيا، إخضاع 7 من أبرز روبوتات الدردشة العاملة بالذكاء الاصطناعي لتجربة منهجية لاختبار قدراتها في التحقق من الصور، تشمل: "شات جي بي تي" بنسختيه، "ميني هاي"، "فايف ثينكنغ"، "بيربلكسيتي"، "غروك"، "جيميني"، "كلود"، "كو بايلوت".
وأوضح الباحثون أن الهدف من هذا الاختبار هو تقييم قدرة هذه الأدوات على أداء مهمة التحقق، ومراقبة طريقة استدلالها عبر الصور، وتحديد موقعها الحقيقي ومصادرها الأصلية، وهي مهام يمكن للصحفي أو مدقق الحقائق إنجازها بسرعة عبر آليات أخرى مثل البحث العكسي للصور.
نتائج صادمة
وكشفت الدراسة أن النماذج السبعة جميعها "فشلت" في التعرف بدقة وبشكل صحيح على مصدر الصور ومكانها وتاريخ التقاطها ومعلومات عن المصور.
إعلانومن بين 280 اختبارا أجري، لم تحقق سوى 14 إجابة المعايير المطلوبة. ورغم أن نموذج "شات جي بي تي" الأحدث قدم أداء أفضل نسبيا من منافسيه، فإنه لم ينجح في تحديد المصدر الصحيح للصور إلا في ربع الحالات فقط.
وتوضح الدراسة أن هذه النماذج لا تعمل مثل أدوات البحث العكسي الشهيرة، مثل بحث الصور في غوغل أو تين آي، التي تعتمد على "البصمة الرقمية" للصورة.
وتحاول النماذج استنتاج أوصاف نصية للعناصر الظاهرة ثم توليد استعلامات بحث مبنية عليها، وهو ما يقود في كثير من الأحيان إلى نتائج مضللة، وفقا للدراسة الأخيرة.
وأظهرت الدراسة أن النماذج تميل إلى تقديم إجابات مفصلة، لكنها كثيرا ما تخطئ أو تضلل، إذ نسبت إلى الصور تفاصيل غير موجودة، وهو ما يعرف في علوم الذكاء الاصطناعي بظاهرة "الهلوسة".
وأوضح تقرير مركز "تاو" أن هذه النماذج ليست مهيأة "للتثبت من الحقائق"، بل لتخمين ما يبدو منطقيا بناء على بيانات التدريب، وعندما تواجه صورة جديدة أو غامضة فإنها تخمن -وغالبا ما تخطئ- من دون أي مؤشر على نسبة الثقة أو احتمال الصواب.
كارثة محتملة
وحذر الباحثون في جامعة كولومبيا من أن هذا الخلل "قد يصبح كارثيا في أوقات الأزمات" إذا اعتمد المستخدمون على هذه الأدوات باعتبارها مرجعا أساسيا للتحقق، فقد ينتهي الأمر بانتشار المزيد من المعلومات المضللة، لافتة إلى ردود النماذج على طلبات التحقق بلغة واثقة، مما يجعل القارئ العادي أكثر عرضة لتصديقها.
وخلصت الدراسة إلى أن تحسين قدرات النماذج على "الرؤية" وحده لا يكفي، بل تحتاج إلى آليات تحقق مستقلة وربط النتائج بمصادر معلومات موثوقة، وإلا فستتحول هذه الأدوات من كاشفات حقيقة إلى "مولدات شكوك".
الذكاء الاصطناعي أداة للتضليل
ورصد فريق "الجزيرة تحقق" نماذج عملية من واقع الحرب الإسرائيلية على غزة كمثال يكشف كيف تحولت أغلب هذه النماذج التي أجريت عليها الدراسة من أدوات قادرة على التحقق من الصور وتوعية الجمهور إلى أدوات تضليل تهدف إلى قلب الرواية تماما.
ومع تصاعد كارثة الجوع في غزة، برزت أداة "غروك" (Grok) التابعة لمنصة "إكس" كلاعب غير محايد، إذ لم تكتف بنشر محتوى مضلل، بل تبنت بشكل مباشر رواية تقودها إسرائيل، مما جعل خوارزميات الذكاء الاصطناعي تنخرط في الحرب الإعلامية.
أخطاء متكررة بلغة واثقة
ومنذ 25 يوليو/تموز الماضي، رصد فريق "الجزيرة تحقق" سلسلة أخطاء وقع فيها الذكاء الاصطناعي التابع لمنصة "غروك"، واعتذر عن بعضها بعد مواجهته بأصل الصور الحقيقية، إلا أنه تمسك بإجاباته "الخاطئة" في نماذج أخرى بتوجيه رقمي منظم من حسابات مرتبطة بإسرائيل.
على سبيل المثال، أجاب غروك بأن صورة فتاة من غزة تنتظر الحصول على حصتها من إحدى تكايا الطعام هي صورة قديمة لفتاة إيزيدية في أسر داعش بالعراق، ومرة أخرى من سوريا، في حين نسب صورة طفل غزي إلى طفلة تعاني من سوء التغذية في مدينة الحديدة باليمن.
وعلى الرغم من إثبات عدم صحة المعلومات التي تقدمها أداة "غروك"، فإنها أصرّت على إعادة تداول الرواية الإسرائيلية نفسها، بل شاركت في مواجهة الروايات المغايرة، وذلك ما أثار شكوكا كبيرة حول دورها في الحرب الإعلامية.
مشاركة "جيميناي" في التضليل
لم يكن غروك وحده، إذ رصد فريق التحقق بالجزيرة مشاركة نموذج روبوت الدردشة التابع لغوغل "جيميناي" هو أيضا في نماذج تضليل مشابهة، إذ نسب مقطعا لمسنّ فلسطيني تظهر عليه آثار المجاعة إلى إنتاج بالذكاء الاصطناعي، رغم أن مقطع الفيديو صحيح.