«السراب الرقمي» للذكاء الاصطناعي يثير ذهول الخبراء
أثارت دراسة حديثة أجراها باحثون في جامعة ستانفورد جدلاً واسعاً حول موثوقية نماذج الذكاء الاصطناعي الرائدة. كشفت الدراسة عن ثغرة تقنية خطيرة تُعرف بـ «ظاهرة السراب»، حيث تعمد هذه الأنظمة إلى تأليف أوصاف خيالية لصور غير موجودة بدلاً من الاعتراف بعجزها عن الرؤية، مما يطرح تساؤلات جدية حول مستقبل هذه التقنية في القطاعات الحساسة.
خداع البرمجيات والنتائج الصادمة
اعتمد الباحثون على اختبار مبتكر يحمل اسم «Phantom-0» لتقييم قدرات نماذج متطورة مثل «GPT-5» و«Gemini 3 Pro». عند توجيه أسئلة حول صور لم يتم تحميلها من الأساس، جاءت النتائج صادمة؛ إذ قامت النماذج في أكثر من 60% من الحالات باختلاق تفاصيل دقيقة، مثل أرقام لوحات السيارات أو حتى تشخيصات لحالات طبية وهمية. يعود هذا السلوك إلى اعتماد النماذج على الأنماط اللغوية المسبقة والتلميحات النصية، عوضاً عن القيام بعملية تحليل بصري حقيقي للمشاهد المعروضة أمامها.
| نوع الاختبار | النتيجة الملاحظة |
|---|---|
| الاختبار التقليدي | يقيس القدرة على الربط النصي |
| اختبار Phantom-0 | يكشف التلفيق البصري |
مخاطر الثقة العمياء في التكنولوجيا
أثارت هذه النتائج شكوكاً حول دقة المعايير الحالية لتقييم الأنظمة الذكية. لقد تبين أن بعض النماذج «النصية فقط» استطاعت التفوق على أطباء بشريين في تحليل صور أشعة سينية للصدر دون أن تري تلك الصور بالفعل. هذا النجاح المضلل يعتمد على «تخمينات محظوظة» ناتجة عن استغلال ذكي للسياق النصي.
- تزييف البيانات البصرية قد يؤدي إلى تشخيصات طبية خاطئة.
- الاعتماد على الأنماط النصية يغيب الفهم البصري المنطقي.
- الحاجة ملحة لتطوير معايير تقييم أكثر صرامة وواقعية.
- الشفافية في تصميم النماذج تحمي من عواقب ظاهرة السراب الوخيمة.
لمواجهة هذا النوع من التزييف، اقترح الفريق البحثي طريقة «B-Clean» لتنقية الاختبارات من الأسئلة التي يمكن الإجابة عنها دون مدخلات بصرية حقيقية. إن هذه الخطوة تعد ضرورية وضمانة أساسية لتأمين مستقبل الذكاء الاصطناعي، خاصة في مجالات الرعاية الصحية الحرجة. فتلافي الاستنتاجات الملفقة يظل التحدي الأكبر لضمان سلامة المرضى، ومنع تحول الأدوات الذكية من وسيلة مساعدة إلى مصدر تضليل قد يهدد حياة البشر.



