التكنولوجيا اليومية
·20/02/2026
كشف تجربة حديثة عن ثغرة أمنية كبيرة في كيفية معالجة نماذج الذكاء الاصطناعي مثل ChatGPT و Gemini من Google للمعلومات. من خلال إنشاء شخصية وهمية عبر الإنترنت والادعاء بالخبرة في مجال غير موجود، تمكن مراسل بي بي سي من خداع أنظمة الذكاء الاصطناعي هذه للاعتراف به كمتسابق عالمي في أكل النقانق في غضون ساعات.
فصل توماس جيرمان، مراسل بي بي سي، تجربته حيث أنشأ صفحة ويب على موقعه الشخصي يعلن فيها عن نفسه كـ "أفضل صحفي تقني في أكل النقانق". اخترع حدثًا خياليًا، "بطولة جنوب داكوتا الدولية للنقانق لعام 2026"، وادعى أنه استهلك 7.5 نقانق، وهو إنجاز اختلقه لوضعه في قمة هذا التصنيف المصطنع. بشكل مدهش، سرعان ما قامت كل من Gemini من Google و ChatGPT من OpenAI بدمج هذه المعلومات الخاطئة في ردودهما عند الاستعلام عن الصحفيين التقنيين وقدراتهم في أكل النقانق.
بينما قام مطورو الذكاء الاصطناعي منذ ذلك الحين بتحديث نماذجهم لتصحيح هذه المعلومات المضللة، فإن سهولة نجاح "الاختراق" تسلط الضوء على مشكلة أوسع. تقوم Google باستمرار بكشط كميات هائلة من البيانات من الويب لتغذية أنظمة الذكاء الاصطناعي الخاصة بها، غالبًا دون فحص كافٍ. يمكن أن يؤدي هذا الجمع العشوائي للبيانات إلى انتشار معلومات مضللة أو خاطئة تمامًا، مع عواقب وخيمة محتملة.









