التكنولوجيا اليومية
·24/12/2025
تسبب ظهور الذكاء الاصطناعي الوكيل، وخصوصًا المتصفحات التي تنفذ خطوات بمفردها، في مشكلات كبيرة لأمن الشبكات. من بين التهديدات الجديدة، أصبحت هجمات حقن الأوامر محور النقاش حول حماية متصفحات الذكاء الاصطناعي. تواجه الشركات هذه المشكلات باستخدام أساليب متعددة للحد من الخطر، وتقدم تجاربها صورة واضحة لكيفية تطور معايير الحماية في المنتجات التي تعمل بالذكاء الاصطناعي.
تندرج هجمات حقن الأوامر ضمن الثغرات الخاصة بالذكاء الاصطناعي. تستغيل هذه الهجمات قدرة النظام على فهم التعليمات والتصرف بناءً عليها، فتخدع الوكيل لتنفيذ مهام لم يُقصد منها. ذكرت OpenAI والمركز الوطني للأمن السيبراني في المملكة المتحدة أن هذا النوع من الهجمات لن يُحل بالكامل في المستقبل القريب. قد تكون نتائج هذه الثغرات خطيرة؛ تبدأ بالوصول غير المصرح به إلى بيانات خاصة، وتصل إلى التلاعب بعمليات مالية أو تعديل ملفات حساسة.
اتبعت OpenAI خطة متعددة الجوانب لتعزيز حماية متصفحها Atlas. جوهر الخطة يتمثل في تشغيل مهاجم آلي مبني على نموذج لغة كبير، وقد خُصص تدريبه لرصد ثغرات حقن الأوامر واستغلالها. يعمل هذا النموذج في بيئة محاكاة، ويستخدم التعليم بالتعزيز ليتكيف ويتحسن استنادًا إلى محاولات الهجوم الناجحة أو الفاشلة. بمحاكاة سيناريوهات معقدة - مثل بريد إلكتروني ملغوم يدفع الوكيل إلى إرسال رسالة حساسة - تسعى OpenAI لاكتشاف الثغرات وإصلاحها قبل وصول المنتج إلى المستخدمين.
ردّت شركات التكنولوجيا الكبرى الأخرى على خطر هجمات حقن الأوامر. أطلقت Google نموذجًا مصاحبًا يُدعى «منتقد محاذاة المستخدم»، يعمل إلى جانب الوكيل لكنه معزول عن محتوى خارجي. مهمته الأساسية التأكد من أن الإجراءات التي يقترحها الوكيل تطابق نية المستخدم الأصلية، مما يضيف طبقة حماية ضد الاستخدام الخبيث أو غير المقصود. في الوقت نفسه، أوصت شركة الاستشارات Gartner المؤسسات بمنع الموظفين من استخدام متصفحات الذكاء الاصطناعي حتى يستقر مشهد المخاطر.
تتفق OpenAI والشركات المشابهة على أن حقن الأوامر خطر مستمر وليس له حل فوري، لكن أساليب التخفيف تختلف. تفضل OpenAI نهجًا استباقيًا يعتمد على المحاكاة، حيث تستخدم الذكاء الاصطناعي لرصد الثغرات وإصلاحها من الداخل. يركز منافسوها مثل Google على محاذاة نية المستخدم وطبقات التحقق الخارجية. بشكل عام، توصي المؤسسات المستخدمين بتقليل صلاحيات الوكيل، ومراجعة طلبات التأكيد بدقة، وإعطاء تعليمات واضحة لتقليل التعرض.
تُظهر مقارنة هذه الأساليب اتجاهًا أوسع في القطاع: الانتقال من توقع منع الهجمات بالكامل إلى قبول تقليل الخطر والتكيف المستمر كمعيار لحماية متصفحات الذكاء الاصطناعي. مع ازدياد استقلالية أنظمة الذكاء الاصطناعي واندماجها في سير العمل اليومي، سيصبح الابتكار المستمر في اختبار الذات والمحاذاة أمرًا حاسمًا للحفاظ على الثقة والحد من الضرر. في النهاية، سيشكل التفاعل بين الدفاعات الاستباقية المدعومة بالذكاء الاصطناعي ونماذج التحقق الخارجية البنية الأمنية الناشئة لتقنيات الذكاء الاصطناعي الوكيل.









