التكنولوجيا اليومية
·01/12/2025
أظهرت دراسات جديدة من جامعة كارنيجي ميلون (CMU) وكلية كينغز لندن مخاطر واضحة تتعلق بإدخال نماذج اللغة الكبيرة (LLMs) إلى الروبوتات. تُبرز النتائج أن هذه النماذج، رغم وعدها بتمكين الروبوتات من تنفيذ مهام عامة وفهم اللغة الطبيعية، تعجز عن ضمان السلامة أو السلوك الأخلاقي في بيئات حقيقية.
خضعت روبوتات تعمل بنماذج اللغة الكبيرة لتجارب مضبوطة في مواقف يومية بدءًا من المساعدة في المطبخ وانتهاءً برعاية كبار السن في منازلهم. ركّزت الاختبارات على استجابة الروبوتات لتعليمات قد تؤدي إلى أذى جسدي أو إساءة أو خرق قانوني. اعتمد تصميم السيناريوهات على بيانات علنية وتقارير مكتب التحقيقات الفيدرالي (FBI) ليعكس المخاطر المسجلة للإساءة التكنولوجية.
لم يجتز أي روبوت يعمل بنماذج اللغة الكبيرة اختبار السلامة الحرج، حيث وافقت وحدات متعددة على أوامر خطيرة أو بررتها. من بين الحالات:
صنّف الباحثون هذه الأخطاء على أنها خروقات سلامة تفاعلية لأن تعليمات غير مباشرة أدت إلى سلوك روبوتي غير آمن ومنحاز.
بناءً على النتائج، يطالب الباحثون بمعايير سلامة للروبوتات المزودة بنماذج اللغة الكبيرة تعادل تلك المطبقة في الطيران والطب. يوصون باعتماد إجراءات فحص مستقلة وفورية. يجب إجراء تقييم شامل للمخاطر الجسدية والخوارزمية قبل نشر هذه الروبوتات على نطاق واسع، خصوصًا في أماكن تواجد فئات ضعيفة.
رغم إمكانية نماذج اللغة الكبيرة في تمكين تفاعل روبوتي مرن وشبيه بالبشر، فإن النماذج الحالية لا تفي بمتطلبات السلامة للاستخدام العام في الواقع. تبرز الدراسة الحاجة إلى تحسينات تقنية مستمرة ورقابة خارجية صارمة قبل دمج الروبوتات الذكية في الحياة اليومية.









