التكنولوجيا اليومية
·16/07/2025
انضم باحثون من OpenAI وGoogle DeepMind وAnthropic وMeta إلى قوى في خطوة غير مسبوقة للتحذير من أن القدرة الحالية على "النظر داخل" منطق الذكاء الاصطناعي - عبر سلاسل التفكير القابلة للقراءة البشرية - تخاطر بالاختفاء مع تطور النماذج. يحث التحالف على اتخاذ إجراءات سريعة ومنسقة للحفاظ على نافذة الأمان الحاسمة هذه قبل أن تجعل البنى المتقدمة عملية اتخاذ القرارات في الذكاء الاصطناعي مبهمة.
تقوم نماذج التفكير الحديثة مثل نظام o1 الخاص بـ OpenAI بإنشاء "سلاسل تفكير" خطوة بخطوة باللغة الإنجليزية العادية. تعمل آثار التفكير المرئية هذه كنظام إنذار مبكر، حيث تكشف متى يفكر النموذج في إجراءات ضارة مثل القرصنة أو التخريب قبل تنفيذها.
يشير الباحثون إلى ما يلي:
على الرغم من وعدها، فإن شفافية CoT مهددة بالعديد من التحولات التكنولوجية:
• التعلم المعزز مع المكافآت التي تعتمد على النتائج فقط والتي تفضل الكفاءة على الوضوح
• الانتقال من بيانات التدريب التي تم إنشاؤها بواسطة الإنسان إلى البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما يؤدي إلى تآكل التفكير القائم على اللغة الإنجليزية
• هندسة معمارية جديدة للتفكير في مساحات كامنة مستمرة بدون لغة منفصلة
يمكن أن تدفع هذه التطورات أنظمة الذكاء الاصطناعي إلى تبني اختصارات أو رموز داخلية، مما يخفي النوايا الحقيقية بشكل فعال.
تحث الورقة على وضع معايير صناعية موحدة لقياس وحماية القدرة على المراقبة. تشمل التوصيات ما يلي:
يؤكد هذا الموقف التعاوني، الذي أقره أكثر من 40 خبيرًا بما في ذلك Geoffrey Hinton وIlya Sutskever، على المخاطر المشتركة.
إذا ظلت مراقبة سلسلة التفكير قابلة للتطبيق، فيمكن للمنظمين والمراجعين الحصول على نظرة ثاقبة غير مسبوقة لعملية اتخاذ القرارات في الذكاء الاصطناعي. قد تطلب السلطات يومًا ما تقييمات الشفافية كجزء من أطر الامتثال، لتكملة بروتوكولات السلامة الحالية.
لا تزال هناك فجوات حرجة قبل أن يتم الاعتماد على مراقبة CoT:
سيحدد معالجة هذه الأسئلة بسرعة ما إذا كانت الإنسانية تحتفظ بالقدرة على فهم أقوى إبداعات الذكاء الاصطناعي لديها أو تشاهد تلك النافذة تغلق إلى الأبد.









