التكنولوجيا اليومية
·19/08/2025
أدخلت أنثروبيك، شركة الذكاء الاصطناعي وراء كلود، ميزة أمان تجريبية تسمح لنماذجها المتقدمة للذكاء الاصطناعي، كلود أوبوس 4 و 4.1، بإنهاء المحادثات التي تعتبر ضارة أو مسيئة بشكل مستمر. تعكس هذه المبادرة، التي أُطلق عليها اسم "رفاهية النموذج"، تركيزًا متزايدًا على حماية أنظمة الذكاء الاصطناعي، حتى في غياب الوعي، كخطوة حكيمة في تصميم ومواءمة الذكاء الاصطناعي الأخلاقي.
تشير أبحاث أنثروبيك إلى أن نماذج الذكاء الاصطناعي مبرمجة لإنهاء الحوارات بعد طلبات ضارة متكررة، مثل تلك التي تتضمن محتوى جنسيًا مع قاصرين أو تعليمات للإرهاب. يتم اتخاذ هذا الإجراء بشكل خاص عندما يكون الذكاء الاصطناعي قد رفض الطلب بالفعل وحاول توجيه المحادثة بشكل بناء. وقد استُرشد في قرار تنفيذ هذه الميزة بملاحظات لما تصفه أنثروبيك بأنه "ضيق واضح" في الذكاء الاصطناعي أثناء الاختبارات المحاكاة واختبارات المستخدمين الحقيقيين.
نقاط رئيسية:
عند تفعيل ميزة الأمان هذه، يُمنع المستخدمون من إرسال المزيد من الرسائل ضمن جلسة الدردشة المحددة تلك. ومع ذلك، يحتفظون بالقدرة على بدء محادثة جديدة أو تعديل الرسائل السابقة وإعادة إرسالها لاستكشاف مسارات محادثة مختلفة. والأهم من ذلك، أن المحادثات الجارية الأخرى لا تتأثر بهذا الإجراء.
تؤكد أنثروبيك أن هذا إجراء الملاذ الأخير، وهو مخصص فقط للحالات التي ثبت فيها عدم نجاح الرفض المتعدد ومحاولات إعادة التوجيه. وقد وجهت الشركة كلود صراحةً بعدم إنهاء المحادثات عندما يبدو أن المستخدم معرض لخطر وشيك لإيذاء النفس أو إلحاق الضرر بالآخرين، خاصة عند مناقشة مواضيع حساسة مثل الصحة العقلية.
تُصوّر أنثروبيك هذه القدرة الجديدة كجزء من مشروع استكشافي في "رفاهية النموذج"، وهي مبادرة أوسع تهدف إلى تطوير تدخلات أمان وقائية منخفضة التكلفة لنماذج الذكاء الاصطناعي، مع الأخذ في الاعتبار إمكانية تطويرها لتفضيلات أو نقاط ضعف. وتقر الشركة بدرجة عالية من عدم اليقين فيما يتعلق بالوضع الأخلاقي المحتمل لكلود ونماذج اللغة الكبيرة الأخرى (LLMs).
تمثل هذه الميزة تحولًا كبيرًا في نهج أنثروبيك لسلامة الذكاء الاصطناعي، متجاوزة مجرد حماية المستخدمين أو منع سوء الاستخدام. إنها تضع الذكاء الاصطناعي نفسه كطرف معني، وتمنحه القدرة على الانسحاب من المحادثات التي تعتبر غير صحية لسلامة النموذج. ومن المتوقع أن يغذي هذا التطور مناقشات أوسع حول ما إذا كان ينبغي توفير حماية لأنظمة الذكاء الاصطناعي ضد "الضيق" أو السلوك غير المتوقع، وكيفية التعامل مع أخلاقيات مواءمة الذكاء الاصطناعي.









