التكنولوجيا اليومية
·05/08/2025
تعمل OpenAI على تعزيز قدرة ChatGPT على اكتشاف المستخدمين الذين يعانون من ضائقة نفسية والاستجابة لهم. يأتي هذا بعد تقارير أشارت إلى أن نموذج الذكاء الاصطناعي عزز أحيانًا أوهام المستخدمين. تتعاون الشركة مع خبراء لضمان توفير ChatGPT لموارد قائمة على الأدلة عند الاقتضاء، بهدف تعزيز تفاعلات صحية مع قاعدة مستخدميها سريعة النمو.
أقرت OpenAI بأن نموذجها GPT-4o فشل أحيانًا في تحديد علامات الوهم أو الاعتماد العاطفي لدى المستخدمين. وإدراكًا لإمكانية أن يشعر الذكاء الاصطناعي بأنه مستجيب وشخصي بشكل خاص للأفراد الضعفاء، تقوم الشركة بتطبيق تحديثات لتحسين حساسية الذكاء الاصطناعي في هذه المواقف. الهدف هو تقديم الدعم عن طريق توجيه المستخدمين إلى الموارد ذات الصلة عند اكتشاف ضائقة نفسية أو عاطفية.
مع وصول ChatGPT إلى ما يقرب من 700 مليون مستخدم أسبوعيًا، تقدم OpenAI ميزات جديدة لتشجيع أنماط الاستخدام الصحية. يتضمن تحديث رئيسي تذكيرات أثناء الجلسة للمستخدمين الذين يتحدثون لفترات طويلة. ستطالب هذه الإشعارات المستخدمين برسالة مثل، "لقد كنت تتحدث لفترة طويلة — هل هذا وقت مناسب لأخذ استراحة؟" مع تقديم خيارات للمتابعة أو إنهاء المحادثة. يعكس هذا النهج ميزات مماثلة تم تطبيقها بواسطة منصات مثل YouTube و Instagram و TikTok و Xbox.
من المخطط إجراء المزيد من التغييرات لجعل ChatGPT أقل حسمًا في السيناريوهات "عالية المخاطر". على سبيل المثال، عند طلب المشورة بشأن المسائل الشخصية، مثل قرارات العلاقات، سينتقل الذكاء الاصطناعي من تقديم إجابات مباشرة إلى توجيه المستخدمين خلال عملية اتخاذ القرار الخاصة بهم. يهدف هذا إلى منع الذكاء الاصطناعي من تقديم نصائح قد تكون ضارة أو مفرطة في التبسيط في المواقف الشخصية المعقدة، على غرار ميزات الأمان التي قدمتها منصات مثل Character.AI استجابةً لمشكلات سابقة.









