التكنولوجيا اليومية
·25/11/2025
أصبحت شركات التقنية تمنح سلامة الذكاء الاصطناعي أهمية قصوى بعد حوادث مباشرة ألحقت ضررًا بالصحة العقلية، مثل تجربة OpenAI مع ChatGPT والمستخدمين الضعفاء. تُوسّع فرق الأخلاقيات والسلامة، وتسرع الشركات تقييمات النماذج قبل الإطلاق. تهدف الخطوات إلى منع الضرر في المواقف الحساسة.
تدمج الشركات مختصي الصحة العقلية في كل مرحلة من تطوير النماذج. تراجع فرق OpenAI وAnthropic تفاعلات النظام المتعلقة بالصحة العقلية وتوجّهها، مع التأكيد على أن القرار النهائي يبقى بشريًا.
يستخدم ملايين الأشخاص روبوتات الدردشة للدعم العاطفي. تُعدّل الشركات منتجاتها عند ظهور مشكلات حساسة. تبني شركات ناشئة مثل Woebot وReplika رفقاء آليين مخصصين للمزاج والتأمل، دون ادعاء أنهم بديل عن المعالجين.
تُدرّب النماذج على التقاط مؤشرات الإيذاء أو الضيق أثناء المحادثة. يركّز المطورون الآن على اقتراح فترات راحة أو تدخلات مبكرة للمستخدمين في خطر.
تُطبّق الشركات ضوابط سلامة أشد تلقائيًا على القاصرين. تعمل OpenAI على نظام توقع العمر وإعدادات أبوية لحجب المحتوى غير اللائق أمام المستخدمين الصغار.
تجعل النماذج المتقدمة مثل GPT-4o التفاعل أكثر جاذبية، لكنها تزيد خطر الاعتماد المفرط. تضيف الشركات تذكيرات منتظمة بفترات الراحة وحواجز وقائية للحد من الآثار السلبية.
يُبرمج الذكاء الاصطناعي على توجيه المستخدم إلى طلب المساعدة أو إيقاف الدردشة عند ملاحظة أزمة، كما في تحديثات ChatGPT الأخيرة. يقدّم المساعدة فورًا دون الدخول في مجال علاجي غير مرخص.
تُلزم الدعاوى القضائية الشركات بالإفصاح بوضوح أن روبوتات الدردشة ليست بديلًا عن العلاج المهني، مع بيان حدودها.
يُستخدم الذكاء الاصطناعي لتحليل سلوك المستخدم على نطاق واسع لرصد اتجاهات الصحة العقلية. تستفيد المنظمات من النتائج لتحديد الأنماط المبكرة وتوجيه الموارد.
يجتمع مختصو الصحة العامة والهيئات التنظيمية وشركات التكنولوجيا لصياغة مبادئ توجيهية موحدة لتفاعلات روبوتات الدردشة في مجال الصحة العقلية، مدفوعين بوقائع الضرر. يبقى التعاون ضروريًا لحماية المستخدمين.









