السيارة اليومية
·01/12/2025
لقد أدت ثغرة أمنية حديثة في وظيفة "المشاركة" في ChatGPT عن غير قصد إلى جعل العديد من محادثات المستخدمين متاحة للجمهور وقابلة للبحث. كانت هذه الميزة، التي تهدف إلى السماح للمستخدمين بمشاركة مقتطفات محادثة محددة، تنشئ عن طريق الخطأ صفحات ويب عامة بدلاً من روابط خاصة. ونتيجة لذلك، تم فهرسة استفسارات حساسة وغير أخلاقية في بعض الأحيان بواسطة محركات البحث، مما كشف عن جانب أقل من المثالي للتفاعل البشري مع الذكاء الاصطناعي.
لفت المحقق هينك فان إس، من خلال مدونته الفرعية "Digital Digging"، الانتباه إلى الخلل في وظيفة "المشاركة" في ChatGPT. بدلاً من إنشاء رابط خاص يمكن الوصول إليه فقط للمستلمين المقصودين، كانت الميزة تنشئ صفحات ويب عامة يمكن لمحركات البحث فهرستها. هذا يعني أن المحادثات التي اعتقد المستخدمون أنها خاصة كانت في الواقع قابلة للاكتشاف من قبل أي شخص.
اعترفت OpenAI بالمشكلة، حيث صرح مسؤول أمن المعلومات الرئيسي داين ستوكي على تويتر بأنها كانت "تجربة قصيرة الأجل". قامت الشركة منذ ذلك الحين بإزالة القدرة على جعل الدردشات متاحة للجمهور وتعمل بنشاط مع محركات البحث لإلغاء فهرسة المحادثات المكشوفة. ومع ذلك، تم أرشفة العديد من هذه الدردشات بواسطة منصات مثل أرشيف الإنترنت، مما يحافظ على سجل للإفصاحات غير المقصودة.
تكشف المحادثات المسربة عن طيف واسع من نوايا المستخدمين، تتراوح من المشكوك فيها أخلاقياً إلى الشخصية العميقة وحتى المقلقة.
شمل مثال واحد لافت للنظر مستخدمًا إيطاليًا يُعرّف نفسه بأنه محامٍ لشركة طاقة متعددة الجنسيات. طلب هذا المستخدم من ChatGPT استراتيجيات للتفاوض على أقل سعر ممكن مع مجتمع أصلي في الأمازون للحصول على أراضٍ لبناء سد، مستغلاً عدم فهم المجتمع المتصور للقيمة السوقية.
شملت المحادثات الأخرى:
شارك العديد من المستخدمين أيضًا معلومات تعريفية، بما في ذلك الأسماء والبيانات المالية الحساسة، ضمن هذه الدردشات.
يستدعي هذا الحادث أوجه تشابه مع المخاوف المبكرة المحيطة بالمساعدين الصوتيين، حيث تم استخدام تسجيلات محادثات المستخدمين لأغراض التدريب. ومع ذلك، فإن الطبيعة الأكثر تفصيلاً وحميمية لتفاعلات الدردشة مع الذكاء الاصطناعي مثل ChatGPT تعني أن المستخدمين يمكنهم الكشف عن معلومات شخصية وحساسة أكثر بكثير، خاصة عندما يعتقدون أن محادثاتهم خاصة. يسلط الكشف الضوء على الحاجة الملحة لضوابط خصوصية قوية ووعي المستخدم فيما يتعلق بقدرات وأوجه الضعف المحتملة لأدوات الذكاء الاصطناعي.









