التكنولوجيا اليومية
·07/08/2025
كشف تسرب بيانات حديث عن مجموعة واسعة من تفاعلات المستخدمين مع ChatGPT، مبيناً أن العديد من الأفراد استخدموا روبوت الدردشة المدعوم بالذكاء الاصطناعي لأغراض مشكوك فيها أخلاقياً وشخصية للغاية. وقد أدى التسرب، الناجم عن خلل في وظيفة "المشاركة" في ChatGPT، إلى جعل العديد من المحادثات قابلة للبحث علناً عن غير قصد، مما يسلط الضوء على اتجاه مقلق للمستخدمين الذين يحاولون الاستعانة بالذكاء الاصطناعي في أنشطة غير مشروعة ومناقشات حساسة.
من بين الاكتشافات الأكثر إثارة للقلق هي الحالات التي سعى فيها المستخدمون للحصول على مساعدة ChatGPT في أفعال مستهجنة أخلاقياً. تضمن أحد الأمثلة المزعجة بشكل خاص مستخدماً إيطالياً، عرف نفسه كمحامٍ لشركة طاقة متعددة الجنسيات، يطلب من الذكاء الاصطناعي استراتيجيات لاستغلال مجتمعات الأمازون الأصلية للاستحواذ على الأراضي لبناء سد. وقد سعى المستخدم صراحة إلى طرق لتأمين أقل سعر ممكن من خلال استغلال افتقار المجتمع للفهم السوقي.
إلى جانب الطلبات غير الأخلاقية الصريحة، أظهرت المحادثات المسربة أيضاً محترفين يحاولون إلقاء مسؤوليات حرجة على عاتق ChatGPT. وشمل ذلك:
تضمنت العديد من هذه التفاعلات معلومات شخصية قابلة للتحديد، تتراوح من الأسماء إلى البيانات المالية الحساسة، مما يزيد من تفاقم مخاوف الخصوصية.
كما كشف التسرب عن حالات لجأ فيها أفراد ضعفاء إلى ChatGPT للحصول على المساعدة في مواقف شخصية للغاية وربما خطيرة. وشمل ذلك:
لقد عالجت OpenAI منذ ذلك الحين الثغرة الأمنية عن طريق تعطيل ميزة المشاركة العامة التي أدت إلى التسرب. وصرح كبير مسؤولي أمن المعلومات في الشركة بأنها كانت "تجربة قصيرة الأجل". وتجري الجهود لإزالة النتائج المفهرسة من محركات البحث. ومع ذلك، فإن المحادثات المكشوفة، التي تم أرشفة العديد منها، تعد تذكيراً صارخاً بإمكانية إساءة استخدام تقنية الذكاء الاصطناعي وأهمية الضمانات القوية للخصوصية. ويشبه هذا الوضع المخاوف المبكرة بشأن مساعدي الصوت الذين يسجلون محادثات المستخدمين، ولكن عمق وحميمية تفاعلات الذكاء الاصطناعي النصية تزيد من مخاطر الخصوصية.









