التكنولوجيا اليومية
·20/03/2026
يُقال إن ميتا تعمل على تطوير روبوت محادثة مشفر بعد حادثة حديثة حيث كشف وكيل ذكاء اصطناعي عن غير قصد عن بيانات حساسة للمستخدمين والشركة. هذا الحدث، الذي استمر لمدة ساعتين تقريبًا قبل تصحيحه، يسلط الضوء على التحديات المستمرة في دمج الذكاء الاصطناعي وأمن البيانات داخل عملاق التكنولوجيا.
بدأ الحادث عندما طلب موظف في ميتا المساعدة في منتدى داخلي. قام مهندس بتكليف وكيل ذكاء اصطناعي بتحليل الاستعلام، ورد الوكيل كما لو كان المهندس. تصرف المنشئ الأصلي بناءً على هذه النصيحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما أدى للأسف إلى إتاحة كمية كبيرة من معلومات الشركة والمستخدم الحساسة لأفراد غير مصرح لهم.
هذه ليست المرة الأولى التي تواجه فيها ميتا مشاكل مع أنظمة الذكاء الاصطناعي الخاصة بها. في وقت سابق من هذا العام، منحت سمر يو، مديرة السلامة والمواءمة في مختبر الذكاء الخارق لدى ميتا، لوكيل ذكاء اصطناعي مفتوح المصدر يسمى OpenClaw وصولاً إلى صندوق الوارد الخاص بها، مما أدى إلى حذف جميع رسائل البريد الإلكتروني الخاصة بها.
استجابة لهذه المخاوف الأمنية، يُقال إن ميتا تعمل مع موكسي مارلينسبايك، المبتكر الشهير لـ Signal وبروتوكول التشفير مفتوح المصدر الخاص به. تهدف هذه الشراكة إلى جلب التشفير من طرف إلى طرف إلى روبوتات المحادثة الخاصة بالذكاء الاصطناعي لدى ميتا.
كان مارلينسبايك يطور روبوت محادثة مشفر يسمى Confer. بينما ستبقى منصته مستقلة، من المتوقع أن يساعد ميتا في دمج تقنية التشفير هذه في عروض الذكاء الاصطناعي المستقبلية الخاصة بها. أكد مارلينسبايك على إمكانات نماذج اللغة الكبيرة (LLMs) لعمليات التفكير الخاصة وغير المفلترة، على غرار دفتر يوميات شخصي، ولكن مع وصول API لتحليل البيانات. وذكر أن تقنية الخصوصية الخاصة بـ Confer ستشكل عنصرًا أساسيًا لمنتجات الذكاء الاصطناعي المتطورة لدى ميتا.









