لمدة ساعتين تقريبًا في الأسبوع الماضي، تمكن موظفو Meta من الوصول غير المصرح به إلى بيانات الشركة والمستخدم بفضل وكيل الذكاء الاصطناعي الذي قدم للموظف مشورة فنية غير دقيقة، كما أفاد سابقًا بواسطة المعلومات. وقالت المتحدثة باسم ميتا تريسي كلايتون في بيان لـ الحافة أنه “لم يتم التعامل بشكل سيء مع بيانات المستخدم” أثناء الحادث.
كان أحد مهندسي Meta يستخدم وكيلًا داخليًا للذكاء الاصطناعي، والذي وصفه كلايتون بأنه “يشبه في طبيعته OpenClaw ضمن بيئة تطوير آمنة”، لتحليل سؤال فني نشره موظف آخر في منتدى داخلي للشركة. لكن الوكيل أيضًا أجاب علنًا بشكل مستقل على السؤال بعد تحليله، دون الحصول على الموافقة أولاً. وكان المقصود من الرد فقط أن يظهر للموظف الذي طلب ذلك، وليس نشره علنًا.
ثم تصرف أحد الموظفين بناءً على نصيحة الذكاء الاصطناعي، التي “قدمت معلومات غير دقيقة” أدت إلى حادث أمني بمستوى “SEV1″، وهو ثاني أعلى تصنيف خطورة تستخدمه Meta. الحادثة مؤقتا..

