وفقًا لمنشور على مدونة OpenAI، تعمل OpenAI على تحويل لجنة السلامة والأمن التابعة لها إلى “لجنة إشراف مجلس إدارة” مستقلة تتمتع بسلطة تأخير إطلاق النماذج بسبب مخاوف تتعلق بالسلامة. قدمت اللجنة التوصية بتشكيل مجلس إدارة مستقل بعد مراجعة حديثة استمرت 90 يومًا لـ “عمليات وضمانات السلامة والأمن” الخاصة بـ OpenAI.
وتقول شركة OpenAI إن اللجنة، التي يرأسها زيكو كولتر وتضم آدم دي أنجيلو وبول ناكاسوني ونيكول سيليجمان، “سيتم إطلاعها من قبل قيادة الشركة على تقييمات السلامة لإصدارات النماذج الرئيسية، وستمارس، جنبًا إلى جنب مع مجلس الإدارة بالكامل، الرقابة على إطلاق النماذج، بما في ذلك الحصول على سلطة تأخير الإصدار حتى تتم معالجة المخاوف المتعلقة بالسلامة”. كما سيتلقى مجلس إدارة OpenAI بالكامل “إحاطات دورية” حول “مسائل السلامة والأمن”.
إن أعضاء لجنة السلامة في OpenAI هم أيضًا أعضاء في مجلس إدارة الشركة الأوسع، لذا فمن…