تقوم OpenAI بتشكيل فريق جديد للسلامة، بقيادة الرئيس التنفيذي سام ألتمان، إلى جانب أعضاء مجلس الإدارة آدم دانجيلو ونيكول سيليجمان. ستقدم اللجنة توصيات بشأن “قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI” – وهو مصدر قلق شاركه العديد من الباحثين الرئيسيين في مجال الذكاء الاصطناعي عند مغادرة الشركة هذا الشهر.
بالنسبة لمهمته الأولى، سيقوم الفريق الجديد “بتقييم ومواصلة تطوير عمليات وإجراءات الحماية الخاصة بـ OpenAI”. وبعد ذلك ستقدم النتائج التي توصلت إليها إلى مجلس إدارة OpenAI، الذي يضم جميع قادة فريق السلامة الثلاثة مقعدًا فيه. سيقرر مجلس الإدارة بعد ذلك كيفية تنفيذ توصيات فريق السلامة.
إلى جانب لوحة الأمان الجديدة، أعلنت OpenAI أنها تختبر نموذجًا جديدًا للذكاء الاصطناعي، لكنها لم تؤكد ما إذا كان هو GPT-5.
في وقت سابق من هذا الشهر، كشفت OpenAI عن صوتها الجديد لـ ChatGPT، المسمى Sky، والذي يبدو مشابهًا بشكل مخيف لسكارليت جوهانسون (وهو شيء ألمح إليه ألتمان في X). إلا أن جوهانسون أكدت بعد ذلك أنها رفضت…