أصدرت شركة OpenAI بطاقة نظام GPT-4o الخاصة بها، وهي وثيقة بحثية توضح تدابير السلامة وتقييمات المخاطر التي أجرتها الشركة الناشئة قبل إطلاق أحدث طراز لها.
تم إطلاق GPT-4o للعامة في مايو من هذا العام. قبل ظهوره لأول مرة، استخدم OpenAI مجموعة خارجية من أعضاء الفريق الأحمر، أو خبراء الأمن الذين يحاولون العثور على نقاط ضعف في النظام، للعثور على المخاطر الرئيسية في النموذج (وهي ممارسة قياسية إلى حد ما). لقد فحصوا مخاطر مثل إمكانية إنشاء GPT-4o نسخًا غير مصرح بها من صوت شخص ما، أو محتوى إباحي وعنيف، أو أجزاء من الصوت المحمي بحقوق الطبع والنشر. الآن، يتم إصدار النتائج.
وفقًا لإطار عمل OpenAI، وجد الباحثون أن GPT-4o “متوسط” الخطورة. تم أخذ مستوى المخاطر الإجمالي من أعلى تصنيف للمخاطر من أربع فئات إجمالية: الأمن السيبراني، والتهديدات البيولوجية، والإقناع، واستقلالية النموذج. تم اعتبار كل هذه الفئات منخفضة الخطورة باستثناء الإقناع، حيث وجد الباحثون بعض عينات الكتابة من…