أصبحت أدوات الذكاء الاصطناعي التي تتصرف بشكل سيئ – مثل فقدان Bing AI من Microsoft المسار الذي كانت عليه في العام – نوعًا فرعيًا من التقارير حول الذكاء الاصطناعي. ولكن في كثير من الأحيان، يكون من الصعب معرفة الفرق بين الخلل والبناء السيئ لنموذج الذكاء الاصطناعي الأساسي الذي يحلل البيانات الواردة ويتنبأ بالاستجابة المقبولة، مثل مولد صور Gemini من Google الذي يرسم نازيين متنوعين بسبب إعداد الفلتر.
الآن، تطلق OpenAI المسودة الأولى لإطار عمل مقترح، يسمى Model Spec، والذي من شأنه تشكيل كيفية استجابة أدوات الذكاء الاصطناعي مثل نموذج GPT-4 الخاص بها في المستقبل. يقترح نهج OpenAI ثلاثة مبادئ عامة – أن نماذج الذكاء الاصطناعي يجب أن تساعد المطور والمستخدم النهائي باستجابات مفيدة تتبع التعليمات، وتفيد البشرية مع الأخذ في الاعتبار الفوائد والأضرار المحتملة، وتنعكس بشكل جيد على OpenAI فيما يتعلق بالأعراف والقوانين الاجتماعية.
ويتضمن أيضًا عدة قواعد:
تقول OpenAI إن الفكرة تتمثل أيضًا في السماح للشركات والمستخدمين “بتبديل” مدى “توابل” الذكاء الاصطناعي…