“قد تولد أحيانًا معلومات غير صحيحة.”
هذا هو التحذير الذي يقوم OpenAI بتثبيته على الصفحة الرئيسية لبرنامج Chatbot ChatGPT الذي يعمل بالذكاء الاصطناعي – نقطة واحدة من بين تسعة توضح بالتفصيل إمكانات النظام وقيوده.
“يمكن أحياناً توليد معلومات غير صحيحة. ”
إنه تحذير يمكنك توجيهه إلى أي مصدر معلومات تقريبًا ، من Wikipedia إلى Google إلى الصفحة الأولى من اوقات نيويورك، وسيكون صحيحًا إلى حد ما.
“قد تولد في بعض الأحيان غير صحيح معلومة.”
لأنه عندما يتعلق الأمر بإعداد الناس لاستخدام التكنولوجيا على أنها قوية ومبالغ فيها ومساء فهمها مثل ChatGPT ، فمن الواضح أن OpenAI لا تفعل ما يكفي.
تم توضيح الطبيعة التي أسيء فهمها لـ ChatGPT للمرة الألف في نهاية هذا الأسبوع عندما اندلعت الأخبار بأن المحامي الأمريكي ستيفن شوارتز قد تحول إلى chatbot للعثور على قضايا داعمة في دعوى قضائية كان يرفعها ضد شركة الطيران الكولومبية Avianca. كانت المشكلة بالطبع هي عدم وجود أي من الحالات التي اقترحها ChatGPT.
شوارتز …