التزمت شركات التكنولوجيا مثل Google وMeta وOpenAI وMicrosoft وAmazon اليوم بمراجعة بيانات تدريب الذكاء الاصطناعي الخاصة بها فيما يتعلق بمواد الاعتداء الجنسي على الأطفال (CSAM) وإزالتها من الاستخدام في أي نماذج مستقبلية.
وقعت الشركات على مجموعة جديدة من المبادئ التي تهدف إلى الحد من انتشار CSAM. يعدون بالتأكد من أن مجموعات بيانات التدريب لا تحتوي على مواد الاعتداء الجنسي على الأطفال، لتجنب مجموعات البيانات ذات المخاطر العالية المتمثلة في تضمين مواد الاعتداء الجنسي على الأطفال، وإزالة صور مواد الاعتداء الجنسي على الأطفال أو الروابط إلى مواد الاعتداء الجنسي على الأطفال من مصادر البيانات. تلتزم الشركات أيضًا “باختبار الإجهاد” لنماذج الذكاء الاصطناعي للتأكد من أنها لا تولد أي صور CSAM ولا تصدر النماذج إلا إذا تم تقييمها من أجل سلامة الأطفال.
ومن بين الموقعين الآخرين: Anthropic، وCivitai، وMetaphysic، وMistral AI، وStability AI.
وقد ساهم الذكاء الاصطناعي التوليدي في زيادة المخاوف بشأن الصور المزيفة، بما في ذلك انتشار صور CSAM المزيفة عبر الإنترنت. أصدر باحثون من جامعة ستانفورد تقريرًا في ديسمبر وجد أن مجموعة بيانات شائعة تستخدم لتدريب بعض نماذج الذكاء الاصطناعي تحتوي على…