شكلت Google و Openai و Roblox و Discord منظمة جديدة غير ربحية للمساعدة في تحسين سلامة الطفل عبر الإنترنت. تهدف مبادرة أدوات السلامة القوية على الإنترنت (ROOST) إلى جعل تقنيات السلامة الأساسية أكثر سهولة للشركات وتوفير أدوات AI مجانية ومفتوحة المصدر لتحديد مواد الاعتداء الجنسي على الأطفال ومراجعتها والإبلاغ عنها.
كانت هذه المبادرة مدفوعة جزئيًا بالتغييرات التي قدمتها تطورات الذكاء الاصطناعى التوليدي إلى البيئات عبر الإنترنت وتهدف إلى معالجة “الحاجة الماسة لتسريع الابتكار في سلامة الطفل عبر الإنترنت” ، وفقًا لشريك Roost المؤسس والمدير التنفيذي السابق لـ Google Eric Schmidt. تفاصيل حول أدوات الكشف عن CSAM ضئيلة إلى أبعد من ذلك أنها ستستخدم نماذج AI للغة الكبيرة والخيارات الحالية “توحيد” الخيارات الحالية للتعامل مع المحتوى.
“بدءًا من منصة تركز على حماية الطفل ، فإن النهج التعاوني والمفتوح في Roost سوف يعزز الابتكار ويجعل البنية التحتية الأساسية أكثر شفافية ، يمكن الوصول إليها ، وشاملة ، …