"فيسبوك" يحذف 8,7 مليون صورة جنسية خلال الأشهر الأخيرة
أكدّت شركة فيسبوك،
اليوم الأربعاء، أنّها أزالت 8.7 مليون صورة من صور العري للأطفال خلال الأشهر
الأخيرة بمساعدة برنامج لم يتم الكشف عنه سابقًا يلتقط هذه الصور تلقائيًا.
ووفقاً لوكالة
رويترز، تمكنّت أداة التعلُم الآلي خلال العام الماضي من حذف الصور التي تحتوي على
العري والطفولة الجنسية، مما سمح بزيادة فرض حظر فيسبوك على الصور التي تعرض قاصرين
في سياق جنسي.
كما كشف نظام مماثل
يوم الأربعاء عن قيام المستخدمين بممارسة الجماع أو استغلال القاصرين جنسياً.
وقال رئيس إدارة
السلامة العالمية في فيسبوك "أنتيجون ديفيس" لرويترز، "إن تلك الآلة
تساعدنا في تحديد الأولويات والمحتوى الإشكالي بالنسبة لفريق المراجعين المدربين بالشركة".
وتستكشف الشركة
تطبيق التقنية نفسها على تطبيق انستاجرام الخاص بها.
وتحت ضغط من المنظمين
والمشرعين، تعهد موقع "فيس بوك" بالتعجيل في إزالة المواد المتطرفة وغير
المشروعة، وتعد برامج التعلم الآلي التي تدرس المليارات من أجزاء المحتوى التي ينشرها
المستخدمون كل يوم ضرورية لخطتها.