يستطيع مساعد Google الآن فهم لغتين في وقت واحد




يعد القضاء على انتشار مواد الاعتداء الجنسي على الأطفال (CSAM) أولوية لشركات الإنترنت الكبرى. لكنها أيضًا مهمة صعبة ومروعة بالنسبة لأولئك الموجودين في الخطوط الأمامية - وهم المشرفون الإنسانيون الذين يتعين عليهم تحديد المحتوى المسيء وإزالته. لهذا السبب تقوم Google اليوم بإصدار برنامج AI مجاني مصمم لمساعدة هؤلاء الأفراد. تعمل معظم الحلول التقنية في هذا المجال عن طريق التحقق من الصور ومقاطع الفيديو مقابل كتالوج المواد المسيئة التي تم تحديدها مسبقًا.

(انظر ، على سبيل المثال: PhotoDNA ، وهي أداة تم تطويرها بواسطة Microsoft ونشرتها شركات مثل Facebook و Twitter.) يعد هذا النوع من البرامج ، المعروف باسم "الزاحف" ، وسيلة فعالة لمنع الأشخاص من مشاركة CSAM المعروفة مسبقًا. لكن لا يمكنها التقاط مواد لم يتم تمييزها بالفعل على أنها غير قانونية. لذلك ، يتعين على المشرفين على الإنسان التدخل ومراجعة المحتوى بأنفسهم. لقد تعطلت أدوات GOOGLE'S AI TOOL TRIAGES مع المواد ، ومساعدة المشرفين على العمل بشكل أسرع ، حيث ستساعد أداة AI الجديدة من Google.

 باستخدام خبرة الشركة في رؤية الماكينة ، فهي تساعد المشرفين عن طريق فرز الصور ومقاطع الفيديو التي تم الإبلاغ عنها و "إعطاء الأولوية لمحتوى CSAM الأكثر احتمالًا للمراجعة". ينبغي أن يتيح ذلك عملية مراجعة أسرع بكثير. في تجربة واحدة ، وفقًا لما يقوله Google ، ساعدت أداة AI المشرف على "اتخاذ إجراء بشأن 700 بالمائة من محتوى CSAM خلال نفس الفترة الزمنية." البرنامج "سيساعد الفرق مثل منطقتنا على نشر مواردنا المحدودة بشكل أكثر فعالية.

يقول لانجفورد: "في الوقت الحالي ، نستخدم البشر البحتين لتصفح المحتوى ونقول" نعم "لا".

"سيساعد ذلك في إنشاء ثلاثية". IWF هي واحدة من أكبر المؤسسات المخصصة لوقف انتشار CSAM عبر الإنترنت. يقع مقرها في المملكة المتحدة ولكن بتمويل من مساهمات من شركات التكنولوجيا العالمية الكبرى ، بما في ذلك جوجل. توظف فرق من المشرفين الإنسانين لتعريف صور الإساءة ، وتقوم بتشغيل خطوط توجيهية في أكثر من عشرة بلدان لمستخدمي الإنترنت للإبلاغ عن المواد المشبوهة. كما تنفذ عمليات التحقيق الخاصة بها ؛ تحديد المواقع التي يتم فيها مشاركة CSAM والعمل مع تطبيق القانون لإغلاقها. يقول لانجفورد إنه نظرًا لطبيعة "الادعاءات الخيالية المقدمة حول الذكاء الاصطناعى" ، فإن IWF سوف يختبر أداة الذكاء الاصطناعى الجديدة من جوجل بدقة لمعرفة كيف يعمل ويتناسب مع سير عمل المشرفين.

 وأضاف أن أدوات مثل هذه كانت خطوة نحو أنظمة أوتوماتيكية بالكامل يمكنها تحديد المواد غير المرئية سابقًا دون تفاعل بشري على الإطلاق. "هذا النوع من المصنف يشبه إلى حد ما الكأس المقدسة في حلقتنا". لكنه أضاف أن مثل هذه الأدوات يجب الوثوق بها فقط في حالات "القطع الواضحة" لتجنب ترك المواد المسيئة عبر الشبكة. يقول لانجفورد: "قبل بضع سنوات ، قلت إن هذا النوع من المصنفات كان على بعد خمس أو ست سنوات". "لكن الآن أعتقد أننا على بعد عام أو عامين فقط من إنشاء شيء مؤتمت بالكامل في بعض الحالات."

Post a Comment

أحدث أقدم