Unboxing Geeks

شركة OpenAI تبني نظام مراقبة محتوى مدعوم بالذكاء الاصطناعي

شركة OpenAI تبني نظام مراقبة محتوى مدعوم بالذكاء الاصطناعي

كشفت آخر التقارير أن شركة OpenAI تبني نظام مراقبة محتوى مدعوم بالذكاء الاصطناعي باستخدام نموذج GPT-4 القوي.

تُعدّ مراقبة المحتوى أحد أبرز القضايا العالقة على الإنترنت، فهي مسألة صعبة لأي شخص يحاول التعامل معها، نظرًا للنسبية التي ترافق عملية تحديد المحتوى المسموح به على منصة محددة.

وتعتقد شركة OpenAI، مطورة روبوت الدردشة الذكي ChatGPT، أنها تستطيع المساعدة، وقد قامت بوضع مهارات مراقبة المحتوى لـ GPT-4 على المحك.

حيث تستخدم الشركة هذا النموذج المتعدد الوسائط الكبير “لبناء نظام مراقبة محتوى قابل للتوسع، ومتسق، وقابل للتخصيص”.

نظام مراقبة محتوى مدعوم بالذكاء الاصطناعي

وفي منشور على موقعها، قالت الشركة أن GPT-4 يمكنه المساعدة في اتخاذ قرارات مراقبة المحتوى، ويمكنه أيضًا المساعدة في وضع السياسات والتكيف بسرعة مع التغييرات فيها، “مما يقلل الفترة الزمنية من أشهر إلى ساعات”.

وتدّعي الشركة أن النموذج يمكنه تحليل التنظيمات المختلفة والتفاصيل الدقيقة في سياسات المحتوى والتكيف الفوري مع أي تحديثات. وتؤكد OpenAI أن هذا يؤدي إلى تحديد المحتوى بشكل أكثر انتظامًا.

وقالت ليليان وينغ وفيك جويل وأندريا فالوني من OpenAI: “نعتقد أن هذا يقدم رؤية أكثر إيجابية لمستقبل المنصات الرقمية، حيث يمكن للذكاء الاصطناعي مساعدة في مراقبة حركة الإنترنت وفقًا لسياسات محددة لكل منصة، وتخفيف العبء الذهني عن المراقبين البشريين. يمكن لأي شخص يتمتع بوصول إلى واجهة برمجة التطبيقات (API) الخاصة بـ OpenAI تنفيذ هذا النهج لإنشاء نظام مراقبة مساعد بالذكاء الاصطناعي الخاص به”.

وتزعم OpenAI أن أدوات مراقبة GPT-4 يمكنها مساعدة الشركات في إنجاز حوالي ستة أشهر من العمل في يوم واحد تقريبًا.


اقرأ: جوجل تتيح إزالة المعلومات الشخصية من نتائج البحث بسهولة


من المعروف أن مراجعة المحتوى المؤذي يدويًا يمكن أن يكون له تأثير كبير على الصحة العقلية للمراقبين البشريين، خاصة عندما يتعلق الأمر بالمواد العنيفة.

في عام 2020، وافقت ميتا على دفع تعويضات لأكثر من 11 ألف مشرف محتوى بمبلغ لا يقل عن 1000 دولار لكل منهم بسبب مشاكل الصحة العقلية التي قد تكون بسبب مراجعة المواد التي تم نشرها على فيسبوك.

ويمكن أن يكون استخدام الذكاء الاصطناعي لتخفيف العبء عن المراجعين البشريين مفيدًا للغاية. فقد اعتمدت ميتا، على سبيل المثال، الذكاء الاصطناعي لمساعدة المشرفين لعدة سنوات.

ومع ذلك، تقول OpenAI أن المراجعين البشريين حتى الآن تلقوا المساعدة من “نماذج تعلم آلي أصغر تخصصية. وهذه العملية بطيئة بطبيعتها وقد تؤدي إلى إجهاد عقلي على المشرفين البشريين”.


اقرأ › استخدام ChatGPT في الجريمة: ثلاث طُرق تساعد المجرمين على استغلالك


نماذج الذكاء الاصطناعي ليست مثالية، فقد استخدمت الشركات الكبرى الذكاء الاصطناعي في عمليات مراجعة ومراقبة المحتوى لفترة طويلة، وبغض النظر عما إذا كانت تستخدم هذه التكنولوجيا أم لا، فإنها لا تزال ترتكب أخطاء كبيرة في اتخاذ قرارات ذات صلة بالسماح بالمحتوى أو حظره.

ولا نعرف حتى الآن ما إذا كان نظام OpenAI سيتجنب العديد من الفخاخ الكبرى في مراقبة المحتوى التي شهدناها لدى الشركات الأخرى على مر السنين.

على أي حال، تتفق OpenAI على أن البشر لا يزالون بحاجة للمشاركة في العملية. وصرّح فالوني، العمل في فريق سياسة OpenAI لصحيفة بلومبرغ: “لقد استمرينا في المراجعة البشرية للتحقق من بعض قرارات النموذج”.