تعمل شركة OpenAI على تشكيل فريق متخصص في إدارة مخاطر الذكاء الاصطناعي الفائق. ويُعد الذكاء الاصطناعي الفائق نموذجًا فرضيًا قادرًا على التفوّق على الإنسان الأكثر ذكاءً وموهبة، والتميّز في عدة مجالات من الخبرات بدلاً من مجال واحد كنماذج الأجيال السابقة.
وتعتقد شركة OpenAI أن مثل هذا النموذج يمكن أن يظهر قبل نهاية العقد الحالي.
إدارة مخاطر الذكاء الاصطناعي الفائق
تقول الشركة غير الربحية: “سيكون الذكاء الاصطناعي الفائق أكثر التكنولوجيات التي ابتكرتها البشر تأثيرًا على الإنسانية، وقد يساعدنا في حل العديد من أهم المشكلات في العالم. ولكن يمكن أن يكون قدرة الذكاء الاصطناعي الفائق الهائلة خطيرة جدًا، ويمكن أن تؤدي إلى تقليل سلطة الإنسان أو حتى إلى انقراضه”.
وسيتم قيادة الفريق الجديد بالتعاون بين رئيس علماء OpenAI “إيليا سوتسكيفر” ورئيس تحالف مختبر الأبحاث “جان لايك”.
بالإضافة إلى ذلك، تعهدت شركة OpenAI بتخصيص 20% من قدرات حوسبتها للمبادرة، بهدف تطوير باحث آلي.
ومن المفترض أن يساعد هذا النظام شركة OpenAI في ضمان سلامة استخدام وإدارة مخاطر الذكاء الاصطناعي الفائق وتوافقه مع قيم الإنسان.
ذو صلة: إيلون ماسك يوقّع على عريضة لإيقاف تطوير الذكاء الاصطناعي
وتقول الشركة: “على الرغم من أن هذا الهدف طموح للغاية وليس مضمون النجاح، فإننا متفائلون بأن الجهود المركزة والمنسقة يمكن أن تحل هذه المشكلة”.
وأضاف المختبر أنه سيشارك خارطة طريق في المستقبل.
يأتي هذا الإعلان بينما تنظر الحكومات حول العالم في كيفية تنظيم صناعة الذكاء الاصطناعي الناشئة.
في الولايات المتحدة مثلًا، التقى سام ألتمان، المدير التنفيذي لشركة OpenAI، مع ما لا يقل عن 100 عضو في الكونغرس الفيدرالي في الأشهر الأخيرة.
اقرأ: الذكاء الاصطناعي يهدد البشرية بالانقراض تمامًا مثل الحرب النووية
وقال ألتمان علنًا أن تنظيم الذكاء الاصطناعي “ضروري”، وأنّ شركة OpenAI “متحمّسة” للعمل مع صانعي السياسات.
ومع ذلك، يجب أن نشكك في مثل هذه التصريحات وجهود فرق الانحياز الفائقة مثل شركة OpenAI.
من خلال تركيز الجمهور على المخاطر الفرضية التي قد لا تتحقق أبدًا، تحوّل مثل هذه المنظمات مسؤولية التنظيم إلى المستقبل بدلاً من الحاضر.
وهناك قضايا أقرب بحاجة إلى التصرّف العاجل مثل تفاعل الذكاء الاصطناعي مع العمل، والمعلومات الخاطئة، وحقوق التأليف والنشر التي يحتاج صانعو السياسات إلى معالجتها اليوم وليس غدًا.