Unboxing Geeks

إيلون ماسك يوقّع على عريضة لإيقاف تطوير الذكاء الاصطناعي

إيلون ماسك يوقّع على عريضة لإيقاف تطوير الذكاء الاصطناعي

مع النمو المتسارع لاستخدام الذكاء الاصطناعي مؤخرًا، وقّع إيلون ماسك -إلى جانب خبراء وقادة القطاع التقني- على عريضة تهدف لإيقاف تطوير الذكاء الاصطناعي في الوقت الحالي.

ويبدو أن عددًا متزايدًا من رواد التكنولوجيا الرفيعي المستوى مثل رواد الأعمال والرؤساء التنفيذيين وخبراء الذكاء الاصطناعي ليسوا متحمسين للتسارع والنشر الكبير لأدوات الذكاء الاصطناعي التي تمت في الآونة الأخيرة.

إيقاف تطوير الذكاء الاصطناعي

في رسالة مفتوحة وقع عليها خبراء الذكاء الاصطناعي وأسماء بارزة أخرى مثل إيلون ماسك وستيف وزنياك الشريك المؤسس في شركة أبل، تطالب بـ “إيقاف التجارب العملاقة للذكاء الاصطناعي”.

حيث يقول الخبراء إن الذكاء الاصطناعي يشكل “مخاطر عميقة على المجتمع والإنسانية”، وأنه، نظرًا لهذا الخطر، يجب أن يتم تخطيط وإدارة تطوير ونشر الذكاء الاصطناعي “بالعناية والموارد المناسبة”.

يقول الفريق إن هذا لا يحدث حاليًا، وبدلاً من ذلك، تتسابق المختبرات للتغلب على بعضها البعض وتقديم الجيل التالي من الذكاء الاصطناعي دون النظر بشكل صحيح إلى العواقب.

وبسبب هذا، تطلب الرسالة من جميع مختبرات الذكاء الاصطناعي “إيقاف تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4 لمدة 6 أشهر على الأقل”. كما يقول الخبراء إنه يجب حتى على الحكومات التدخل إذا لزم الأمر لمنع المزيد من التطور.

يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا الإيقاف لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير الذكاء الاصطناعي المتقدم التي يتم فحصها بدقة ومراقبتها من قبل خبراء مستقلين. يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تلتزم بها آمنة بما يفوق الشك. ويشير الفريق إلى أن هذا لا يعني إيقاف تطوير الذكاء الاصطناعي بشكل عام، بل التراجع عن السباق الخطير إلى نماذج غير قابلة للتنبؤ بقدراتها الناشئة.

تقول الرسالة أيضًا إن الحكومات في جميع أنحاء العالم يجب أن تعمل معًا من أجل إنشاء أنظمة حوكمة للذكاء الاصطناعي، بما في ذلك السلطات التنظيمية الجديدة، وتكنولوجيا لتمييز ما يولده الذكاء الاصطناعي عن ما يصنعه البشر، وغير ذلك.

يجب أن تشمل هذه على الأقل: سلطات تنظيمية جديدة وقادرة على العمل مع الذكاء الاصطناعي؛ لتتبع أنظمة الذكاء الاصطناعي القوية والقدرات الحسابية الكبيرة والإشراف عليها؛ وأنظمة الأصل والعلامات المائية للمساعدة في تمييز الواقع عن الاصطناعي وتتبع تسرب النماذج؛ ونظام تدقيق وتصديق قوي؛ والمسؤولية عن الضرر الذي يسببه الذكاء الاصطناعي؛ وتمويل عام قوي لأبحاث السلامة الفنية للذكاء الاصطناعي؛ وإنشاء مؤسسات ذات موارد جيدة للتعامل مع الاضطرابات الاقتصادية والسياسية الكبيرة (خاصة في الديمقراطية) التي سيسببها الذكاء الاصطناعي.

تأتي الرسالة ردًا على الارتفاع المتزايد في تطوير تكنولوجيا الذكاء الاصطناعي من شركات مثل OpenAI ومايكروسوفت. وهناك أيضًا شائعات بالفعل تفيد بأن OpenAI على وشك الانتهاء من اختبار GPT-5 الذي سيصل إلى الذكاء الاصطناعي العام.