Unboxing Geeks

الذكاء الاصطناعي يهدد البشرية بالانقراض تمامًا مثل الحرب النووية

الذكاء الاصطناعي يهدد البشرية بالانقراض تمامًا مثل الحرب النووية

يبدو أن الذكاء الاصطناعي يهدد البشرية بالانقراض بشكل حقيقي وكبير وليس مجرد خيال علمي، على الأقل وفقًا لخبراء الصناعة.

مع ظهور ChatGPT وBard وغيرها من النماذج اللغوية الكبيرة، بدأنا نسمع تحذيرات من شخصيات بارزة مثل إيلون ماسك حول المخاطر التي يشكلها الذكاء الاصطناعي. والآن، أصدر مجموعة من قادة الصناعة بيانًا يؤكدون فيه بشكل فعال هذه المخاوف.

لهذا السبب، يجب أن يكون التخفيف من مخاطر الانقراض الناجمة عن الذكاء الاصطناعي أولوية عالمية جنبًا إلى جنب مع المخاطر الأخرى على مستوى المجتمع مثل الأوبئة والحروب النووية.

الذكاء الاصطناعي يهدد البشرية بالانقراض

نشر هذا البيان من مركز سلامة الذكاء الاصطناعي، وهي منظمة تهدف «لتخفيض المخاطر الناجمة عن الذكاء الاصطناعي على مستوى المجتمع»، وفقًا لموقعها الإلكتروني.

وقد وقّع عليه نخبة من قادة صناعة الذكاء الاصطناعي، بما في ذلك الرئيس التنفيذي لشركة OpenAI سام ألتمان ورئيس Google DeepMind ديميس حسابيس.

كما وقع عليه الباحثان الحائزان على جائزة تورينج جيفري هينتون ويوشوا بينجيو، اللذان يعتبران من آباء تقنية الذكاء الاصطناعي الحديثة.

وهذا البيان هو الثاني من نوع البيانات المشابهة التي صدرت خلال الأشهر القليلة الماضية.

اقرأ أيضًا » خبير: الذكاء الاصطناعي قد يؤدي إلى فناء البشرية

في شهر مارس، دعا إيلون ماسك وستيف ووزنياك وأكثر من 1000 شخص آخر إلى تعليق العمل على التكنولوجيا الذكية لمدة ستة أشهر للسماح للصناعة والجمهور باللحاق بالتكنولوجيا.

ويشير البيان إلى أن التكنولوجيا الذكية الحديثة تشكل خطرًا على السلامة العامة عن طريق الفيديوهات المزيفة والتضليل الآلي وغيرها.

وعلى الرغم من أن الذكاء الاصطناعي ليس (على الأرجح) على دراية بذاته كما يعتقد بعض الناس، إلا أنه يشكل بالفعل مخاطر للاستخدام السيئ وإلحاق الأضرار عن طريق الفيديوهات المزيفة والتضليل الآلي وغيرها.

ذو صلة » استخدام ChatGPT في الجريمة: ثلاث طُرق تساعد المجرمين على استغلالك

وقد يؤدي استخدام النماذج اللغوية الكبيرة إلى تغيير طريقة إنتاج المحتوى والفن والأدب، مما قد يؤثر على الكثير من الوظائف.

وعبّر الرئيس الأمريكي جو بايدن مؤخرًا عن أن «لا يزال مجهولًا لنا» ما إذا كان الذكاء الاصطناعي خطيرًا، مضيفًا «لدى شركات التكنولوجيا مسؤولية، في رأيي، للتأكد من أن منتجاتهم آمنة قبل إطلاقها إلى العامة… يمكن أن يساعد الذكاء الاصطناعي في التعامل مع بعض التحديات الصعبة مثل الأمراض والتغيرات المناخية، ولكنه يجب أن يتعامل أيضاً مع المخاطر المحتملة على مجتمعنا واقتصادنا وأمننا الوطني».

وفي اجتماع حديث في البيت الأبيض، دعا رئيس OpenAI سام ألتمان إلى تنظيم الذكاء الاصطناعي بسبب المخاطر المحتملة.

ومع وجود العديد من الآراء المتداولة، يهدف البيان الجديد إلى إظهار القلق المشترك بشأن مخاطر الذكاء الاصطناعي، حتى لو لم يتفق الأطراف حول تلك المخاطر بشكل كامل.

وجاء في البيان: «يتحدث الخبراء في مجال الذكاء الاصطناعي والصحفيون وصنّاع السياسة والجمهور بشكل متزايد عن مجموعة واسعة من المخاطر الهامة والعاجلة المتعلقة بالذكاء الاصطناعي»

ويضيف: «ومع ذلك، يمكن أن يكون من الصعب التعبير عن القلق بشأن بعض من أخطر المخاطر الناتجة عن الذكاء الاصطناعي المتقدم. يهدف البيان المختصر أدناه إلى التغلب على هذا العائق وفتح نقاش، ويهدف أيضاً إلى خلق معرفة مشتركة حول العدد المتزايد من الخبراء والشخصيات العامة الذين يأخذون بعض أخطر المخاطر الناتجة عن الذكاء الاصطناعي المتقدم على محمل الجد، إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحروب النووية».