Unboxing Geeks

بيل جيتس يقلّل من شأن مخاطر الذكاء الاصطناعي

بيل جيتس يقلّل من شأن مخاطر الذكاء الاصطناعي

يبدو بيل جيتس أقل قلقًا من بعض المديرين التنفيذيين في وادي السيليكون بشأن مخاطر الذكاء الاصطناعي.

في مقالة نُشرت يوم الثلاثاء، حدد مؤسس شركة مايكروسوفت بعضًا من أكبر مخاطر الذكاء الاصطناعي، بما في ذلك إمكانية انتشار المعلومات المضللة وفقدان الوظائف. لكنه أكد أن هذه المخاطر “قابلة للإدارة”.

كتب جيتس: “هذا ليس المرة الأولى التي يُحدث فيها ابتكار جديد تهديدات جديدة يجب السيطرة عليها. لقد فعلنا ذلك من قبل”.

مخاطر الذكاء الاصطناعي

شبّه جيتس الذكاء الاصطناعي بالتغيرات “التحوّلية” السابقة في المجتمع، مثل إدخال السيارة، والذي تطلب من الجمهور بعد ذلك اعتماد أحزمة الأمان وحدود السرعة ورخص القيادة وغيرها من معايير السلامة.

وقال إن الابتكار يمكن أن يخلق “كثيرًا من الاضطرابات” في البداية، لكن المجتمع يمكن أن “يخرج في النهاية بشكل أفضل”.

تعد مايكروسوفت واحدة من الشركات الرائدة في السباق لتطوير ونشر مجموعة جديدة من أدوات الذكاء الاصطناعي التحويلي في منتجاتها، مع وعد بمساعدة الناس على أن يكونوا أكثر إنتاجية وإبداعًا.

ذو صلة: الذكاء الاصطناعي يهدد البشرية بالانقراض تمامًا مثل الحرب النووية

بيل جيتس يقلّل من شأن مخاطر الذكاء الاصطناعي 1

لكن عددًا من الشخصيات البارزة في الصناعة قد طرحوا أيضًا سيناريوهات انتهاء البشرية بسبب هذه التكنولوجيا سريعة التطور.

في أواخر مايو، انضم كبار خبراء التكنولوجيا بما في ذلك الرئيس التقني لشركة مايكروسوفت “كيفن سكوت” إلى عشرات من باحثي الذكاء الاصطناعي وبعض المشاهير في التوقيع على خطاب من جملة واحدة ينص على ما يلي: “يجب أن يكون التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي أولوية عالمية إلى جانب مخاطر اجتماعية واسعة النطاق مثل الأوبئة والحروب النووية”.

قال جيتس سابقًا أن الناس لا ينبغي أن “يدخلوا في حالة من الذعر” بشأن سيناريوهات نهاية العالم المتعلقة بالذكاء الاصطناعي.

وفي مقالة نُشرت في وقت سابق من هذا العام، كتب جيتس: “هل يمكن لآلة أن تقرر أن البشر يشكلون تهديدًا، أو أن نستنتج أن مصالحها مختلفة عن مصالحنا، أو ببساطة تتوقف عن الاهتمام بنا؟ من المحتمل، لكن هذه المشكلة ليست أكثر إلحاحًا اليوم مما كانت عليه قبل تطورات الذكاء الاصطناعي في الأشهر القليلة الماضية”.

اقرأ: OpenAI تجمع فريق متخصص في إدارة مخاطر الذكاء الاصطناعي الفائق

وفي مقالته الأسبوعية، قال جيتس إنه يعتقد أن أحد أكبر مخاطر الذكاء الاصطناعي هو إمكانية استخدام تقنيات التزييف العميق والمعلومات المضللة التي ينشئها الذكاء الاصطناعي لتقويض الانتخابات والديمقراطية.

وقال جيتس إنه يأمل أن “يمكن للذكاء الاصطناعي المساعدة في تحديد التزييف العميق مثلما يساعد في إنشائه”.

وقال أيضًا إن القوانين يجب أن تكون واضحة بشأن استخدام وتحديد التزييف العميق “حتى يعلم الجميع عندما يكون ما يرون أو يسمعون غير حقيقي”.

بيل جيتس يقلّل من شأن مخاطر الذكاء الاصطناعي 2

وأعرب جيتس أيضًا عن قلقه بشأن كيفية مساعدة الذكاء الاصطناعي على تسهيل شن هجمات إلكترونية على الأشخاص والحكومات من قبل المتسللين وحتى الدول.

وحث جيتس على تطوير تدابير الأمن السيبراني ذات الصلة، ودعوة الحكومات للنظر في إنشاء هيئة عالمية للذكاء الاصطناعي مماثلة للوكالة الدولية للطاقة الذرية.

اقرأ: إيلون ماسك يوقّع على عريضة لإيقاف تطوير الذكاء الاصطناعي

كما ذكر جيتس مخاوف أخرى، بما في ذلك كيف يمكن للذكاء الاصطناعي أن يأخذ وظائف الناس، ويعزز التحيزات المدمجة في البيانات التي يتم تدريبه عليها، والتأثير على طريقة تعلّم الأطفال للكتابة.

كتب جيتس: “يذكرني ذلك بالوقت الذي أصبحت فيه الآلات الحاسبة رائجة في السبعينيات والثمانينيات. كان بعض معلمي الرياضيات قلقين من أن الطلاب سيتوقفون عن تعلم كيفية إجراء العمليات الحسابية الأساسية، لكن آخرين تبنوا التكنولوجيا الجديدة وركزوا على مهارات التفكير ما وراء الحساب”.

وقال جيتس إن “من الطبيعي أن نشعر بعدم الارتياح” خلال فترة انتقالية، لكنه أضاف أنه “واثق من المستقبل” وكيف أن “التاريخ يُظهر أنه من الممكن حل التحديات التي يُحدثها تقنيات جديدة”.

وكتب جيتس: “إنه أكثر الابتكارات التحويلية التي سنراها في حياتنا، وسوف يعتمد النقاش العام الصحي على أن يكون الجميع على دراية بالتكنولوجيا وفوائدها ومخاطرها”.