Unboxing Geeks

شكاوى خصوصية ChatGPT تؤدي إلى فتح تحقيق من هيئة الرقابة الكندية

شكاوى خصوصية ChatGPT تؤدي إلى فتح تحقيق من هيئة الرقابة الكندية

بعد منع السلطة الإيطالية روبوت الدردشة ChatGPT التابع لشركة OpenAI في البلاد وإطلاق تحقيق حول الشركة، أعلنت سلطة كندية مماثلة عن تحقيق منفصل في ممارسات خصوصية ChatGPT والانتهاكات ذات الصلة.

وجاء التحقيق عقب شكاوى خصوصية ChatGPT تتناول تعامل شركة OpenAI مع المعلومات الشخصية.

شكاوى خصوصية ChatGPT

تستخدم OpenAI كميات كبيرة من بيانات الإنترنت لتدريب النماذج اللغوية الكبيرة التي تشغل ChatGPT.

بالإضافة إلى ذلك، يجمع ChatGPT بيانات المستخدم من التفاعلات مع المستخدمين أنفسهم. ولم تقدم OpenAI معلومات محددة حول ما يحدث بهذه البيانات، ولم تسمح للمستخدمين بحذف معلوماتهم الشخصية.

لهذا السبب أطلق مفوض الخصوصية الكندي تحقيقًا حول كل من OpenAI و ChatGPT. وجاءت هذه الخطوة بعد تلقي المفوضية شكوى “تتهم (ChatGPT) بجمع واستخدام وكشف المعلومات الشخصية بدون موافقة”.

وأكد مسؤولو OpenAI، بما في ذلك الرئيس التنفيذي سام ألتمان، خلال اجتماع فيديو مع المفوضين أنهم سيتصدون لمخاوف الخصوصية المتعلقة بـ ChatGPT من خلال تدابير جديدة. ولكن ليس من الواضح ما هي هذه التدابير.

من المرجح أن تتخذ OpenAI إجراءات مماثلة في أوروبا، التي تفرض قواعد خصوصية أكثر صرامة من غيرها من الأماكن.

ربما تكون إيطاليا هي أول دولة في المنطقة التي تتحقق من ممارسات خصوصية ChatGPT. وتشير تقارير البوليتيكو إلى أن دولًا مثل بلجيكا وأيرلندا وفرنسا والنرويج تنظر أيضًا في الآثار الخصوصية لمنتج الذكاء الاصطناعي الإنتاجي الذي أثار ضجة في عالم التكنولوجيا.

حيث تلقت هيئة حماية البيانات الفرنسية CNIL شكوتين على الأقل بخصوص انتهاك روبوت ChatGPT خصوصية المستخدمين.

وأكدت جوجل مؤخرًا أنها ستضيف ذكاء اصطناعي بقوة ChatGPT إلى محرك بحثها في المستقبل. ونأمل أن تكون لدى جوجل ممارسات خصوصية أقوى عندما يتم إطلاق الخدمة بما أن الرقابة والمنظمات تلحق بالصناعة الوليدة.

وأشارت المصادر الى أن مايكروسوفت، التي تضم تقنية ChatGPT في منتجاتها المختلفة، قدمت مثالاً ممتازاً في الخصوصية لمنتج الذكاء الاصطناعي الأمني.

فأداة الذكاء الاصطناعي Copilot لا تشارك أي بيانات مع خوادم مايكروسوفت، وتبقى جميع التفاعلات مع الخدمة التي تعتمد على ChatGPT على خوادم المؤسسة أو الشركة التي تستخدمها.

ووعدت مايكروسوفت أنها لن تستخدم هذه البيانات لتدريب عناصر الذكاء الاصطناعي في Copilot. 

يجدر بالشركات المنتجة للتقنيات الجديدة، مثل OpenAI، اتخاذ إجراءات أكثر صرامة فيما يتعلق بخصوصية المستخدمين. ومن المهم أن تعمل الهيئات الرقابية والمنظمات على مراقبة هذه التقنيات وتحديد المخاطر المحتملة والضمانات اللازمة لحماية المعلومات الشخصية للأفراد.

المزيد حول ChatGPT: