البرلمان الأوروبي يعطل أدوات الذكاء الاصطناعي على أجهزته خوفًا على البيانات

الذكاء الاصطناعي
الذكاء الاصطناعي

قرر البرلمان الأوروبي تعطيل جميع أدوات الذكاء الاصطناعي المدمجة على الأجهزة المخصصة لأعضائه، في خطوة تعكس تصاعد المخاوف المتعلقة بالأمن السيبراني وحماية البيانات الحساسة.

 

البرلمان الأوروبي 

وأوضحت إدارة تكنولوجيا المعلومات في البرلمان، وفق رسالة داخلية اطلعت عليها وسائل إعلام أوروبية، أنه لا يمكن ضمان أمان المعلومات التي تُرفع إلى خوادم شركات الذكاء الاصطناعي، مشيرةً إلى أن نطاق البيانات التي قد تُشارك لا يزال قيد التقييم.

 وأكدت المذكرة أن تعطيل هذه الميزات يمثل الخيار الأكثر أمانًا في الوقت الراهن، خصوصًا مع احتمال رفع مستندات سرية إلى خدمات سحابية خارج الاتحاد الأوروبي.

مخاوف تتعلق بالقوانين الأمريكية

تعتمد معظم أدوات الذكاء الاصطناعي، مثل روبوتات الدردشة كلود من "Anthropic"، وكوبايلوت من "مايكروسوفت"، وChatGPT من "OpenAI"، على إرسال البيانات إلى شركات أمريكية، ما يفتح إمكانية مطالبة السلطات الأمريكية بتسليم معلومات المستخدمين بموجب أوامر قانونية، وهو ما يثير مخاوف بشأن سيادة البيانات الأوروبية.

كما أن استخدام هذه الأدوات قد يؤدي إلى إعادة استخدام البيانات لتحسين النماذج، ما يزيد احتمالية تسرب معلومات حساسة أو استخدامها بطرق غير مقصودة.

توتر تنظيمي وسياسي

يأتي هذا القرار في ظل تشدد الاتحاد الأوروبي في حماية البيانات، مع مراجعة بعض الدول الأعضاء لعلاقاتها مع شركات التكنولوجيا الأمريكية، في المقابل، اقترحت المفوضية الأوروبية العام الماضي تعديلات تشريعية تسمح بتدريب نماذج الذكاء الاصطناعي على بيانات الأوروبيين، ما أثار جدلًا حول التوازن بين حماية البيانات وتشجيع الابتكار.

 

في الأسابيع الأخيرة، أرسلت وزارة الأمن الداخلي الأميركية مئات مذكرات الاستدعاء لشركات تكنولوجيا ومنصات التواصل الاجتماعي للحصول على بيانات بعض الأشخاص، ما يؤكد أن شركات مثل "جوجل"، و"ميتا"، و"ريديت" استجابت في بعض الحالات، رغم غياب أوامر قضائية ملزمة.

يعكس قرار البرلمان الأوروبي اتجاهًا واضحًا نحو تشديد القيود على استخدام الذكاء الاصطناعي داخل المؤسسات الحساسة، إلى أن تتضح الأطر القانونية والتنظيمية لحماية البيانات عبر الحدود.

تم نسخ الرابط