OpenAI تقر بخطر دائم.. متصفحات الذكاء الاصطناعي ستبقى عرضة لهجمات حقن الأوامر

شركة OpenAI
شركة OpenAI

أقرت شركة OpenAI بأن متصفحات الذكاء الاصطناعي ستظل معرضة لهجمات إلكترونية تُعرف باسم Prompt Injection أو «حقن الأوامر»، رغم الجهود المتواصلة لتعزيز أنظمة الحماية، ما يفتح باب التساؤلات حول مستوى أمان وكلاء الذكاء الاصطناعي في بيئة الإنترنت المفتوحة.

 

متصفحات الذكاء الاصطناعي

وقالت الشركة، في تدوينة رسمية، إن هذا النوع من الهجمات الذي يعتمد على زرع تعليمات خبيثة داخل صفحات ويب أو رسائل بريد إلكتروني من غير المرجح القضاء عليه نهائيًا، مشبهة إياه بعمليات الاحتيال والهندسة الاجتماعية المنتشرة على شبكة الإنترنت.

وأوضحت OpenAI، أن تفعيل وضع الوكيل الذكي في متصفحها الجديد ChatGPT Atlas يوسّع بطبيعته نطاق التهديدات الأمنية، في اعتراف صريح بتعقيد التحديات المرتبطة بهذا الجيل من المتصفحات الذكية، وفقًا لتقرير نشره موقع تك كرانش.

وكانت الشركة قد أطلقت متصفح «أطلس» في أكتوبر الماضي، إلا أن باحثين أمنيين تمكنوا سريعًا من إثبات إمكانية التلاعب بسلوك المتصفح عبر تعليمات بسيطة مخفية داخل مستندات Google Docs، ما أعاد المخاوف المتعلقة بأمن وكلاء الذكاء الاصطناعي إلى الواجهة.

وفي السياق نفسه، أكدت شركة Brave أن حقن الأوامر غير المباشر يمثل مشكلة هيكلية تطال معظم المتصفحات المعتمدة على الذكاء الاصطناعي، بما في ذلك متصفح Comet التابع لشركة Perplexity.

ولا يقتصر القلق على شركات التكنولوجيا فقط، إذ حذّر المركز الوطني للأمن السيبراني في المملكة المتحدة من أن هذا النوع من الهجمات قد لا يمكن منعه بالكامل، داعيًا المؤسسات إلى التركيز على تقليل المخاطر وتأثيرها بدلًا من افتراض إمكانية القضاء عليها نهائيًا.

وفي مواجهة هذا التحدي، أكدت «OpenAI» أنها تتبع نهجًا دفاعيًا متعدد الطبقات، يعتمد على الاختبار المستمر والاستجابة السريعة، إلى جانب استخدام مهاجم آلي قائم على النماذج اللغوية، يعمل بتقنيات التعلم المعزز لمحاكاة أساليب الاختراق واكتشاف الثغرات قبل استغلالها فعليًا.

ووفق الشركة، نجح هذا النظام في كشف سيناريوهات هجومية معقدة لم ترصدها حتى فرق الاختبار البشرية، من بينها محاولة دفع الوكيل الذكي إلى إرسال رسالة استقالة بدلًا من رد تلقائي خارج أوقات العمل.

ورغم هذه التحسينات، امتنعت «OpenAI» عن الإفصاح عما إذا كانت الإجراءات الجديدة قد خفضت فعليًا معدلات نجاح الهجمات، مكتفية بالتأكيد على استمرار التعاون مع جهات خارجية لتعزيز أمان المتصفح.

من جانبه، رأى رامي مكارثي، الباحث الأمني في شركة Wiz، أن التعلم المعزز أداة مهمة للتكيف مع سلوك المهاجمين، لكنها لا تمثل حلًا كافيًا بمفردها، مشيرًا إلى أن خطورة أنظمة الذكاء الاصطناعي تتضاعف كلما زادت استقلاليتها واتسع نطاق صلاحياتها.

وتوصي «OpenAI» المستخدمين بتقليل المخاطر من خلال تقييد الصلاحيات، وطلب موافقات بشرية قبل تنفيذ الإجراءات الحساسة مثل إرسال الرسائل أو إجراء المدفوعات، مؤكدة أن تحقيق التوازن بين الفائدة العملية والأمان لا يزال تحديًا قائمًا في المرحلة الحالية.

تم نسخ الرابط