كشف تقرير تقني صادر عن "BeyondTrust"، عن ثغرة في أداة "OpenAI Codex" يمكن أن تتيح استخراج رموز GitHub الحساسة، ما أعاد تسليط الضوء على تحديات أمان أدوات الذكاء الاصطناعي داخل بيئات التطوير.
وأوضح التقرير أن الخلل وقع داخل بيئة التنفيذ نفسها؛ حيث لم تُعالج أسماء الفروع "Branch Names" في "GitHub" بشكل آمن، ما أتاح إدخال أوامر خبيثة عبرها.
وأشار التقرير إلى تمكن الباحثون من استغلال هذا القصور لتنفيذ أوامر داخل الحاوية "Container"، في محاولة للوصول إلى رموز المصادقة المرتبطة بالمستودعات.
مفاتيح وصول عالية الحساسية
ولفت إلى أن رموز "OAuth" المصممة لتسهيل الربط بين الخدمات، تمثل في الوقت ذاته مفاتيح حساسة قد تمنح الوصول إلى مستودعات خاصة أو أنظمة التكامل والتسليم المستمر (CI/CD)، بل وقد تمتد إلى بيانات اعتماد أخرى داخل نفس البيئة.
تحوّل أدوات الذكاء الاصطناعي إلى وكلاء فعليين
ويبرز هذا الحادث تحول أدوات الذكاء الاصطناعي مثل "Codex" من مجرد مساعدين لاقتراح الشيفرات إلى وكلاء قادرين على تنفيذ مهام فعلية والتفاعل مع أنظمة حقيقية، ما يضاعف من مخاطر أي ثغرة أمنية، حتى وإن بدت بسيطة.
إخفاء الأوامر الخبيثة
كما لفت التقرير إلى أن الباحثين تمكنوا من إخفاء الأوامر الخبيثة باستخدام محارف خاصة تجعلها شبه غير مرئية، في أسلوب يجمع بين الخداع التقني والهندسة الاجتماعية.
إصلاح سريع
وذكر التقرير أن الثغرة تم إصلاحها سريعًا بعد الإبلاغ عنها، إلّا أن الحادثة تعكس الحاجة إلى تضييق نطاق صلاحيات التوكنات، وتعزيز العزل الأمني، والتعامل مع أدوات الذكاء الاصطناعي باعتبارها كيانات تمتلك أذونات فعلية داخل الأنظمة.
















0 تعليق