في وقت يتسارع فيه العالم نحو توظيف الذكاء الاصطناعي باعتباره محركًا رئيسيًا للنمو الاقتصادي، وتطوير البحث العلمي، وتحسين كفاءة الإنتاج في مختلف القطاعات، تتصاعد في المقابل مخاوف أمنية حقيقية من انزلاق هذه التقنية إلى مسارات خطرة، قد تجعل منها أداة مساعدة للجماعات المتطرفة والتنظيمات الإرهابية، في ظل غياب أطر تنظيمية صارمة قادرة على ضبط استخدامها.
لم تعد هذه المخاوف مجرّد سيناريوهات نظرية أو تحذيرات أكاديمية، بل تحوّلت إلى محور نقاش جدي داخل دوائر صنع القرار والأجهزة الأمنية والاستخباراتية حول العالم، مع تزايد المؤشرات على محاولات اختبار قدرات الذكاء الاصطناعي وتطويعها لخدمة أهداف غير مشروعة، تتراوح بين التجنيد الرقمي، ونشر الدعاية المتطرفة، وصولًا إلى التخطيط لعمليات عنف معقّدة.
الذكاء الاصطناعي.. تقنية مزدوجة الاستخدام
يؤكد خبراء في مجال الذكاء الاصطناعي أن هذه التكنولوجيا تمثل سلاحًا ذا حدّين، فمن ناحية، تسهم في تسريع الاقتصاد العالمي، ودعم الابتكار، وتطوير قطاعات حيوية مثل الطب والطاقة والتعليم والصناعة، ومن ناحية أخرى، يمكن أن تتحول إلى أداة خطرة حين تقع في الأيدي الخطأ، أو تُستخدم دون ضوابط أخلاقية وقانونية واضحة.
ويرى الخبير في الذكاء الاصطناعي ماركو مسعد في حديثه لـ"الدستور" أن الجماعات المتطرفة أدركت مبكرًا الإمكانات الكامنة في هذه التقنية، ولم تعد تعتمد فقط على الأساليب التقليدية في التجنيد والتخطيط، بل بدأت في استغلال الذكاء الاصطناعي لتعظيم تأثيرها وتسريع عملياتها، سواء على المستوى الدعائي أو العملياتي.
خطر التجنيد الرقمي وتزييف الوعي
يشير مسعد، إلى أن الذكاء الاصطناعي أتاح للجماعات المتطرفة أدوات غير مسبوقة للتأثير في الرأي العام، من خلال إنتاج محتوى دعائي مخصص بدقة للفئات المستهدفة، واستخدام الخوارزميات لتحليل السلوك الرقمي للشباب، واستغلال نقاط الضعف النفسية والاجتماعية لديهم.
كما تُستخدم تقنيات التزييف العميق في إنتاج صور ومقاطع فيديو وأخبار مزيفة، تُوظَّف لتشويه الحقائق، وتأجيج الصراعات، وتعبئة الأنصار، بما يمنح هذه الجماعات ما يشبه «مضاعف القوة» مقارنة بقدراتها التقليدية المحدودة.
تحديات الأجهزة الأمنية وحدود السيطرة
تواجه أجهزة الاستخبارات والحكومات تحديات متزايدة في ضبط الاستخدام السلبي للذكاء الاصطناعي، إذ تختلف طبيعة هذه التقنية عن الأدوات التقليدية التي اعتادت الأجهزة الأمنية التعامل معها، فكما يصعب السيطرة الكاملة على تصنيع المتفجرات أو منع تسريب المعرفة التقنية، يصبح من شبه المستحيل التنبؤ بكيفية استجابة نماذج الذكاء الاصطناعي لكل سيناريو أو سؤال محتمل.
ويوضح مسعد، أن نماذج الذكاء الاصطناعي غالبًا ما ترفض الإجابة المباشرة عن أسئلة تتعلق بصناعة الأسلحة أو تنفيذ هجمات، لكنها قد تقدّم معلومات جزئية أو غير مباشرة عند إعادة صياغة الأسئلة بطريقة ذكية، ما يفتح ثغرات يمكن استغلالها للحصول على معارف حساسة، تتعلق بنقاط ضعف البنى التحتية، أو أساليب التأثير الجماهيري، أو حتى التخطيط اللوجستي للعمليات.
الذكاء الاصطناعي لمواجهة الذكاء الاصطناعي
في ظل هذه التحديات، يطرح خبراء حلًا جزئيًا يقوم على توظيف الذكاء الاصطناعي لمراقبة نفسه، وتعتمد هذه المقاربة على تطوير نماذج متخصصة قادرة على تتبع أنماط الاستخدام المشبوهة، وتحليل الكلمات المفتاحية، وإصدار إنذارات مبكرة عند الاشتباه في نشاطات خطرة.
ويؤكد مسعد، أن الشركات المطوّرة لهذه النماذج تتحمل مسؤولية مركزية في هذا المجال، نظرًا لامتلاكها البيانات والقدرات التقنية اللازمة لرصد الاستخدامات المسيئة، إلا أنه يشدد في الوقت ذاته على أن هذه الحلول تظل نسبية، ولا يمكن اعتبارها ضمانة كاملة، في ظل التطور المستمر لأساليب التحايل والتلاعب.
فراغ تشريعي ومسؤولية مشتركة
وتتفاقم مخاطر الذكاء الاصطناعي في السياق الأمني نتيجة غياب إطار قانوني دولي ملزم ينظم استخدامه، إذ تكتفي معظم الحكومات حاليًا بمحاولات الرصد والمتابعة دون امتلاك أدوات قانونية واضحة للتدخل الوقائي.
ويرى مسعد، أن مواجهة هذه التحديات تتطلب مسؤولية مشتركة تشمل شركات التكنولوجيا، والمطورين، والحكومات، ومنصات التواصل الاجتماعي، إضافة إلى المجتمع المدني والمؤسسات الأكاديمية. فغياب التنسيق بين هذه الأطراف يترك المجال مفتوحًا أمام الاستغلال السيئ للتقنية.
أولوية الربح مقابل الأمن
من أبرز الإشكاليات التي يلفت إليها الخبراء، تركيز الشركات التكنولوجية الكبرى على تطوير النماذج بسرعة لتحقيق مكاسب اقتصادية، على حساب الاستثمار الكافي في الجوانب الأمنية والأخلاقية. هذا الخلل، بحسب مسعد، يفسر وقوع حوادث متكررة، من بينها نشر محتوى مضلل، أو تقديم إرشادات خطرة، أو تسهيل عمليات تجنيد رقمي دون قصد.
ويؤكد أن هذا التناقض بين التسارع التقني والبطء التنظيمي يخلق فجوة خطيرة، تسمح للتطبيقات السلبية بأن تسبق أي جاهزية مؤسسية لاحتوائها.
معركة التنظيم لا معركة التقنية
في المحصلة، يضع الخبراء الذكاء الاصطناعي في قلب المعادلة الأمنية المعاصرة، ليس بوصفه تهديدًا في حد ذاته، بل كأداة يمكن أن تتحول إلى خطر حقيقي في ظل سوء الاستخدام وغياب الضوابط، فالمعركة، وفق هذا التصور، ليست ضد الذكاء الاصطناعي، وإنما ضد توظيفه في بيئة تشريعية هشّة ورقابة غير مكتملة.
وبينما يستمر العالم في جني ثمار هذه الثورة التقنية، يبقى السؤال الأهم: هل ستنجح الدول في بناء منظومة تنظيمية تواكب سرعة الذكاء الاصطناعي، أم أن الجماعات المتطرفة ستظل قادرة على استغلال الفجوات، وتحويل أدوات التقدم إلى وسائل تهديد للأمن العالمي؟

















0 تعليق