يطلق المركز القومي للبحوث الاجتماعية والجنائية كتابه الجديد «حوكمة توظيف الذكاء الاصطناعي في البحوث الاجتماعية»، في محاولة جادة للإجابة عن سؤال بات ملحًا: كيف يمكن الاستفادة من الذكاء الاصطناعي في البحث الاجتماعي دون الإخلال بالأبعاد الأخلاقية والمعرفية والإنسانية؟
الكتاب الذي أشرفت على تحريره الدكتورة هالة رمضان، مديرة المركز القومي للبحوث الاجتماعية والجنائية، وشارك في تأليفه كل من الدكتور خالد كاظم أبو دوح والدكتور وليد رشاد زكي، لا يكتفي بتقديم توصيف تقني للذكاء الاصطناعي، بل ينطلق من رؤية نقدية تسعى إلى تأطير استخدامه داخل العلوم الاجتماعية ضمن منظومة حوكمة واضحة المعايير والمسؤوليات.
من تحولات البحث الاجتماعي إلى إشكاليات القرن الحادي والعشرين
يؤكد الكتاب في مقدمته أن البحث في العلوم الاجتماعية لم يعد حقلًا تقليديًا يقتصر على المناهج الكلاسيكية، بل أصبح مجالًا متعدد التخصصات يشمل علم الاجتماع، وعلم النفس، والاقتصاد، والعلوم السياسية، والإعلام، ودراسات الاتصال، والجريمة، والصحة العامة، وغيرها من الحقول المتداخلة .
وفي هذا السياق، يبرز الذكاء الاصطناعي كعامل تغيير جوهري، بعدما وفّر أدوات غير مسبوقة في جمع البيانات وتحليلها وتفسيرها، مثل تحليل النصوص، ونمذجة الموضوعات، وتحليل المشاعر، والترجمة الآلية، وهي تطبيقات باتت تؤثر بشكل مباشر في كل مراحل البحث العلمي، من صياغة الإشكالية إلى نشر النتائج .
الفرص والمخاطر: وجهان لعملة واحدة
يركّز الكتاب، في فصله الثاني، على الفرص التي أتاحها الذكاء الاصطناعي للباحث الاجتماعي، وعلى رأسها: تسريع عمليات تحليل البيانات الضخمة، توسيع نطاق العينات البحثية، الكشف عن أنماط خفية في السلوك الاجتماعي، دعم البحوث المقارنة والعابرة للحدود.
غير أن هذا التقدم، وفقًا للكتاب، لا يخلو من مخاطر حقيقية، أبرزها غموض الخوارزميات، وصعوبة فهم الكيفية التي تصل بها أنظمة الذكاء الاصطناعي إلى نتائجها، بما قد يهدد مبدأ الشفافية العلمية ويضعف قدرة الباحث على التفسير النقدي.
الذكاء الاصطناعي بين الأخلاق والتحيز والخصوصية
في أحد أكثر محاور الكتاب حساسية، يطرح المؤلفون إشكاليات أخلاقية معقدة، تتعلق بحماية الخصوصية، واستخدام البيانات الشخصية، والتحيز الخوارزمي، والمساءلة العلمية.
ويشير الكتاب إلى أن إدماج الذكاء الاصطناعي في البحث الاجتماعي دون أطر أخلاقية صارمة قد يؤدي إلى إعادة إنتاج التحيزات الاجتماعية بدلًا من تفكيكها .
كما يشدد على أن الباحث لا يمكنه التنازل عن دوره المعرفي لصالح الآلة، بل يجب أن يمتلك من الكفاءة المنهجية والتقنية ما يمكّنه من مساءلة مخرجات الذكاء الاصطناعي، لا الاكتفاء باستهلاكها.
الحوكمة كمدخل ضروري للبحث المسؤول
يقدّم الفصل الرابع من الكتاب مفهوم حوكمة الذكاء الاصطناعي بوصفه الإطار المنظّم لاستخدام هذه التطبيقات داخل البحث الاجتماعي.
والحوكمة هنا لا تعني المنع أو التقييد، بل وضع قواعد وإجراءات ومعايير تضمن الاستخدام المسؤول، وتعزز قيم النزاهة، والشفافية، والمساءلة، واحترام الكرامة الإنسانية .
ويربط الكتاب بين الحوكمة والسياسات البحثية، داعيًا المؤسسات الأكاديمية والبحثية إلى تطوير مواثيق أخلاقية واضحة تحكم توظيف الذكاء الاصطناعي في الدراسات الاجتماعية، بما يتوافق مع السياقات الثقافية العربية، لا مجرد استنساخ نماذج غربية جاهزة.
آفاق المستقبل وإعداد جيل جديد من الباحثين
في فصله الأخير، يستشرف الكتاب مستقبل الذكاء الاصطناعي في البحث الاجتماعي، معتبرًا أن التحدي الحقيقي لا يكمن في امتلاك الأدوات، بل في بناء وعي نقدي لدى الباحثين الجدد.
ويؤكد أن إعداد جيل قادر على توظيف الذكاء الاصطناعي بفعالية يتطلب دمج هذه التقنيات داخل المناهج التعليمية، إلى جانب ترسيخ البعد الأخلاقي والمنهجي في آن واحد.
كتاب يتجاوز الوصف إلى التأطير
لا يقدم كتاب «حوكمة توظيف الذكاء الاصطناعي في البحوث الاجتماعية» إجابات جاهزة بقدر ما يفتح نقاشًا علميًا عميقًا حول مستقبل البحث الاجتماعي في عصر الخوارزميات.
وهو، في جوهره، دعوة صريحة إلى تحالف واعٍ بين الإنسان والتكنولوجيا، يضع المعرفة والعدالة والمسؤولية في قلب أي تقدم علمي.
بهذا المعنى، يشكّل الكتاب إضافة نوعية للمكتبة العربية، ومرجعًا مهمًا للباحثين وصنّاع السياسات الأكاديمية، في لحظة تاريخية تتطلب إعادة التفكير في حدود ودور الذكاء الاصطناعي داخل العلوم الإنسانية والاجتماعية.














0 تعليق