مخاوف أخلاقية من نماذج الذكاء الاصطناعي للشركات الكبرى.. ما القصة؟

الدستور 0 تعليق ارسل طباعة تبليغ حذف

دخل الجدل حول أخلاقيات الذكاء الاصطناعي مرحلة أكثر حساسية، بعدما كشف عدد من العاملين في تدريب النماذج عن مشكلات جوهرية تتعلق بجودة البيانات، وضغوط الإنتاج، وضعف الإشراف، ما يُهدد موثوقية النماذج التجارية التي تعتمد عليها شركات كبرى مثل أمازون عبر منصة "أمازون ميكانيكال ترك"، وجوجل من خلال نموذجها "جيميني" وخدمة البحث عبر جوجل وملخصات الذكاء الاصطناعي فيها، إضافة إلى نماذج "ميتا" و"جروك" المملوك لإيلون ماسك.


ونقلت تصريحات خاصة لصحيفة "الجارديان" البريطانية، ووفق شهادات عاملين يقومون بتقييم مخرجات النماذج وصحة المعلومات، فإن العديد منهم فقد الثقة في استخدام الأدوات التوليدية شخصيًا، بل بدأوا في تحذير عائلاتهم من الاعتماد عليها، مشيرين إلى أن التدريب يتم غالبًا تحت ضغوط زمنية وبتعليمات غير واضحة، مع غياب التدريب المتخصص، خصوصًا عند التعامل مع محتوى طبي أو حساس.


وقالت إحدى العاملات لدى "جوجل" إن الشركة تعتمد على مقيمين لا يمتلكون خلفيات طبية لمراجعة إجابات تتعلق بالصحة، ما يشكل خطرًا على دقة المعلومات. 


وأظهرت مراجعات مؤسسة "نيوزجارد" المختصة بتقييم المصداقية الإعلامية تراجع معدلات الامتناع عن الإجابة لدى النماذج الكبرى مثل "جيميني" و"جروك" و"تشات جي بي تي" من 31% إلى 0% خلال عام، مقابل ارتفاع معدل تكرار المعلومات الخاطئة من 18% إلى 35%.

سرعة تطوير نماذج الذكاء الاصطناعي


وأشار العاملون إلى أن الشركات تركز على سرعة تطوير النماذج وتحقيق عائدات تجارية، على حساب الجودة والأمان، وهو ما يعزز مخاطر انتشار معلومات مضللة تؤثر على القطاعات الاقتصادية الحساسة التي بدأت تعتمد على الذكاء الاصطناعي في التشغيل واتخاذ القرار.
ويرى باحثون، من بينهم متخصصون في معهد أبحاث الذكاء الاصطناعي الموزع (DAIR)، أن نماذج الذكاء الاصطناعي الحالية "هشة وليست مستقبلية"، نتيجة اعتمادها على بيانات غير موثوقة وعمليات تدريب غير منظمة، فيما تتزايد الدعوات لوضع أطر تنظيمية تحمي المستخدمين وتضمن شفافية مصادر البيانات وتعويض العاملين الذين يساهمون في بناء هذه الأنظمة.


وتحاول بعض الجهات الأكاديمية نشر الوعي بالمخاطر الأخلاقية والبيئية للذكاء الاصطناعي، إذ قدمت عاملات في القطاع عرضًا أمام رابطة مجالس المدارس في ميشيغان لتحذير المؤسسات التعليمية من الاعتماد غير المدروس على هذه التكنولوجيا.


وتشير التطورات إلى تعاظم المخاوف حول البنية الاقتصادية لنماذج الذكاء الاصطناعي التجارية، مع احتمال تعرض الشركات التي تعتمد عليها في منتجاتها وخدماتها لمخاطر قانونية وتنظيمية متزايدة إذا لم تُعالج هذه الثغرات.

إخترنا لك

أخبار ذات صلة

0 تعليق