انضم دوق ودوقة ساسكس الأمير هاري وزوجته ميجان ماركل، إلى رواد الذكاء الاصطناعي والحائزين على جائزة نوبل في الدعوة إلى حظر تطوير أنظمة الذكاء الاصطناعي الفائقة، بحسب وكالة "أسوشيتد برس" الأمريكية.
ويُطلق مصطلح "الذكاء الاصطناعي الفائق" على أنظمة الذكاء الاصطناعي التي لم تُطور بعد، والتي تتجاوز مستويات الذكاء البشري في جميع المهام المعرفية.
تدعو الرسالة إلى استمرار الحظر حتى يتم التوصل إلى "إجماع علمي واسع" على تطوير الذكاء الاصطناعي الفائق بأمان وتحكم مدعوم بتأييد شعبي قوي.
ووقع على الرسالة أيضًا رائد الذكاء الاصطناعي والحائز على جائزة نوبل، جيفري هينتون، إلى جانب زميله "الأب الروحي" للذكاء الاصطناعي الحديث، يوشوا بينجيو، بجانب كل من ستيف وزنياك، المؤسس المشارك لشركة آبل؛ ورائد الأعمال البريطاني ريتشارد برانسون؛ وسوزان رايس، مستشارة الأمن القومي الأمريكية السابقة في عهد باراك أوباما؛ والرئيسة الأيرلندية السابقة ماري روبنسون؛ والكاتب والمذيع البريطاني ستيفن فراي.
ومن بين الحائزين على جائزة نوبل الآخرين الذين وقعوا على الرسالة بياتريس فين، وفرانك ويلتشيك، وجون سي ماثر، ودارون أسيموغلو.
تحذيرات من مخاطر الذكاء الاصطناعي
أُعدت الرسالة التي استهدفت الحكومات وشركات التكنولوجيا والمشرعين، من قِبل معهد مستقبل الحياة (FLI)، وهي مجموعة سلامة ذكاء اصطناعي مقرها الولايات المتحدة، والتي دعت إلى وقف تطوير أنظمة ذكاء اصطناعي فعالة في عام 2023، بعد وقت قصير من ظهور ChatGPT الذي جعل الذكاء الاصطناعي موضوع نقاش سياسي وعامي حول العالم.
في يوليو، صرح مارك زوكربيرج، الرئيس التنفيذي لشركة "Meta"، الشركة الأم لفيسبوك، وأحد أكبر مطوري الذكاء الاصطناعي في الولايات المتحدة، بأن تطوير الذكاء الفائق "بات في الأفق". ومع ذلك، يرى بعض الخبراء أن الحديث عن الذكاء الاصطناعي المتقدم يعكس وضعًا تنافسيًا بين شركات التكنولوجيا التي تنفق مئات المليارات من الدولارات على الذكاء الاصطناعي هذا العام وحده، وليس اقتراب القطاع من تحقيق أي إنجازات تقنية.
ومع ذلك، يقول معهد الذكاء الاصطناعي: إن احتمال تحقيق الذكاء الاصطناعي المتقدم "خلال العقد المقبل" يحمل في طياته مجموعة من التهديدات، تتراوح بين الاستيلاء على جميع الوظائف البشرية وفقدان الحريات المدنية، وتعريض الدول لمخاطر الأمن القومي، بل وحتى تهديد البشرية بالانقراض.
وتركز المخاوف الوجودية بشأن الذكاء الاصطناعي على قدرة النظام المحتملة على التهرب من التحكم البشري وإرشادات السلامة، والتسبب في إجراءات تتعارض مع المصالح البشرية.
أصدر معهد الذكاء الاصطناعي المتقدم استطلاعًا وطنيًا أمريكيًا أظهر أن حوالي ثلاثة أرباع الأمريكيين يريدون تنظيمًا صارمًا للذكاء الاصطناعي المتقدم، حيث يعتقد ستة من كل عشرة أنه لا ينبغي إنتاج ذكاء اصطناعي خارق إلا بعد إثبات سلامته أو إمكانية التحكم فيه. وأضاف الاستطلاع الذي شمل 2000 بالغ أمريكي أن 5% فقط أيدوا الوضع الراهن للتطور السريع وغير المنظم.
جعلت شركات الذكاء الاصطناعي الرائدة في الولايات المتحدة، بما في ذلك "OpenAI"، مطورة ChatGPT، وجوجل، تطوير الذكاء الاصطناعي العام - وهو الحالة النظرية التي يُضاهي فيها الذكاء الاصطناعي مستويات الذكاء البشري في معظم المهام المعرفية - هدفًا واضحًا لعملها.
ومع أن هذا أقل بدرجة واحدة من الذكاء الاصطناعي العام، إلا أن بعض الخبراء يحذرون أيضًا من أنه قد ينطوي على خطر وجودي، على سبيل المثال، من خلال قدرته على تحسين نفسه للوصول إلى مستويات الذكاء الخارق، مع ما يحمله في الوقت نفسه من تهديد ضمني لسوق العمل الحديث.
0 تعليق