أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن استحداث وظيفة جديدة تحمل اسم "رئيس الاستعداد"، تهدف إلى مراقبة تطورات أنظمة الذكاء الاصطناعي المتقدمة والتنبؤ بالمخاطر المحتملة قبل وقوعها، ووصف ألتمان الدور بأنه سيكون شديد الضغط، مؤكدًا أن الشخص المناسب يحتاج إلى أعصاب فولاذية وعقل تقني حاد، وربما كوب قهوة قوي لمواجهة ضغوط العمل.
سام ألتمان: نحتاج لنهج أعمق لمراقبة مخاطر الـ AI
وأوضح ألتمان عبر منشور على وسائل التواصل الاجتماعي أن الشركة تمتلك أساسًا متينًا لقياس قدرات النماذج، لكنها الآن بحاجة إلى فهم أعمق لكيفية إساءة استخدام هذه القدرات، ووضع آليات تقلل من آثارها السلبية على المستخدمين والمجتمع، مع الحفاظ على الفوائد الكبيرة التي توفرها هذه التقنيات، وأضاف: "هذه الأسئلة صعبة، ولا توجد لها سوابق كثيرة؛ فالعديد من الأفكار التي تبدو جيدة تواجه حالات استثنائية حقيقية".
اختبارات الذكاء الاصطناعي التقليدية لم تعد كافية
تأتي هذه الخطوة في وقت تظهر فيه أنظمة مثل ChatGPT وخلفائها قدرات متقدمة في التفكير والتحليل والبرمجة، إلى جانب بعض النتائج غير المتوقعة التي قد تكون مقلقة، لافتا إلى أن النماذج الحديثة لا تزداد ذكاءً فقط، بل بدأت تتصرف بطرق لم يكن البشر يتوقعونها، مثل اكتشاف ثغرات أمنية، أو التلاعب بالنتائج، أو التأثير على السلوك البشري بطرق خفية وغير متوقعة.
وحذر ألتمان من أن أساليب الاختبار التقليدية لم تعد كافية، وأن OpenAI بحاجة إلى نهج أعمق وأكثر تنظيمًا لمراقبة النماذج، يركز ليس فقط على ما يمكن للأنظمة فعله، بل على ما قد تفعله إذا تُركت دون رقابة.
وبحسب تدوينة رسمية من OpenAI بعد إعلان ألتمان، فإن رئيس الاستعداد سيكون مسؤولًا عن قيادة الإطار الداخلي لتقييم المخاطر المرتبطة بالذكاء الاصطناعي، وبناء نماذج للتهديدات، وتطوير آليات أمان قابلة للتوسع.
كما سيتولى التنسيق بين فرق البحث والهندسة والسياسات والحوكمة لضمان أن السلامة تظل أولوية في جميع مراحل العمل، والمشاركة في اتخاذ قرارات حساسة حول توقيت إطلاق القدرات الجديدة أو إيقافها إذا لزم الأمر.
وأضاف ألتمان أن الوظيفة تتطلب معرفة تقنية قوية، وخبرة في إدارة المخاطر، والقدرة على اتخاذ قرارات مصيرية في ظروف غير واضحة، مؤكداً أن المرشح المثالي يجب أن يزدهر وسط الغموض ويكون مستعدًا لتحمل مسؤولية الحفاظ على الجيل القادم من أنظمة الذكاء الاصطناعي من الانحراف عن المسار الصحيح.
وتبحث OpenAI عن مرشحين لديهم خلفيات في سلامة الذكاء الاصطناعي أو الأمن السيبراني أو نمذجة التهديدات، وقادرين على العمل عبر فرق متعددة التخصصات، والجمع بين البحث التقني وصناعة القرار الاستراتيجي، وسيصبح الشخص المختار بمثابة الحارس الداخلي لنماذج ChatGPT المستقبلية، لضمان توافقها مع القيم والنيات البشرية، حتى مع ازدياد قدراتها وتعقيدها.
ويرى ألتمان أن هذه الخطوة تمثل تحولًا أكثر رصانة في نهج OpenAI تجاه الابتكار، بعد سنوات من دفع حدود التقنية وإبهار المستخدمين بما يمكن للذكاء الاصطناعي فعله، يبدو أن الشركة الآن تولي اهتمامًا متساويًا للاستعداد لما قد يفعله هذا الذكاء مستقبلًا.

















0 تعليق