يتمتع مجلس الإدارة بصلاحية تجاوز الرئيس التنفيذي في المواقف الخطرة
أطلقت OpenAI مؤخرًا مبادرة رائدة للسلامة، تُعرف باسم إطار الاستعداد، والمصممة لإدارة مخاطر تطورات الذكاء الاصطناعي المتطورة بدقة. وتمنح هذه الاستراتيجية مجلس الإدارة سلطة التدخل، حتى ضد الرئيس التنفيذي سام ألتمان، إذا تصاعدت مخاطر الذكاء الاصطناعي بشكل مفرط. وتأتي هذه المبادرة استجابة للمخاطر المحتملة التي تشكلها نماذج الذكاء الاصطناعي المتقدمة.
إعادة تصور مراقبة السلامة للذكاء الاصطناعي
تقدم OpenAI الآن فرقًا متخصصة ضمن إطار الاستعداد الخاص بها، حيث يركز كل منها بشكل واضح على مخاطر تطوير الذكاء الاصطناعي. سيركز فريق واحد على إساءة الاستخدام المحتملة لنماذج الذكاء الاصطناعي الحالية مثل ChatGPT. وسيقوم فريق آخر بتقييم المخاطر في نماذج الذكاء الاصطناعي الناشئة، في حين سيراقب فريق ثالث بشدة تطور الأنظمة فائقة الذكاء. وتعمل جميع هذه الفرق تحت إشراف المجلس.
تتضمن رحلة OpenAI نحو تجاوز الذكاء الاصطناعي الذكاء البشري اختبارات صارمة للنماذج الجديدة. وسيتم دفع هذه النماذج إلى أقصى حدودها وتقييمها في أربعة مجالات خطر: الأمن السيبراني، والإقناع، واتخاذ القرار المستقل، والتهديدات الكيميائية والبيولوجية والإشعاعية والنووية. وسوف يحصلون على درجة المخاطر، لتوجيه نشرهم أو إيقافهم إذا كانت المخاطر مرتفعة للغاية. تتعهد OpenAI بالمساءلة، بما في ذلك عمليات التدقيق التي يقوم بها طرف ثالث في المواقف الصعبة.
النهج التعاوني لسلامة الذكاء الاصطناعي
تعمل الشركة على خلق ثقافة التعاون، داخليًا وخارجيًا، للتخفيف من سوء استخدام الذكاء الاصطناعي في العالم الحقيقي. يتضمن ذلك العمل بشكل وثيق مع فريق Superalignment، مع التركيز على تحديد ومعالجة مخاطر عدم التوافق الناشئة. يهدف تفاني OpenAI في البحث إلى التنبؤ بالمخاطر مسبقًا، باستخدام رؤى من النجاحات السابقة وقوانين التوسع.
التفكير في الخطوة الجريئة لـ OpenAI
يثير هذا القرار الذي اتخذته شركة OpenAI بالسماح لمجلس إدارتها بتجاوز الرئيس التنفيذي في الأمور المتعلقة بسلامة الذكاء الاصطناعي تساؤلات حول الموازنة بين الابتكار والحكمة. ويبقى أن نرى مدى فعالية إطار الاستعداد في توقع ومعالجة مخاطر الذكاء الاصطناعي المتقدمة. من غير الواضح ما إذا كانت هذه الخطوة ستؤدي إلى ترسيخ OpenAI كشركة رائدة في تطوير الذكاء الاصطناعي المسؤول أو إثارة المناقشات حول السلطة والابتكار في الذكاء الاصطناعي.
ضرورة أم مبالغة في الحذر؟
في حين أن تدابير السلامة الجديدة في OpenAI هي بلا شك استباقية، فقد يتساءل المرء عما إذا كانت مثل هذه الضوابط الصارمة يمكن أن تعيق وتيرة ابتكار الذكاء الاصطناعي، مما قد يؤدي إلى خنق الإنجازات في مجال مدفوع بالتقدم السريع والأفكار الجريئة.