تقدم Meta إطار عمل لتقييد أنظمة الذكاء الاصطناعي عالية المخاطر
ميتا كشفت شركة مايكروسوفت عن إطار عملها Frontier AI Framework، وهي سياسة جديدة تهدف إلى معالجة المخاطر المحتملة لأنظمة الذكاء الاصطناعي عالية المخاطر، وخاصة في مجال الأمن السيبراني والأمن البيولوجي.
قامت الشركة بتصنيف نماذج الذكاء الاصطناعي إلى مستويين من المخاطر : عالية المخاطر وشديدة المخاطر، يتم تحديد كل منها من خلال شدة الضرر المحتمل.
ستظل نماذج الذكاء الاصطناعي عالية المخاطر، والتي قد تسهل الهجمات السيبرانية أو البيولوجية، مقيدة حتى يتم وضع الضمانات الكافية.
وفي الوقت نفسه، سوف يتوقف تطوير الذكاء الاصطناعي الذي يشكل خطراً حرجاً ــ والذي يُعتقد أنه قادر على التسبب في عواقب كارثية ــ إلى أجل غير مسمى.
ميتا تعطي استراتيجية الشركة الأولوية للضوابط الداخلية القوية وتدابير الأمن لمنع الوصول غير المصرح به، مما يعكس التزام الشركة بالحد من المخاطر المرتبطة بتكنولوجيا الذكاء الاصطناعي المتقدمة.
وتأتي هذه الخطوات استجابة للمخاوف المتزايدة بشأن تأثير الذكاء الاصطناعي على خصوصية البيانات وأمنها.
تدابير أمنية قوية للذكاء الاصطناعي للتخفيف من المخاطر
ستقوم شركة Meta بتقييم مخاطر نظام الذكاء الاصطناعي من خلال مجموعة من الأبحاث الداخلية والخارجية، مع الأخذ في الاعتبار أنه لا يوجد اختبار واحد يمكنه قياس المخاطر بشكل شامل.
وسوف يلعب التقييم المتخصص دوراً حاسماً في اتخاذ القرار، مع وجود عملية مراجعة منظمة بقيادة القيادة العليا التي تشرف على التصنيفات النهائية للمخاطر.
بالنسبة لأنظمة الذكاء الاصطناعي عالية المخاطر، ستنفذ Meta تدابير تخفيفية لضمان النشر الآمن، ومنع سوء الاستخدام مع الحفاظ على الوظيفة المقصودة للنظام.
في حالة نماذج الذكاء الاصطناعي ذات المخاطر الحرجة، سيتم إيقاف التطوير مؤقتًا حتى يتم وضع بروتوكولات أمان فعالة لضمان الإصدار الخاضع للرقابة والآمن.
ويؤكد هذا النهجميتا التزامنا بموازنة الابتكار مع المسؤولية في تطوير الذكاء الاصطناعي.
Meta تعالج المخاوف وتلتزم بتطوير الذكاء الاصطناعي بشكل شفاف
لقد دافعت شركة Meta عن نهج مفتوح لتطوير الذكاء الاصطناعي، من خلال توفير وصول واسع النطاق إلى نماذج Llama الخاصة بها، مما أدى إلى ملايين التنزيلات والتبني الواسع النطاق.
ومع ذلك، أثار هذا الانفتاح مخاوف بشأن إمكانية إساءة الاستخدام، بما في ذلك تقارير عن قيام أحد خصوم الولايات المتحدة باستغلال Llama لإنشاء روبوت محادثة دفاعي.
ردا على ذلك،ميتا تعمل شركة مايكروسوفت على تقديم إطار عمل Frontier AI، الذي يهدف إلى موازنة هذه المخاطر مع الاستمرار في دعم التزامها بالابتكار المسؤول في مجال الذكاء الاصطناعي.