أعرب موظفو OpenAI وGoogle DeepMind بشكل مشترك عن مخاوفهم من أن الذكاء الاصطناعي المتقدم يشكل مخاطر كبيرة ويحتاج إلى تعزيز بشكل عاجل. ردًا على ذلك، أصدرت OpenAI بيانًا اليوم تؤكد فيه التزامها بتوفير أنظمة ذكاء اصطناعي قوية وآمنة.
ذكرت OpenAI أنه نظرًا لأهمية تكنولوجيا الذكاء الاصطناعي، فإننا نتفق مع محتوى الرسالة المفتوحة وأن كيفية إجراء مناقشات جادة أمر بالغ الأهمية لتعزيز تطوير تكنولوجيا الذكاء الاصطناعي بشكل أفضل.
سنواصل العمل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم للعمل معًا لخلق بيئة متناغمة للذكاء الاصطناعي.
يعد تضمين الخطوط الساخنة المجهولة للنزاهة ولجان السلامة والأمن (لجنة السلامة والأمن) التي تضم أعضاء مجلس الإدارة وقادة أمن الشركة كلها وسائل فعالة لتنظيم الذكاء الاصطناعي.
تشير OpenAI إلى أن الشركة لن تطلق تقنية الذكاء الاصطناعي الجديدة حتى يتم وضع الضمانات اللازمة. وأكدت الشركة دعمها للتنظيم الحكومي ومشاركتها في الالتزام الطوعي بشأن سلامة الذكاء الاصطناعي.
ردًا على المخاوف بشأن الانتقام، أكد متحدث باسم الشركة أن الشركة أنهت جميع اتفاقيات عدم الاستخفاف بالموظفين السابقين وأزالت هذه البنود من وثائق الفصل القياسية. (صفحة تكنولوجيا المعلومات الرئيسية)
في وقت سابق من اليوم، أفيد أن 13 موظفًا سابقًا وحاليًا من OpenAI (ChatGPT)، وAnthropic (Claude)، وDeepMind (Google)، وخبراء في مجال الذكاء الاصطناعي أطلقوا عريضة "الحق في تحذير الذكاء الاصطناعي". ويهدف الالتماس إلى الدعوة إلى توفير حماية أقوى للمبلغين عن المخالفات لزيادة الوعي العام بمخاطر أنظمة الذكاء الاصطناعي المتقدمة. علق ويليام سوندرز، الموظف السابق في OpenAI، أنه عند التعامل مع التقنيات الجديدة التي يحتمل أن تكون خطرة، يجب أن تكون هناك طرق لمشاركة المعلومات حول المخاطر مع الخبراء المستقلين والحكومات والجمهور.