وفقًا لكوينتيليغراف، ورد أن كبير علماء الذكاء الاصطناعي (AI) في ميتا، يان ليكون، رفض المخاوف بشأن المخاطر الوجودية للذكاء الاصطناعي باعتبارها سابقة لأوانها في مقابلة مع فاينانشيال تايمز. جادل LeCun بأن التنظيم المبكر لتكنولوجيا الذكاء الاصطناعي من شأنه أن يعزز هيمنة شركات التكنولوجيا الكبرى ويخنق المنافسة. وهو يعتقد أن المنظمين يستخدمون سلامة الذكاء الاصطناعي كغطاء لما يسميه "الاستيلاء التنظيمي". التي طرحتها منظمة العفو الدولية. ترك الدكتور جيفري هينتون، المعروف باسم "الأب الروحي للذكاء الاصطناعي"، منصبه في التعلم الآلي في جوجل لمناقشة مخاطر الذكاء الاصطناعي. غرد دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، في شهر مايو/أيار، قائلًا إن التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي يجب أن يصبح أولوية عالمية، على قدم المساواة مع المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية. ومع ذلك، رفض ليكون فكرة أن الذكاء الاصطناعي يمكن أن يؤدي إلى زوال البشرية باعتباره أمرا "مناف للعقل" وقال إن النقاش حول المخاطر الوجودية سابق لأوانه للغاية حتى يتمكن النظام من منافسة قطة من حيث قدرات التعلم، وهو أمر غير موجود حاليًا. ادعى LeCun أيضًا أن نماذج الذكاء الاصطناعي الحالية ليست قادرة كما يقترح البعض، مشيرًا إلى أنهم لا يفهمون كيف يعمل العالم وغير قادرين على "التخطيط" أو "العقل". ويتوقع LeCun أن الذكاء الاصطناعي سيساعد في نهاية المطاف في إدارة حياتنا اليومية، مع تفاعل الجميع مع العالم الرقمي الذي تتوسطه أنظمة الذكاء الاصطناعي. وعلى الرغم من تفاؤله، إلا أن المخاوف المحيطة بقوة تكنولوجيا الذكاء الاصطناعي تظل مصدر قلق للكثيرين. حذر مستشار فريق عمل الذكاء الاصطناعي في المملكة المتحدة من أن الذكاء الاصطناعي يمكن أن يهدد البشرية في غضون عامين.