Menurut Cointelegraph, OpenAI, perusahaan riset dan penerapan kecerdasan buatan (AI) di balik ChatGPT, telah mengumumkan pembentukan tim baru yang didedikasikan untuk melacak, mengevaluasi, meramalkan, dan melindungi dari potensi risiko bencana yang berasal dari AI. Divisi baru yang disebut 'Kesiapsiagaan' ini akan berfokus pada ancaman AI yang terkait dengan ancaman kimia, biologi, radiologi, dan nuklir, persuasi individual, keamanan siber, serta replikasi dan adaptasi otonom, yang dipimpin oleh Aleksander Madry, tim Kesiapsiagaan akan mencoba menjawab pertanyaan-pertanyaan seperti betapa berbahayanya sistem AI frontier jika disalahgunakan, serta apakah aktor jahat dapat menggunakan bobot model AI yang telah dicuri. OpenAI mengakui bahwa meskipun model AI frontier memiliki potensi untuk memberikan manfaat bagi umat manusia, mereka juga memiliki risiko yang semakin besar. Perusahaan ini berkomitmen untuk menangani seluruh spektrum risiko keamanan yang terkait dengan AI, mulai dari sistem yang ada saat ini hingga jangkauan terjauh dari superintelijen. OpenAI saat ini sedang mencari talenta dengan berbagai latar belakang teknis untuk tim Kesiapsiagaan yang baru dan meluncurkan Tantangan Kesiapsiagaan AI untuk pencegahan penyalahgunaan yang dahsyat, dengan menawarkan kredit API senilai $25.000 untuk 10 pengirim teratas. Risiko yang terkait dengan kecerdasan buatan telah sering disoroti, dengan kekhawatiran bahwa AI dapat menjadi lebih cerdas daripada manusia. Terlepas dari risiko ini, perusahaan seperti OpenAI terus mengembangkan teknologi AI baru, yang memicu kekhawatiran lebih lanjut. Pada bulan Mei 2023, organisasi nirlaba Center for AI Safety merilis surat terbuka tentang risiko AI, yang mendesak masyarakat untuk memitigasi risiko kepunahan akibat AI sebagai prioritas global di samping risiko berskala masyarakat lainnya, seperti pandemi dan perang nuklir.