Amerika Serikat, Inggris, Australia, dan 15 negara lainnya telah mengeluarkan pedoman global yang dirancang untuk membantu melindungi model kecerdasan buatan dari gangguan, dan mendesak organisasi untuk memastikan model mereka "aman secara desain".
Panduan ini terutama terdiri dari rekomendasi umum, seperti mengontrol infrastruktur model AI secara ketat, memantau model dari gangguan sebelum dan sesudah dirilis, dan melatih karyawan tentang risiko keamanan siber. Panduan ini merekomendasikan praktik keamanan siber yang harus diterapkan oleh perusahaan AI saat merancang, mengembangkan, meluncurkan, dan memantau model AI.
Negara-negara lain yang telah menandatangani pedoman baru ini termasuk Kanada, Prancis, Jerman, Israel, Italia, Jepang, Selandia Baru, Nigeria, Norwegia, Korea Selatan, dan Singapura. Perusahaan-perusahaan AI seperti OpenAI, Microsoft, Google, Anthropic, dan Scale AI juga turut berkontribusi dalam penyusunan pedoman tersebut. (Cointelegraph)