Hội đồng quản trị được trao quyền để loại bỏ CEO trong các tình huống rủi ro
OpenAI gần đây đã đưa ra sáng kiến an toàn tiên phong, được gọi là Khung chuẩn bị sẵn sàng, được thiết kế để quản lý tỉ mỉ các rủi ro trong quá trình phát triển AI tiên tiến. Chiến lược này trao cho ban giám đốc quyền can thiệp, thậm chí chống lại CEO Sam Altman, nếu rủi ro AI leo thang quá mức. Sáng kiến này là phản ứng trước những nguy cơ tiềm ẩn do các mô hình AI tiên tiến gây ra.
Giám sát an toàn được mô phỏng lại cho AI
OpenAI hiện giới thiệu các nhóm chuyên biệt trong Khung chuẩn bị sẵn sàng của mình, mỗi nhóm có trọng tâm riêng biệt về các rủi ro phát triển AI. Một nhóm sẽ tập trung vào việc sử dụng sai các mô hình AI hiện tại như ChatGPT. Một người khác sẽ đánh giá rủi ro trong các mô hình AI mới nổi, trong khi người thứ ba sẽ quan sát sâu sắc sự phát triển của các hệ thống siêu trí tuệ. Tất cả các đội này hoạt động dưới sự giám sát của hội đồng quản trị.
Hành trình của OpenAI hướng tới AI vượt qua trí thông minh của con người bao gồm việc thử nghiệm nghiêm ngặt các mô hình mới. Các mô hình này sẽ được đẩy đến giới hạn và được đánh giá trong bốn lĩnh vực rủi ro: an ninh mạng, thuyết phục, ra quyết định tự chủ và các mối đe dọa CBRN. Họ sẽ nhận được điểm rủi ro, hướng dẫn triển khai hoặc tạm dừng nếu rủi ro quá cao. OpenAI cam kết trách nhiệm giải trình, bao gồm cả hoạt động kiểm tra của bên thứ ba trong các tình huống khó khăn.
Phương pháp tiếp cận hợp tác để đảm bảo an toàn AI
Công ty đang tạo ra văn hóa hợp tác, cả bên trong lẫn bên ngoài, để giảm thiểu việc lạm dụng AI trong thế giới thực. Điều này bao gồm việc hợp tác chặt chẽ với nhóm Superalignment, tập trung vào việc xác định và giải quyết các rủi ro sai lệch đang nổi lên. Sự cống hiến của OpenAI cho nghiên cứu nhằm mục đích dự đoán trước rủi ro, sử dụng những hiểu biết sâu sắc từ những thành công trước đó và quy luật mở rộng quy mô.
Suy ngẫm về bước đi táo bạo của OpenAI
Quyết định này của OpenAI cho phép hội đồng quản trị của họ loại bỏ CEO trong các vấn đề an toàn AI đặt ra câu hỏi về việc cân bằng giữa đổi mới với sự thận trọng. Hiệu quả của Khung chuẩn bị trong việc dự đoán và giải quyết các rủi ro AI nâng cao vẫn còn phải chờ xem. Không rõ liệu động thái này có giúp OpenAI trở thành công ty dẫn đầu trong việc phát triển AI có trách nhiệm hay gây ra các cuộc tranh luận về thẩm quyền và sự đổi mới trong AI hay không.
Sự cần thiết hay quá thận trọng?
Mặc dù các biện pháp an toàn mới của OpenAI chắc chắn là mang tính chủ động, nhưng người ta có thể đặt câu hỏi liệu những biện pháp kiểm soát nghiêm ngặt như vậy có thể cản trở tốc độ đổi mới AI hay không, có khả năng cản trở những đột phá trong một lĩnh vực được thúc đẩy bởi những tiến bộ nhanh chóng và những ý tưởng táo bạo.