Cần có kế hoạch dự phòng nếu con người mất quyền kiểm soát AI
Vào ngày 16 tháng 9, một liên minh lãnh đạotrí tuệ nhân tạo các nhà khoa học trong mộttuyên bố , kêu gọi thành lập một hệ thống giám sát toàn cầu để giảm thiểu rủi ro về "hậu quả thảm khốc" nếu hệ thống AI vượt khỏi tầm kiểm soát của con người.
Họ bày tỏ lo ngại rằng công nghệ mà họ giúp tạo ra có thể gây ra những mối đe dọa đáng kể nếu không được quản lý đúng cách.
Cáctuyên bố đọc:
“Việc mất kiểm soát của con người hoặc sử dụng có chủ đích các hệ thống AI này có thể dẫn đến hậu quả thảm khốc cho toàn thể nhân loại. Thật không may, chúng ta vẫn chưa phát triển được khoa học cần thiết để kiểm soát và bảo vệ việc sử dụng trí thông minh tiên tiến như vậy.”
Các nhà khoa học nhấn mạnh nhu cầu các cơ quan quốc gia phải được trang bị để phát hiện và giải quyết các sự cố và rủi ro liên quan đến AI.
Họ cũng ủng hộ việc phát triển một "kế hoạch dự phòng toàn cầu" để ngăn chặn sự xuất hiện củamô hình AI với những rủi ro thảm họa toàn cầu tiềm tàng.
Như họ đã nói:
“Về lâu dài, các quốc gia nên xây dựng một chế độ quản trị quốc tế để ngăn chặn sự phát triển của các mô hình có thể gây ra rủi ro thảm khốc toàn cầu.”
An toàn AI là lợi ích công cộng toàn cầu
Tuyên bố này dựa trên các cuộc thảo luận từ Đối thoại quốc tế về An toàn AI được tổ chức tại Venice vào đầu tháng 9, sự kiện thứ ba do Diễn đàn AI an toàn, một tổ chức nghiên cứu phi lợi nhuận của Hoa Kỳ, tổ chức.
Giáo sư Gillian Hadfield từ Đại học Johns Hopkins đã nhấn mạnh tính cấp bách trong bài đăng trênX (trước đây gọi là Twitter) :
“Chúng ta không cần phải đồng ý về khả năng xảy ra các sự kiện AI thảm khốc để đồng ý rằng chúng ta nên có một số giao thức toàn cầu để phòng ngừa các sự cố AI quốc tế đòi hỏi phải có phản ứng phối hợp.”
Cáctuyên bố nhấn mạnh rằngtrí tuệ nhân tạo an toàn là lợi ích công cộng toàn cầu, đòi hỏi sự hợp tác và quản lý quốc tế:
“Bản chất toàn cầu của những rủi ro này từ AI khiến việc công nhận sự an toàn của AI là một lợi ích công cộng toàn cầu và hướng tới quản lý toàn cầu những rủi ro này là điều cần thiết. Chúng ta phải cùng nhau chuẩn bị để ngăn chặn những rủi ro thảm khốc có thể xảy ra bất cứ lúc nào.”
Các nhà phát triển AI đã phác thảo ba quy trình quan trọng:
Tuyên bố này được hơn 30 bên ký kết từ Hoa Kỳ, Canada, Trung Quốc, Anh, Singapore và các quốc gia khác xác nhận, bao gồm các chuyên gia từ các viện nghiên cứu AI hàng đầu, các trường đại học và một số người đoạt giải Turing.
Các nhà khoa học lưu ý rằng sự rạn nứt khoa học ngày càng gia tăng giữa các siêu cường và sự ngờ vực ngày càng tăng giữa Hoa Kỳ và Trung Quốc đã khiến việc đạt được sự đồng thuận trở nên khó khăn hơn.trí tuệ nhân tạo rủi ro.