Nguồn bài viết
Chuẩn bị tinh thần: sự ra đời của AI siêu thông minh đã cận kề.
MỘTbài viết trên blog được đồng tác giả bởi Giám đốc điều hành của OpenAI, Sam Altman, Chủ tịch OpenAI Greg Brockman và Nhà khoa học trưởng của OpenAI Ilya Sutskever cảnh báo rằng sự phát triển của trí tuệ nhân tạo cần có quy định chặt chẽ để ngăn chặn các kịch bản thảm khốc có thể xảy ra.
"Bây giờ là thời điểm tốt để bắt đầu suy nghĩ về việc quản lý siêu trí tuệ," Altman cho biết, thừa nhận rằng các hệ thống AI trong tương lai có thể vượt qua AGI đáng kể về khả năng. “Với bức tranh mà chúng ta thấy hiện nay, có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kỹ năng chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả ngang với một trong những tập đoàn lớn nhất hiện nay.”
Nhắc lại những mối quan tâm mà Altman nêu ra tronglời khai gần đây trước Quốc hội, bộ ba đã vạch ra ba trụ cột mà họ cho là quan trọng đối với việc hoạch định chiến lược trong tương lai.
Điểm băt đâu"
Đầu tiên, OpenAI tin rằng phải có sự cân bằng giữa kiểm soát và đổi mới, đồng thời thúc đẩy một thỏa thuận xã hội “cho phép chúng tôi vừa duy trì sự an toàn vừa giúp tích hợp trơn tru các hệ thống này với xã hội.”
Tiếp theo, họ ủng hộ ý tưởng về một "cơ quan quốc tế" được giao nhiệm vụ kiểm tra hệ thống, thực thi kiểm toán, kiểm tra tuân thủ tiêu chuẩn an toàn, triển khai và hạn chế bảo mật. Tương đồng với Cơ quan Năng lượng Nguyên tử Quốc tế, họ đề xuất cơ quan quản lý AI trên toàn thế giới có thể trông như thế nào.
Cuối cùng, họ nhấn mạnh nhu cầu về "năng lực kỹ thuật" để duy trì quyền kiểm soát siêu trí tuệ và giữ cho nó "an toàn." Những gì điều này đòi hỏi vẫn còn mơ hồ, ngay cả với OpenAI, nhưng bài đăng đã cảnh báo chống lại các biện pháp quản lý khó khăn như giấy phép và kiểm toán đối với công nghệ nằm dưới ngưỡng siêu trí tuệ.
Về bản chất, ý tưởng là giữ cho trí tuệ siêu việt phù hợp với ý định của những người huấn luyện nó, ngăn chặn một “kịch bản foom”—một sự bùng nổ nhanh chóng, không thể kiểm soát về khả năng của AI vượt xa tầm kiểm soát của con người.
OpenAI cũng cảnh báo về tác động thảm khốc tiềm ẩn mà sự phát triển không kiểm soát của các mô hình AI có thể gây ra đối với các xã hội trong tương lai. Các chuyên gia khác trong lĩnh vực này đã đưa ra những lo ngại tương tự, từcha đỡ đầu của AI cho những người sáng lập các công ty AIthích Ổn định AI và ngay cảnhân viên OpenAI trước đây đã tham gia đào tạo GPT LLM trong quá khứ. Lời kêu gọi khẩn cấp về cách tiếp cận chủ động đối với quản trị và quy định AI đã thu hút sự chú ý của các cơ quan quản lý trên toàn thế giới.
Thách thức của một siêu trí tuệ “an toàn”
OpenAI tin rằng một khi những điểm này được giải quyết, tiềm năng của AI có thể được khai thác một cách tự do hơn vì mục đích tốt: “Công nghệ này có thể cải thiện xã hội của chúng ta và khả năng sáng tạo của mọi người khi sử dụng những công cụ mới này chắc chắn sẽ làm chúng ta kinh ngạc,” họ nói.
Các tác giả cũng giải thích rằng không gian hiện đang phát triển với tốc độ nhanh và điều đó sẽ không thay đổi. “Việc ngăn chặn nó sẽ đòi hỏi một thứ gì đó giống như một chế độ giám sát toàn cầu, và thậm chí điều đó không được đảm bảo sẽ hoạt động,” blog viết.
Bất chấp những thách thức này, lãnh đạo của OpenAI vẫn cam kết khám phá câu hỏi, "Làm thế nào chúng ta có thể đảm bảo đạt được khả năng kỹ thuật để giữ an toàn cho trí tuệ siêu phàm?" Thế giới hiện không có câu trả lời, nhưng nó chắc chắn cần một câu trả lời—một câu trả lời mà ChatGPT không thể cung cấp.