Góc nhìn tương phản về tương lai của AI
Hai tiếng nói nổi bật nhất của ngành công nghệ đã đưa ra quan điểm khác nhau về tương lai của trí tuệ nhân tạo (AI), nhấn mạnh sự căng thẳng ngày càng tăng giữa đổi mới và an toàn.
Trong bài đăng trên blog vào Chủ Nhật ,Giám đốc điều hành OpenAI Sam Altman tiết lộ rằng lượng người dùng của công ty đã tăng gấp ba lần lên hơn 300 triệu người dùng hoạt động hàng tuần, khi công ty đang đẩy nhanh tiến độ hướng tới trí tuệ nhân tạo tổng hợp (AGI).
Người thay thế bày tỏ sự tin tưởng vào khả năng xây dựng AGI của OpenAI, dự báo rằng đến năm 2025, các tác nhân AI có thể "tham gia lực lượng lao động" và tác động đáng kể đến năng suất kinh doanh.
Ông cũng ám chỉ tham vọng phát triển "siêu trí tuệ", mặc dù mốc thời gian để hiện thực hóa vẫn chưa rõ ràng.
Trong khi đó, vài giờ trước thông báo của Altman,Nhà đồng sáng lập Ethereum Vitalik Buterin đề xuất tận dụng công nghệ blockchain để triển khai các cơ chế an toàn toàn cầu cho các hệ thống AI, bao gồm tính năng "tạm dừng nhẹ" có thể tạm thời dừng các hoạt động AI quy mô lớn nếu có dấu hiệu cảnh báo.
AI cần cơ chế an toàn mạnh mẽ
Buterin đã giới thiệu khái niệm "d/acc" hoặc tăng tốc phi tập trung/phòng thủ , một cách tiếp cận thận trọng hơn đối với tiến bộ công nghệ.
Ngược lại với "e/acc" (tăng tốc hiệu quả), ủng hộ sự tăng trưởng không kiểm soát, d/acc hỗ trợ sự đổi mới trong khi ưu tiên sự an toàn và tác nhân của con người.
Những người ủng hộ nổi tiếng ở Thung lũng Silicon như Marc Andreessen đã tán thành quan điểm "tăng trưởng bằng mọi giá" của e/acc, trong khi mô hình của Buterin nhấn mạnh vào việc xây dựng các cấu trúc phòng thủ trước tiên.
Buterin đã viết:
"D/acc là sự mở rộng các giá trị cơ bản của tiền điện tử (phi tập trung, chống kiểm duyệt, nền kinh tế và xã hội toàn cầu mở) sang các lĩnh vực công nghệ khác."
Suy ngẫm về sự phát triển của d/acc trong năm qua,Buterin đề xuất một con đường thận trọng hơn cho các hệ thống AGI và siêu thông minh, tận dụng các cơ chế mã hóa hiện có như bằng chứng không kiến thức.
Theo khuôn khổ của ông, các hệ thống AI sẽ cần sự chấp thuận hàng tuần từ ba nhóm quốc tế để có thể tiếp tục hoạt động.
Buterin giải thích:
"Các chữ ký sẽ độc lập với thiết bị (nếu muốn, chúng tôi thậm chí có thể yêu cầu bằng chứng không kiến thức rằng chúng đã được công bố trên blockchain), do đó, đây sẽ là tình huống tất cả hoặc không có gì: sẽ không có cách thực tế nào để cho phép một thiết bị tiếp tục chạy mà không cho phép tất cả các thiết bị khác."
Thiết lập này sẽ hoạt động như một công tắc chính, đảm bảo rằng tất cả các máy tính được chấp thuận đều chạy cùng lúc hoặc không có máy tính nào chạy cùng lúc, ngăn chặn việc thực thi có chọn lọc và cung cấp biện pháp bảo vệ chống lại các thảm họa tiềm ẩn:
"Cho đến khi thời điểm quan trọng như vậy xảy ra, việc chỉ có khả năng tạm dừng nhẹ sẽ không gây hại nhiều cho các nhà phát triển."
AI đã sẵn sàng hay chưa?
Các đề xuất này nhấn mạnh những cuộc tranh luận đang diễn ra trong ngành về cách cân bằng giữa sự phát triển của AI với tính an toàn.
Những người ủng hộ hệ thống kiểm soát toàn cầu cho rằng để đạt được điều này sẽ cần sự hợp tác chưa từng có giữa các nhà phát triển AI, chính phủ và lĩnh vực tiền điện tử.
Buterin nói thêm:
"Một năm của 'chế độ thời chiến' có thể dễ dàng đáng giá một trăm năm làm việc trong điều kiện tự mãn. Nếu chúng ta phải hạn chế mọi người, có vẻ như tốt hơn là hạn chế mọi người trên cơ sở bình đẳng và thực sự nỗ lực hợp tác để tổ chức điều đó thay vì một bên tìm cách thống trị mọi người khác."
Với nhiều quan điểm khác nhau, câu hỏi trung tâm vẫn tồn tại: Liệu AI đã sẵn sàng cho sự tiến bộ hay cần có những biện pháp bảo vệ mạnh mẽ trước khi tiến về phía trước?