Một nhà khoa học trí tuệ nhân tạo đang đưa ra một cảnh báo nghiêm trọng về tương lai của công nghệ đang phát triển nhanh chóng này. Trong một bài xã luận gần đây cho Tạp chí Time, nhà tiên phong về AI Eliezer Yudkowsky tuyên bố rằng các phương pháp và cấu trúc hiện có được sử dụng để xây dựng AI đang đặt nhân loại vào nguy cơ nghiêm trọng.
Yudkowsky trích dẫn một bức thư ngỏ từ Viện Tương lai của Cuộc sống kêu gọi một lệnh cấm phát triển AI. Anh ta tuyên bố rằng anh ta đã không ký vào bức thư vì anh ta cảm thấy nó không đủ.
“Nhiều nhà nghiên cứu chìm đắm trong những vấn đề này, bao gồm cả tôi, tin rằng việc xây dựng một AI thông minh siêu phàm trong bất kỳ điều gì giống với hoàn cảnh hiện tại từ xa sẽ dẫn đến cái chết của tất cả mọi người trên Trái đất theo đúng nghĩa đen.”
Yudkowsky tuyên bố rằng ông không đề cập đến một khả năng xa vời hoặc thậm chí có ý nghĩa thống kê rằng AI sẽ quét sạch con người. Thay vào đó, anh ấy tuyên bố rằng đó là kết quả rõ ràng.
“Trong điều kiện hiện tại, tôi hy vọng rằng mọi thành viên của loài người và tất cả sự sống sinh học trên Trái đất sẽ chết ngay sau khi ai đó phát triển một AI quá mạnh.”
Theo Yudkowsky, có nhiều thông tin sai lệch về mức độ thực sự của các hệ thống AI mới nổi mạnh mẽ và tự nhận thức, điều này khuyến nghị các kỹ sư nên tạm dừng ngay lập tức và tìm cách cài đặt các biện pháp bảo vệ để bảo tồn công nghệ và sự sống trên Trái đất.
Hơn 1.000 chuyên gia AI, học giả, người ủng hộ và doanh nhân công nghệ, bao gồm cả Elon Musk, đã ký một bức thư ngỏ kêu gọi ngừng phát triển AI. Sức mạnh, lời hứa và những nguy cơ tiềm ẩn của trí tuệ nhân tạo đã bùng nổ trong những tháng gần đây, nhờ vào việc gia tăng sử dụng các công cụ tạo ảnh do AI cung cấp như Midjourney và việc áp dụng nhanh mô hình ngôn ngữ lớn ChatGPT của OpenAI.
Sau thương vụ sáp nhập trị giá 10 tỷ USD với OpenAI, Microsoft đã dẫn đầu trong việc mở rộng các trường hợp sử dụng ChatGPT, tích hợp nó với Bing và Office 365.