Một cuộc cải tổ cấp cao
Trong một động thái đáng ngạc nhiên khiến gã khổng lồ công nghệ phải giám sát chặt chẽ hơn, OpenAI gần đây đã tái bổ nhiệm Aleksander Madry, người đứng đầu bộ phận an toàn AI của họ, vào vai trò tập trung vào lý luận AI.
Vào ngày 24 tháng 7 năm 2024, Sam Altman, Giám đốc điều hành của OpenAI, đã công khai làm rõ trên X (trước đây gọi là Twitter) rằng Madry đã được bổ nhiệm lại từ vai trò giám sát nhóm Chuẩn bị sang một vị trí mới tập trung vào lý luận AI.
Altman mô tả dự án mới của Madry là "rất quan trọng" mà không cần giải thích thêm.
Theo dòng tweet của Altman, Madry hiện sẽ thực hiện một dự án nghiên cứu mới quan trọng, mặc dù chi tiết cụ thể của dự án này không được tiết lộ.
Tạm thời, các giám đốc điều hành OpenAI Joaquin Quinonero Candela và Lilian Weng sẽ đảm nhận trách nhiệm của nhóm Chuẩn bị.
Sự thay đổi vai trò này nêu bật sự tái tổ chức chiến lược trong các hoạt động an toàn của OpenAI khi công ty tiếp tục thích ứng với những thách thức mới nổi trong phát triển AI.
Sự ra đi và vai trò mới của Aleksander Madry – Anh ấy là ai?
Aleksander Madry, người đã làm việc tại công ty từ tháng 5 năm 2023, là một nhân vật nổi bật trong lĩnh vực an toàn AI và trước đó đã lãnh đạo nhóm Chuẩn bị của OpenAI.
Nhóm của ông được giao nhiệm vụ xác định, đánh giá và giảm thiểu rủi ro thảm khốc do các mô hình AI gây ra.
Chuyên môn của Madry được mọi người tôn trọng và sự ra đi của ông làm dấy lên lo ngại về cam kết an toàn của công ty.
Trong khi Altman nhấn mạnh tầm quan trọng của dự án nghiên cứu mới của Madry, quyết định loại bỏ anh ta khỏi vai trò quan trọng về an toàn đã làm dấy lên cuộc tranh luận.
Điều đáng chú ý là Madry duy trì mối quan hệ liên kết với MIT, nơi ông giữ các vị trí tại Trung tâm Học máy có thể triển khai và Diễn đàn Chính sách AI.
Ông đã lấy được bằng tiến sĩ. tốt nghiệp MIT vào năm 2011 và đã giữ các vị trí tại Microsoft Research New England và EPFL.
Ông chỉ đạo Trung tâm Học máy có thể triển khai của MIT và lãnh đạo Hợp tác AI mạnh mẽ và đáng tin cậy của CSAIL-MSR.
Nghiên cứu của ông tập trung vào lý thuyết đồ thị thuật toán, tối ưu hóa và học máy, nhằm phát triển các công cụ ra quyết định đáng tin cậy cho các ứng dụng trong thế giới thực.
OpenAI đang bị chỉ trích
Quyết định bổ nhiệm lại Madry được đưa ra trong bối cảnh làn sóng giám sát và chỉ trích nhắm vào OpenAI ngày càng gia tăng.
Chưa đầy một tuần trước khi đưa ra thông báo, một nhóm thượng nghị sĩ Đảng Dân chủ đã gửi thư cho Giám đốc điều hành Sam Altman, bày tỏ lo ngại về cách tiếp cận an toàn của công ty và yêu cầu câu trả lời cho các câu hỏi cụ thể trước ngày 13 tháng 8 năm 2024.
Các thượng nghị sĩ' bức thư nhấn mạnh áp lực ngày càng tăng đối với các công ty AI trong việc thể hiện cam kết của họ đối với an toàn công cộng.
Các hoạt động an toàn của OpenAI đã được chú ý nhiều trong vài tháng.
Vào tháng 6, một nhóm nhân viên hiện tại và trước đây của OpenAI đã xuất bản một bức thư ngỏ, nêu ra những lo ngại về sự tiến bộ nhanh chóng của AI mà không có sự giám sát đầy đủ.
Bức thư nhấn mạnh sự cần thiết phải minh bạch và trách nhiệm giải trình cao hơn trong ngành.
Hơn nữa, Ủy ban Thương mại Liên bang (FTC) và Bộ Tư pháp (DOJ) được cho là đang điều tra OpenAI, Microsoft và Nvidia về các vi phạm chống độc quyền tiềm ẩn liên quan đến các hoạt động AI của họ.
Cuộc điều tra này nhấn mạnh sự giám sát chặt chẽ về quy định mà ngành công nghiệp AI phải đối mặt.
Việc bổ nhiệm lại Madry diễn ra vào thời điểm OpenAI cũng đang phải đối mặt với những thách thức khác.
Phòng An toàn của OpenAI và những thay đổi gần đây
Bộ phận an toàn và tin cậy của OpenAI gần đây đã trải qua những thay đổi đáng kể.
Vào tháng 7 năm 2023, công ty đã giải tán nhóm an toàn trước đó và tái cơ cấu thành ba đơn vị riêng biệt, sau khi Dave Willner, người đứng đầu bộ phận an toàn và tin cậy của OpenAI, rời đi:
- Nhóm hệ thống an toàn
- Nhóm siêu liên kết
- Đội chuẩn bị
Nhóm Hệ thống An toàn tập trung vào việc triển khai an toàn các mô hình AI và giảm thiểu lạm dụng, Nhóm Siêu liên kết làm việc về vấn đề an toàn AI trong tương lai và Nhóm Chuẩn bị, trước đây do Madry lãnh đạo, đánh giá các rủi ro mới và giảm thiểu rủi ro thảm khốc liên quan đến các mô hình AI tiên tiến.
Đầu tháng 5, công ty đã giải tán nhóm rủi ro AI dài hạn của mình, một quyết định gây ra sự chỉ trích từ cả bên trong và bên ngoài tổ chức.
Nhóm đã giải tán sau khi người đồng sáng lập công ty, Ilya Sutskever và Jan Leike, người lãnh đạo nhóm rủi ro AI dài hạn, rời OpenAI, với lý do bất đồng về các ưu tiên của công ty.
Một tháng sau, Ilya Sutskever đã công bố công ty khởi nghiệp mới của mình – Safe Superintelligence Inc. (SSI).
Vai trò bị giảm sút của Microsoft
Ngoài những thay đổi nội bộ tại OpenAI, mối quan hệ của công ty với các bên liên quan chính, chẳng hạn như Microsoft, cũng đã phát triển.
Đầu tháng này, Microsoft đã từ bỏ vị trí quan sát viên trong hội đồng quản trị của OpenAI, với lý do công ty đã đạt được tiến bộ trong việc thiết lập cơ cấu quản trị.
Tuy nhiên, động thái này diễn ra khi OpenAI phải đối mặt với những thách thức và sự giám sát ngày càng tăng.
Sự suy yếu của trọng tâm an toàn?
Việc tái bổ nhiệm Madry và việc tái cơ cấu rộng rãi hơn trong bộ phận an toàn đã làm dấy lên suy đoán về sự thay đổi tiềm năng trong các ưu tiên của OpenAI.
Các nhà phê bình cho rằng động thái này có thể cho thấy sự suy yếu trong cam kết an toàn của công ty để ủng hộ các mục tiêu khác, chẳng hạn như phát triển sản phẩm và cạnh tranh thị trường.
Tuy nhiên, OpenAI vẫn khẳng định rằng Madry sẽ tiếp tục đóng góp vào công việc an toàn cốt lõi của AI trong vai trò mới của mình. Công ty cũng nhấn mạnh tầm quan trọng của sự an toàn và những nỗ lực không ngừng nhằm giải quyết các rủi ro tiềm ẩn.
Khi ngành công nghiệp AI tiếp tục tăng tốc, mức độ an toàn sẽ cao hơn bao giờ hết. Những quyết định của các công ty như OpenAI sẽ gây ra những hậu quả sâu rộng cho xã hội.
Những tháng tới sẽ rất quan trọng trong việc xác định liệu OpenAI có thể cân bằng hiệu quả sự đổi mới với trách nhiệm hay không.