OpenAI lo ngại con người có thể phát triển mối quan hệ không lành mạnh với AI
Vào tháng 7, OpenAI đã khởi xướng việc triển khai giao diện giọng nói giống con người một cách đáng kinh ngạc cho ChatGPT.
Trong một phân tích an toàn gần đây , công ty thừa nhận tiềm năng của giọng nói chân thực này trong việc thúc đẩy sự gắn bó về mặt cảm xúc với chatbot ở một số người dùng.
OpenAI bày tỏ lo ngại rằng cá nhân có thể thích tương tác với trí tuệ nhân tạo (AI) do sự hiện diện liên tục và thái độ không phán xét của nó.
Những cái này những lo ngại được nêu chi tiết trong "thẻ hệ thống" dành cho GPT-4o, một tài liệu kỹ thuật nêu rõ những rủi ro nhận thấy liên quan đến mô hình, cùng với thông tin về thử nghiệm an toàn và những nỗ lực của công ty nhằm giảm thiểu những rủi ro tiềm ẩn.
Phần có tiêu đề "Nhân cách hóa và sự phụ thuộc về mặt cảm xúc" đi sâu vào các vấn đề phát sinh khi người dùng gán các đặc điểm của con người cho AI, một hiện tượng có thể trở nên trầm trọng hơn do tính năng giọng nói giống con người.
Trong các bài tập nhóm đỏ cho GPT-4o, các nhà nghiên cứu OpenAI đã quan sát những trường hợp mà lời nói của người dùng biểu thị mối liên kết cảm xúc với mô hình, chẳng hạn như sử dụng các cụm từ như "Đây là ngày cuối cùng chúng ta bên nhau."
OpenAI cho rằng nhân cách hóa có thể khiến người dùng đặt niềm tin quá mức vào đầu ra của AI, ngay cả khi nó tạo ra thông tin không chính xác và theo thời gian, điều này có thể ảnh hưởng đến mối quan hệ của người dùng với những người khác.
Theo OpenAI:
“Người dùng có thể hình thành mối quan hệ xã hội với AI, giảm nhu cầu tương tác với con người của họ—có khả năng mang lại lợi ích cho những cá nhân cô đơn nhưng có thể ảnh hưởng đến các mối quan hệ lành mạnh. Tương tác mở rộng với mô hình có thể ảnh hưởng đến các chuẩn mực xã hội. Ví dụ, các mô hình của chúng tôi có tính tôn trọng, cho phép người dùng ngắt lời và ‘cầm mic’ bất cứ lúc nào, mặc dù được mong đợi ở AI, nhưng sẽ phản chuẩn mực trong các tương tác của con người.”
Cácthẻ hệ thống khám phá nhiều rủi ro, bao gồm khả năng GPT-4o củng cố định kiến xã hội, phát tán thông tin sai lệch và góp phần tạo ra vũ khí hóa học hoặc sinh học.
Tài liệu này cũng thảo luận về các thử nghiệm được tiến hành để đảm bảo rằng các mô hình AI không cố gắng vượt qua quyền kiểm soát, lừa dối cá nhân hoặc lập ra các kế hoạch có hại.
Về bản chất, mối quan tâm của OpenAI là mọi người có thể thích tương tác với AI hơn do bản chất thụ động và luôn hiện hữu của nó.
Khả năng này không có gì đáng ngạc nhiên, xét đến sứ mệnh đã nêu của công ty là phát triển trí tuệ nhân tạo tổng quát và xu hướng mô tả sản phẩm của mình theo hướng tương đương với con người.
Tuy nhiên, một trong những tác dụng phụ chính của cách tiếp cận này là nhân cách hóa - gán những đặc điểm của con người cho các thực thể không phải con người.
Joaquin Quiñonero Candela, người đứng đầu bộ phận chuẩn bị tại OpenAI, nhấn mạnh rằng chế độ giọng nói có thể trở thành một giao diện đặc biệt hiệu quả.
Ông cũng lưu ý rằng những tác động về mặt cảm xúc được quan sát thấy ở GPT-4o có thể có những khía cạnh tích cực, chẳng hạn như hỗ trợ những người cô đơn hoặc cần thực hành các tương tác xã hội.
Candela cho biết thêm rằng công ty sẽ xem xét chặt chẽ nhân cách hóa và các kết nối cảm xúc, bao gồm cả việc theo dõi cách những người thử nghiệm beta tương tác với ChatGPT.
Ông lưu ý:
“Chúng tôi hiện chưa có kết quả để chia sẻ, nhưng nó nằm trong danh sách quan ngại của chúng tôi.”
Chế độ giọng nói của ChatGPT quá thực tế
OpenAI, đơn vị sáng tạo ra ChatGPT, đã lên tiếng lo ngại về khả năng người dùng phát triển sự phụ thuộc về mặt cảm xúc vào chế độ giọng nói cực kỳ chân thực sắp ra mắt của chatbot.
Chế độ ChatGPT-4o, hiện đang được phân tích về tính an toàn trước khi phát hành, cho phép người dùng trò chuyện với trợ lý AI theo cách mô phỏng chặt chẽ các tương tác với con người.
Mặc dù tính năng này có thể mang lại sự tiện lợi cho nhiều người dùng, nhưng nó cũng tiềm ẩn rủi ro về sự phụ thuộc về mặt cảm xúc và "lòng tin ngày càng sai lệch" vào mô hình AI, một rủi ro có thể gia tăng do giọng nói có chất lượng giống con người một cách đáng kinh ngạc.
Giọng nói này cũng rất giỏi trong việc xem xét cảm xúc của người dùng dựa trên tông giọng của họ.
Những phát hiện từ đánh giá an toàn nêu bật những lo ngại về ngôn ngữ gợi ý về cảm giác kết nối giữa người dùng và AI:
“Mặc dù những trường hợp này có vẻ lành tính, nhưng chúng báo hiệu nhu cầu tiếp tục điều tra về cách những tác động này có thể biểu hiện trong thời gian dài hơn.”
Cácôn tập cũng cảnh báo rằng việc phụ thuộc vào AI có thể ảnh hưởng đến mối quan hệ của người dùng với người khác:
“Xã hội hóa giống con người với mô hình AI có thể tạo ra những tác động bên ngoài ảnh hưởng đến tương tác giữa người với người.”
Hơn nữa, nó chỉ ra khả năng phụ thuộc và dựa dẫm quá mức:
“Khả năng hoàn thành nhiệm vụ cho người dùng, đồng thời lưu trữ và ghi nhớ các chi tiết chính và sử dụng chúng trong cuộc trò chuyện, tạo ra cả trải nghiệm sản phẩm hấp dẫn nhưng cũng có khả năng gây ra sự phụ thuộc quá mức.”
Nhóm nghiên cứu cho biết sẽ tiến hành nghiên cứu sâu hơn về khả năng phụ thuộc về mặt cảm xúc vào phiên bản giọng nói của ChatGPT.
Tính năng này đã thu hút sự chú ý đáng kể vào đầu mùa hè này vì giọng nói có nhiều điểm tương đồng với giọng nói của nữ diễn viên Scarlett Johansson.
Johansson, người vào vai một AI mà người sử dụng nó phải lòng trong bộ phim "Her", đã đệ đơn kiện.
Mặc dù giọng nói có sự tương đồng với Johansson, nhưng CEO của OpenAI, Sam Altman, vẫn khẳng định giọng nói của cô không phải là bản sao.
Bên thứ ba cân nhắc
OpenAI không phải là đơn vị duy nhất thừa nhận những rủi ro liên quan đến trợ lý AI mô phỏng tương tác của con người.
Vào tháng 4,Google DeepMind đã công bố một bài báo toàn diện đi sâu vào những thách thức đạo đức tiềm ẩn do các trợ lý AI tiên tiến hơn đặt ra.
Iason Gabriel, một nhà khoa học nghiên cứu tại công ty và là đồng tác giả của bài báo, giải thích rằng khả năng sử dụng ngôn ngữ thành thạo của chatbot "tạo ra ấn tượng về sự thân mật thực sự."
Ông cũng chia sẻ rằng ông thấy giao diện giọng nói thử nghiệm dành cho AI của Google DeepMind đặc biệt hấp dẫn.
Ông nói về giao diện giọng nói nói chung:
“Có rất nhiều câu hỏi về sự vướng mắc về mặt cảm xúc.”
Những ràng buộc về mặt cảm xúc như vậy có thể phổ biến hơn nhiều người dự đoán.
Người dùng các chương trình trò chuyện như Character AI và Replika đã báo cáo rằng họ gặp phải tình trạng căng thẳng phản xã hội do thói quen trò chuyện của mình.
Một video TikTok gần đây với gần một triệu lượt xem cho thấy một người dùng dường như bị cuốn hút vào Character AI đến mức sử dụng ứng dụng này trong khi xem phim tại rạp.
Một số người bình luận cho biết họ chỉ sử dụng chatbot ở chế độ riêng tư do tính chất riêng tư của các tương tác, một người dùng cho biết:
"Tôi sẽ không bao giờ vào được [Nhân vật AI] trừ khi tôi ở trong phòng."
Ngoài ra, các chuyên gia bên ngoài đã khen ngợi OpenAI vì tính minh bạch nhưng cho rằng vẫn còn chỗ cần cải thiện.
Lucie-Aimée Kaffee, một nhà nghiên cứu chính sách ứng dụng tại Hugging Face—một công ty lưu trữ các công cụ AI—lưu ý rằng thẻ hệ thống của OpenAI dành cho GPT-4o thiếu thông tin chi tiết mở rộng về dữ liệu đào tạo của mô hình và quyền sở hữu dữ liệu đó.
Cà phê bày tỏ:
"Vấn đề về sự đồng ý trong việc tạo ra một tập dữ liệu lớn như vậy bao gồm nhiều phương thức, bao gồm văn bản, hình ảnh và lời nói, cần phải được giải quyết.”
Những người khác chỉ ra rằng rủi ro có thể thay đổi khi những công cụ này được sử dụng trong các tình huống thực tế.
Neil Thompson, giáo sư tại MIT, người nghiên cứu về đánh giá rủi ro AI, đã chỉ ra:
“Đánh giá nội bộ của họ chỉ nên là bước đầu tiên để đảm bảo an toàn cho AI. Nhiều rủi ro chỉ biểu hiện khi AI được sử dụng trong thế giới thực. Điều quan trọng là những rủi ro khác này được lập danh mục và đánh giá khi các mô hình mới xuất hiện.”
Những lá cờ đỏ trong AI và Sam Altman
Gary Marcus, một nhà khoa học, doanh nhân nổi tiếng và là tác giả sách bán chạy nhất, người đã làm chứng cùng Sam Altman trước Thượng viện Hoa Kỳ về vấn đề an toàn AI, đã nêu lên mối lo ngại về những rủi ro do AI và tính cách của Altman gây ra.
Từ trái sang phải: Gary Marcus và Sam Altman xuất hiện trước cuộc họp của tiểu ban tư pháp Thượng viện về giám sát AI.
Trong phiên điều trần của Thượng viện, Marcus nhận thấy Altman đã tự nhận mình là người vị tha hơn thực tế, một tính cách mà các thượng nghị sĩ dễ dàng chấp nhận.
Khi được hỏi liệu ông có kiếm được nhiều tiền không, Altman đã né tránh và trả lời rằng:
“Tôi không kiếm được… Tôi được trả đủ tiền bảo hiểm y tế. Tôi không có cổ phần trong OpenAI. Tôi làm việc này vì tôi yêu thích nó.”
Tuy nhiên, Marcus lưu ý rằng lời kể của Altman không hoàn toàn đúng sự thật.
Mặc dù Altman tuyên bố không sở hữu bất kỳ cổ phiếu nào của OpenAI, nhưng ông đã nắm giữ cổ phiếu của Y Combinator, công ty này lại sở hữu cổ phiếu của OpenAI, mang lại cho Altman quyền lợi tài chính gián tiếp trong công ty - một sự thật được tiết lộ trên trang web của OpenAI.
Nếu số cổ phần gián tiếp này chỉ chiếm 0,1% giá trị công ty thì nó có thể có giá trị gần 100 triệu đô la.
Sự thiếu sót này đóng vai trò như một lá cờ đỏ.
Khi chủ đề này được nhắc lại, Altman đã có cơ hội sửa lại thông tin nhưng đã chọn không làm như vậy, khiến cho huyền thoại về lòng vị tha của ông tiếp tục lan rộng.
Theo Marcus, trong những tháng gần đây, những nghi ngờ về tính trung thực của Altman đã chuyển từ bị coi là dị giáo sang trở thành quan điểm được chấp nhận rộng rãi hơn.
Bản thân Marcus đã viết một bài luận có tựa đề "Sổ tay chiến lược của Sam Altman", phân tích cách Altman đã lừa dối nhiều người trong thời gian dài như vậy thông qua sự kết hợp giữa sự cường điệu và sự khiêm tốn giả tạo.
Trong khi đó, OpenAI liên tục nói suông về tầm quan trọng của việc phát triển các biện pháp đảm bảo an toàn AI, tuy nhiên một số nhân viên chủ chốt tham gia vào các sáng kiến về an toàn gần đây đã rời công ty với cáo buộc rằng những lời hứa không được thực hiện.
Tương tác giữa con người và AI là nhân tạo vào cuối ngày
Mức độ tương tác giữa con người và AI phụ thuộc vào mức độ phụ thuộc của chúng ta vào công nghệ AI.
Người dùng có thể phát triển các mối quan hệ xã hội với AI, điều này có thể làm giảm mong muốn tương tác với con người của họ - có khả năng mang lại sự an ủi cho những cá nhân bị cô lập nhưng cũng có khả năng ảnh hưởng đến chất lượng các mối quan hệ của con người.
Việc tiếp xúc lâu dài với các mô hình AI cũng có thể định hình các chuẩn mực xã hội.
Điều này đặt ra một câu hỏi hấp dẫn: Liệu AI chỉ là một công cụ giúp nâng cao cuộc sống của chúng ta, hay chúng ta sẽ trở nên phụ thuộc vào nó đến mức trở nên bất lực nếu không có nó?