Các mô hình AI của OpenAI được sử dụng để tác động đến cuộc bầu cử
Trong một báo cáo gần đây, OpenAI tiết lộ rằng các mô hình AI của họ đã bị khai thác đểtạo nội dung giả mạo, chẳng hạn như các bài viết dài và bình luận trên mạng xã hội, nhằm mục đích tác động đến cuộc bầu cử.
Công ty báo cáo đã phá dỡ hơn 20 hoạt độngđã sử dụng công nghệ của mình cho những mục đích xấu này.
Có tựa đề là "Cập nhật về việc ngăn chặn việc sử dụng AI lừa đảo ", tài liệu này nhấn mạnh nhu cầu cấp thiết phải thận trọng khi tiếp xúc với nội dung chính trị.
Điều này làm nổi bật một xu hướng đáng lo ngại: các mô hình của OpenAI đã trở thành công cụ chính gây gián đoạn bầu cử và phát tán thông tin sai lệch về chính trị.
Thông thường, những kẻ xấu, thường được nhà nước tài trợ, lợi dụng các mô hình AI này cho nhiều hoạt động bất hợp pháp khác nhau, bao gồm tạo nội dung cho các nhân vật trực tuyến giả mạo và thực hiện kỹ thuật đảo ngược phần mềm độc hại.
OpenAI lưu ý rằng tội phạm mạng ngày càng khai thác nhiều công cụ AI, bao gồm ChatGPT, để tăng cường hoạt động gây hại của chúng, từ việc tạo và gỡ lỗi phần mềm độc hại đến sản xuất nội dung lừa đảo cho các trang web và nền tảng mạng xã hội.
Vai trò ngày càng tăng của OpenAI trong việc định hình bầu cử và chính trị AI
Vào cuối tháng 8, OpenAI đã can thiệp vào một chiến dịch của Iran nhằm mục đích tác động đến cuộc bầu cử Hoa Kỳ, chính trị Venezuela và cuộc xung đột đang diễn ra giữa Gaza và Israel thông qua nội dung truyền thông xã hội.
Vào đầu tháng 7, công ty cũng đã cấm một số tài khoản có liên quan đến Rwanda đang tạo ra các bình luận về cuộc bầu cử của quốc gia này cho nền tảng nàyX (trước đây gọi là Twitter).
Hơn nữa, OpenAI đã phát hiện ra nỗ lực của một công ty Israel nhằm thao túng kết quả thăm dò ý kiến ở Ấn Độ.
Bất chấp những nỗ lực này, OpenAI lưu ý rằng không có chiến dịch nào trong số này đạt được sự tương tác lan truyền đáng kể hoặc thu hút được lượng khán giả ổn định, điều này cho thấy việc tác động đến dư luận thông qua thông tin sai lệch do AI thúc đẩy vẫn còn là một thách thức.
Theo truyền thống, các chiến dịch chính trị thường dựa vào thông tin sai lệch từ các phe đối lập; tuy nhiên, sự trỗi dậy của AI đặt ra những mối đe dọa mới đối với tính toàn vẹn của các tiến trình dân chủ.
Diễn đàn Kinh tế Thế giới (WEF) đã nhấn mạnh rằng năm 2024 sẽ là một năm then chốt, vớibầu cử được lên lịch ở 50 quốc gia.
Khi các mô hình ngôn ngữ lớn (LLM) trở nên phổ biến hơn, chúng có khả năng truyền bá thông tin sai lệch nhanh hơn và thuyết phục hơn bao giờ hết.
OpenAI nhấn mạnh việc chia sẻ thông tin tình báo về mối đe dọa
Trước những mối đe dọa mới nổi do thông tin sai lệch do AI gây ra,OpenAI đã công bố cam kết hợp tác với các bên liên quan chính để chia sẻ thông tin tình báo về mối đe dọa.
Tổ chức này tin rằng chiến lược hợp tác này sẽ giám sát hiệu quả các kênh thông tin sai lệch và thúc đẩy việc sử dụng AI có đạo đức, đặc biệt là trong bối cảnh chính trị.
OpenAI báo cáo:
“Bất chấp việc thiếu sự tham gia có ý nghĩa của khán giả do hoạt động này, chúng tôi vẫn coi trọng mọi nỗ lực sử dụng dịch vụ của chúng tôi trong các hoạt động gây ảnh hưởng ở nước ngoài.”
Ngoài ra, OpenAI nhấn mạnh sự cần thiết phải thiết lập các biện pháp bảo mật mạnh mẽ để ngăn chặn những kẻ tấn công mạng được nhà nước tài trợ, những kẻ lợi dụng AI cho các chiến dịch lừa đảo trực tuyến.
Diễn đàn Kinh tế Thế giới (WEF) cũng bày tỏ những lo ngại này và nhấn mạnh tầm quan trọng của việc thực hiện các quy định về AI.
Họ khẳng định rằng "các thỏa thuận quốc tế về các tiêu chuẩn có thể tương tác và các yêu cầu quy định cơ bản là rất quan trọng để thúc đẩy đổi mới và tăng cường an toàn AI".
Để phát triển các khuôn khổ hiệu quả, quan hệ đối tác chiến lược giữa các công ty công nghệ như OpenAI, các tổ chức khu vực công và các bên liên quan tư nhân là điều cần thiết để triển khai thành công các hệ thống AI có đạo đức.
Khi Hoa Kỳ chuẩn bị cho cuộc bầu cử tổng thốngbầu cử , sự lo lắng đang gia tăng về việc sử dụng các công cụ AI và phương tiện truyền thông xã hội để tạo ra và phát tán nội dung sai lệch.
Bộ An ninh Nội địa Hoa Kỳ đã cảnh báo về các mối đe dọa leo thang từ các quốc gia như Nga, Iran và Trung Quốc, những quốc gia có thể tìm cách tác động đến cuộc bầu cử ngày 5 tháng 11 thông quaphát tán thông tin sai lệch hoặc gây chia rẽ.
OpenAI kết luận:
“Khi chúng tôi hướng tới tương lai, chúng tôi sẽ tiếp tục làm việc với các nhóm tình báo, điều tra, an ninh, an toàn và chính sách của mình để dự đoán cách những kẻ xấu có thể sử dụng các mô hình tiên tiến cho mục đích nguy hiểm và lập kế hoạch các bước thực thi phù hợp. Chúng tôi sẽ tiếp tục chia sẻ những phát hiện của mình với các nhóm an toàn và bảo mật nội bộ, truyền đạt bài học cho các bên liên quan chính và hợp tác với các đồng nghiệp trong ngành và cộng đồng nghiên cứu rộng lớn hơn để luôn đi đầu trong việc ứng phó với rủi ro và tăng cường an toàn và bảo mật tập thể của chúng tôi.”