WeChat trấn áp các vụ mạo danh người nổi tiếng do AI tạo ra để tiếp thị gian lận
Nền tảng truyền thông xã hội Trung Quốc WeChat đã có hành động quyết liệt để giải quyết vấn nạn ngày càng gia tăng về việc mạo danh người nổi tiếng bằng AI nhằm phục vụ cho các hoạt động tiếp thị độc hại.
Trong thông báo gần đây thông qua tài khoản chính thức "WeChat Coral Security" vào ngày 15 tháng 12 năm 2024, nền tảng này tiết lộ rằng họ đã đóng 209 tài khoản liên quan đến các chiến thuật tiếp thị dựa trên AI phi đạo đức, nhằm mục đích thao túng lòng tin của người tiêu dùng và thu hút lưu lượng truy cập gian lận.
Công ty đã nhanh chóng giải quyết một loạt các hành vi vi phạm khi AI được sử dụng để mạo danh người nổi tiếng cho mục đích quảng cáo không phù hợp.
Nền tảng này tuyên bố rằng họ đã nhận được nhiều báo cáo từ người dùng và tiến hành kiểm tra thường xuyên, cho phép xác định và loại bỏ nhanh chóng các hoạt động lừa đảo này.
WeChat cho biết trong tuyên bố:
"Để bảo vệ quyền lợi của người dùng và ngăn chặn gian lận người tiêu dùng, chúng tôi đã hành động quyết liệt để chống lại việc sử dụng sai công nghệ AI trong hoạt động tiếp thị gian lận".
Công nghệ AI thúc đẩy các hành vi lừa đảo
Việc sử dụng công nghệ AI để bắt chước những người nổi tiếng của công chúng đã trở nên phổ biến, đặc biệt là vì mục đích thương mại.
Những công cụ do AI điều khiển này có thể tạo ra các video và bản ghi âm giọng nói giả mạo có sức thuyết phục bằng cách sao chép hình ảnh của những người nổi tiếng, dẫn đến tình trạng xuyên tạc tràn lan trên mạng.
Chiến dịch trấn áp của WeChat được tiến hành sau nhiều báo cáo từ người dùng và hoạt động giám sát thường xuyên, dẫn đến việc xác định các tài khoản lạm dụng công nghệ này.
WeChat hiện đã xóa 532 nội dung có hại như một phần trong sáng kiến rộng lớn hơn nhằm chống lại các hoạt động tiếp thị gian lận này.
Cam kết của nền tảng này trong việc cải thiện khả năng bảo vệ người tiêu dùng rất rõ ràng khi công ty tuyên bố sẽ tiếp tục tập trung vào việc hạn chế các hành vi lừa đảo như vậy.
Xu hướng ngày càng gia tăng của việc mạo danh AI gian lận
Sự tinh vi ngày càng tăng của nội dung do AI tạo ra đã làm dấy lên mối lo ngại vì nó cho phép thao túng người tiêu dùng thông qua những lời chứng thực bịa đặt.
Các vụ việc mạo danh AI gây chú ý đã xuất hiện, bao gồm cả trường hợp giọng nói và hình ảnh của người nổi tiếng được sử dụng để quảng cáo sản phẩm mà không có sự đồng ý của họ.
Một trường hợp như vậy liên quan đến nam diễn viên Hồng Kông Raymond Wong, người đã công khai lên án việc sử dụng hình ảnh và giọng nói của mình một cách gian lận trong một quảng cáo do AI tạo ra.
Wong cho biết trong một tuyên bố đăng trên mạng xã hội:
“Hành vi này hoàn toàn là gian lận. Nó nhằm mục đích đánh lừa công chúng và kiếm lợi từ đó.”
Tình huống này phơi bày mối nguy hiểm của việc mạo danh bằng AI, trong đó lòng tin bị thao túng để lừa người tiêu dùng mua sản phẩm thông qua sự chứng thực giả mạo.
Mối quan ngại về mặt pháp lý và đạo đức xung quanh gian lận do AI thúc đẩy
Các chuyên gia cảnh báo rằng việc mạo danh AI có thể xâm phạm quyền cá nhân.
Luật sư Xu Wei từ Công ty luật Jingdu tại Bắc Kinh chỉ ra rằng việc sử dụng AI để thay đổi hình ảnh của ai đó cho mục đích thương mại mà không có sự đồng ý là vi phạm quyền chân dung của họ.
Nếu các sản phẩm được quảng cáo thông qua các xác nhận do AI tạo ra bị phóng đại hoặc định giá quá cao, thì thậm chí có thể cấu thành gian lận, vì người tiêu dùng có thể bị lừa mua hàng dựa trên các xác nhận sai lệch này.
Xu cũng nhấn mạnh khả năng gây tổn hại đến danh tiếng, lưu ý rằng việc sử dụng AI với mục đích xấu, chẳng hạn như tạo nội dung phản cảm hoặc đặt khuôn mặt của ai đó vào bối cảnh không phù hợp, có thể dẫn đến vi phạm quyền cá nhân của một người.
Trách nhiệm của nền tảng và các biện pháp trong tương lai
Vai trò của các nhà cung cấp nền tảng như WeChat cũng đang được xem xét kỹ lưỡng.
Các nền tảng được khuyến khích chịu trách nhiệm về nội dung được lưu trữ trên trang web của họ, đảm bảo rằng các video do AI tạo ra được gắn nhãn rõ ràng để tránh gây nhầm lẫn cho người dùng.
Quy định này yêu cầu các nhà cung cấp dịch vụ phải đánh dấu rõ ràng nội dung do AI tạo ra bằng các chỉ báo dễ thấy tại các điểm chính, chẳng hạn như phần đầu, phần cuối hoặc các khu vực nổi bật khác, trên nhiều định dạng khác nhau như văn bản, âm thanh, hình ảnh và video.
Các nền tảng lớn đã bắt đầu thêm các tuyên bố từ chối trách nhiệm, chẳng hạn như "nội dung do AI tạo ra" hoặc "nghi ngờ là do AI tạo ra" để giúp người xem phân biệt giữa phương tiện truyền thông thực và tổng hợp.
Tuy nhiên, trong trường hợp nền tảng không dán nhãn hoặc xóa nội dung gây hiểu lầm một cách phù hợp, họ có thể phải chịu trách nhiệm vì tạo điều kiện cho việc phát tán tài liệu gian lận.
WeChat tuyên bố sẽ tăng cường nỗ lực ngăn chặn những nội dung như vậy đến tay người dùng, đồng thời thắt chặt hơn nữa các hoạt động quản lý.
Quy định chặt chẽ hơn về dịch vụ tổng hợp AI
Theo hướng dẫn gần đây từ chính quyền Trung Quốc, các dịch vụ AI tạo ra nội dung deepfake phải chỉ rõ khi nào nội dung đó có thể gây nhầm lẫn.
WeChat cam kết tăng cường hơn nữa khả năng quản trị, đảm bảo cả người dùng và nhà cung cấp dịch vụ đều chịu trách nhiệm về nội dung được tạo ra bằng công nghệ AI.
Vai trò của công chúng trong việc giúp xác định và báo cáo nội dung AI gian lận cũng rất quan trọng để duy trì môi trường trực tuyến an toàn và đáng tin cậy.
Khi các công cụ AI ngày càng dễ tiếp cận hơn, trách nhiệm ngăn chặn tình trạng khai thác và lừa đảo trong thế giới số thuộc về cả nhà cung cấp nền tảng và người dùng.