Theo một cuộc khảo sát của Thorn, một tổ chức phi lợi nhuận có sứ mệnh xây dựng công nghệ để bảo vệ trẻ em khỏi bị xâm hại tình dục, cứ 10 trẻ vị thành niên thì có một trẻ báo cáo rằng bạn bè hoặc bạn cùng lớp của mình đã sử dụng các công cụ AI để tạo ra ảnh khoả thân của những đứa trẻ khác.
Chúng ta đã biết từ lâu rằng các công cụ AI thường được sử dụng trong số trẻ vị thành niên và đặc biệt là các ứng dụng khỏa thân, có thể chụp ảnh bất kỳ ai và sử dụng AI để khiến họ trông khỏa thân, đã gây ra sự hỗn loạn và hoảng loạn tại một số trường học trên khắp cả nước, nhưng khảo sát Thorn, được thực hiện hợp tác với công ty nghiên cứu BSG, là một trong những nỗ lực đầu tiên mà chúng tôi thấy để đo lường phạm vi của vấn đề.
Cuộc khảo sát được thực hiện trực tuyến từ ngày 3 tháng 11 đến ngày 1 tháng 12 năm 2023, đã hỏi 1.040 trẻ vị thành niên trong độ tuổi từ 9 đến 17 những câu hỏi về nội dung lạm dụng tình dục trẻ em và "những trải nghiệm trực tuyến có hại".
“Những người tham gia vị thành niên được tuyển dụng thông qua các nhóm thanh thiếu niên hiện có hoặc trực tiếp thông qua người chăm sóc tại thời điểm khảo sát này”, một báo cáo về kết quả khảo sát có tiêu đề “Quan điểm của thanh thiếu niên về an toàn trực tuyến, 2023 ”, cho biết. “Cần có sự đồng ý của người chăm sóc để trẻ vị thành niên tham gia các nhóm thanh thiếu niên, cũng như đối với những trẻ vị thành niên được tuyển dụng trực tiếp cho cuộc khảo sát.”
Một vài lưu ý quan trọng ở đây trước khi chúng ta tiến hành: Bản thân Thorn không có thành tích hoàn hảo khi nói đến tình dục và công nghệ. Tổ chức đãbị chỉ trích bởi các chuyên gia về quyền riêng tư để cung cấp cho cảnh sát một công cụ thu thập quảng cáo của gái mại dâm vào cơ sở dữ liệu, và người sáng lập Thorn Ashton Kutcherđã từ chức vào năm ngoái sau khi ủng hộ kẻ hiếp dâm bị kết án và cựuChương trình của thập niên 70 bạn diễn Danny Masterson. Tôi cũng đã viếtmột mảnh vào tháng tư lưu ý rằng Thorn đã hợp tác với Google, Meta, Microsoft, Civitai và các công ty công nghệ lớn khác để công khai cam kết “an toàn theo thiết kế ”các nguyên tắc để “bảo vệ chống lại việc tạo ra và phát tán tài liệu lạm dụng tình dục trẻ em do AI tạo ra (AIG-CSAM)”, trong khi tất cả các công ty đó vẫn đang tích cực cho phép loại hình ảnh có hại do AI tạo ra đó.
Ngoài ra, giống như nhiều tổ chức “chống buôn người”, và như ngôn ngữ của bản báo cáo nêu rõ, Thorn có quan điểm gây hoang mang về cách trẻ vị thành niên nhắn tin khiêu dâm, gửi ảnh khỏa thân hoặc sử dụng internet theo cách khác như những con người có nhận thức và hoạt động tình dục. Ví dụ, khảo sát của Thorn phát hiện ra rằng cứ bảy “trẻ vị thành niên thì có một người chia sẻ SG-CSAM của riêng mình”, ám chỉ “tài liệu lạm dụng tình dục trẻ em do chính mình tạo ra”. Mặc dù về mặt kỹ thuật, những hình ảnh này là bất hợp pháp và vi phạm chính sách của tất cả các nền tảng internet lớn, nhưng thuật ngữ nghe có vẻ đáng sợ này cũng bao gồm các trường hợp, ví dụ, một người 17 tuổi tự nguyện gửi ảnh khỏa thân cho bạn tình của mình.
Bỏ qua những cảnh báo, phương pháp luận mà Thorn nêu trong cuộc khảo sát này có vẻ chắc chắn và cung cấp cho chúng ta ý tưởng sơ bộ về mức độ phổ biến mà các công cụ AI được sử dụng trong số trẻ vị thành niên để tạo ra hình ảnh khỏa thân không được sự đồng ý của bạn bè mình: một trong 10 người cho biết bạn bè hoặc bạn cùng lớp của họ đã sử dụng các công cụ AI cho mục đích này và 1 trong 10 người khác cho biết họ "thà không nói".
Báo cáo cho biết: “Mặc dù động cơ đằng sau những sự kiện này có nhiều khả năng là do hành vi của thanh thiếu niên hơn là ý định xâm hại tình dục, nhưng tác hại gây ra cho nạn nhân là có thật và không nên coi nhẹ trong nỗ lực trốn tránh trách nhiệm”.
Để có ý tưởng về sự hỗn loạn mà những loại hình ảnh này có thể gây ra cho cộng đồng, hãy đọc bài viết của chúng tôi từ tháng 2về một vụ án ở trường trung học Washington State nơi một số học sinh đã bị cảnh sát điều tra vì sử dụng “ứng dụng cởi đồ” với giáo viên và bạn học của mình. Việc sử dụng các ứng dụng này đã lan rộng đếncác trường khác trên khắp cả nước, và vào tháng 3 đã dẫn đếnbắt giữ của hai học sinh trung học ở Florida.
“Cần có những nỗ lực đáng kể trong ngành công nghệ để giải quyết những rủi ro do công nghệ AI tạo ra đối với trẻ em gây ra”, báo cáo cho biết. “Tuy nhiên, công việc đó không phải là người gác cổng để giải quyết các hành vi xung quanh những tác hại này. Mặc dù công nghệ có thể mới, nhưng bắt nạt, quấy rối và lạm dụng dựa trên bạn bè thì không. Điều quan trọng là chúng ta phải chủ động và trực tiếp nói về những tác hại do 'ảnh khoả thân deepfake' gây ra và củng cố sự hiểu biết rõ ràng về hành vi nào là không thể chấp nhận được trong cộng đồng và trường học của chúng ta, bất kể công nghệ nào đang được sử dụng”.