OpenAI bị Ý phạt hơn 15 triệu đô la
Cơ quan Bảo vệ Dữ liệu của Ý, còn được gọi là Garante, đã phạt OpenAI 15 triệu euro (15,7 triệu đô la) và yêu cầu công ty này triển khai chiến dịch nâng cao nhận thức của công chúng trong sáu tháng.
Chỉ thị này tuân theo một cuộc điều tra chuyên sâu về cách OpenAI thu thập và xử lý dữ liệu người dùng cho mục đích của mìnhMô hình AI hàng đầu, ChatGPT.
Trong tuyên bố đưa ra ngày 20 tháng 12, Garante đã nêu ra một số hành vi vi phạm được phát hiện trong quá trình điều tra.
Báo cáo phát hiện OpenAI đã không thông báo cho cơ quan quản lý về vụ vi phạm dữ liệu nghiêm trọng xảy ra vào tháng 3 năm 2023, trong đó thông tin thanh toán và cuộc trò chuyện của người dùng đã bị lộ.
Ngoài ra, cuộc điều tra đã tiết lộ rằngOpenAI xử lý dữ liệu cá nhân của người dùng để đào tạo ChatGPT mà không thiết lập cơ sở pháp lý đầy đủ để thực hiện việc đó.
Theo cơ quan giám sát, sự thiếu sót này đã vi phạm các nguyên tắc minh bạch và vi phạm nghĩa vụ thông báo cho người dùng về cách dữ liệu của họ được thu thập và sử dụng.
#Bảo_bảo_vệ_riêng_riêng#trí tuệ nhân tạo Biện pháp khắc phục, xử phạt đối với #OpenAI liên quan đến việc quản lý dịch vụ #Trò chuyệnGPT : công ty sẽ phải thực hiện chiến dịch thông tin kéo dài 6 tháng và nộp phạt 15 triệu euro https://t.co/mhUb3Wlxlapic.twitter.com/nIAVgcSjUO
- Đảm bảo quyền riêng tư (@GPDP_IT) Ngày 20 tháng 12 năm 2024
Một
Chiến dịch nâng cao nhận thức về mức phạt và bắt buộc này là một phần trong nỗ lực rộng lớn hơn của Garante nhằm đảm bảo tuân thủ các quy định nghiêm ngặt về bảo vệ dữ liệu của Châu Âu.
Cơ quan này nhấn mạnh rằng chiến dịch kéo dài sáu tháng phải được thiết kế để giáo dục công chúng vềTrò chuyệnGPT Thực hành dữ liệu, bao gồm cách thu thập, lưu trữ và sử dụng thông tin người dùng trong đào tạo AI.
OpenAI đã được hướng dẫn cụ thể để truyền đạt rõ ràng các hoạt động dữ liệu của mình và triển khai các biện pháp bảo vệ nhằm bảo vệ quyền riêng tư của người dùng tốt hơn trong tương lai.
OpenAI sẽ tiến hành chiến dịch nâng cao nhận thức
Cơ quan Bảo vệ Dữ liệu của Ý (IDPA) đã kết thúc cuộc điều tra của mình vềOpenAI , cho thấy các biện pháp xác minh độ tuổi không đầy đủ để ngăn chặn người dùng chưa đủ tuổi truy cập vào các dịch vụ của mình.
IDPA lưu ý:
“Hơn nữa, OpenAI không cung cấp cơ chế xác minh độ tuổi, do đó có nguy cơ khiến trẻ vị thành niên dưới 13 tuổi phải đối mặt với những phản hồi không phù hợp với trình độ phát triển và nhận thức của chúng.”
Để khắc phục, OpenAI đã được giao nhiệm vụ triển khai một chiến dịch nâng cao nhận thức cộng đồng kéo dài sáu tháng trên các kênh phát thanh, truyền hình, báo chí và nền tảng trực tuyến.
Chiến dịch này nhằm mục đích giáo dục công chúng về cáchTrò chuyệnGPT hoạt động, cũng như thông báo cho người dùng về các quyền của họ theo Quy định bảo vệ dữ liệu chung (GDPR) của Liên minh châu Âu, bao gồm cách phản đối việc sử dụng dữ liệu của họ cho mục đích đào tạo AI.
IDPA cho biết:
“Đặc biệt là về việc thu thập dữ liệu từ người dùng và người không sử dụng để đào tạo trí tuệ nhân tạo tạo ra và các quyền mà các bên quan tâm có thể thực hiện, bao gồm cả quyền phản đối, chỉnh sửa và hủy bỏ.”
Theo GDPR, các công ty có thể phải đối mặt với mức phạt lên tới 20 triệu euro hoặc 4% doanh thu toàn cầu nếu không tuân thủ.
IDPA đã thừa nhận "thái độ hợp tác" của OpenAI trong quá trình điều tra, dẫn đến việc giảm tiền phạt.
Trong quá trình điều tra,OpenAI đã chuyển trụ sở chính tại Châu Âu sang Ireland, chuyển giao quyền giám sát cho Cơ quan Bảo vệ Dữ liệu Ireland (DPC) với tư cách là cơ quan giám sát chính cho các cuộc điều tra đang diễn ra.