Có vẻ nhưQuân đội Israel đã sử dụng hệ thống trí tuệ nhân tạo (AI) có tên Lavender để nhắm mục tiêu vào nhiều thực thể Hamas.
Một báo cáo từ The Guardian trích dẫn các nguồn tình báo Israel tiết lộ việc sử dụng cơ sở dữ liệu hỗ trợ AI chưa được tiết lộ trước đây trong chiến dịch ném bom của quân đội ở Gaza.
Bị cáo buộc, cơ sở dữ liệu này đã xác định được khoảng 37.000 mục tiêu tiềm năng có liên quan đến Hamas.
Ngoài ra, các nguồn tin cho rằng chính quyền quân sự Israel đã để xảy ra một số lượng đáng kể thương vong cho dân thường Palestine, đặc biệt là trong giai đoạn đầu của cuộc xung đột.
Sự tiết lộ này nhấn mạnhCách sử dụng của Israel học máy để xác định và thu hút các mục tiêu trong cuộc xung đột, đặt ra các câu hỏi về pháp lý và đạo đức.
Mối quan tâm toàn cầu về an toàn AI
Mặc dù các công cụ AI mang lại lợi ích là đạt được kết quả nhanh chóng nhưng vẫn nảy sinh những lo ngại về khả năng sử dụng sai mục đích và những tác động rộng hơn đối với an ninh và an toàn con người.
Một sĩ quan tình báo thừa nhận việc sử dụng Lavender giúp họ tiết kiệm thời gian.
Nghiên cứu gần đây đã nêu bật những rủi ro cố hữu liên quan đến nhiều mô hình AI, đặt ra những thách thức trong việc đảm bảo triển khai an toàn và có trách nhiệm.