Thay đổi tia lửa giải quyết
Rite Aid đã đạt được thỏa thuận với Ủy ban Thương mại Liên bang (FTC), dẫn đến việc ngừng công nghệ nhận dạng khuôn mặt AI của họ. Công nghệ này, được sử dụng từ năm 2012 để ngăn chặn trộm cắp trong cửa hàng, đã vấp phải sự chỉ trích vì phân biệt chủng tộc. Nó được cho là nhắm mục tiêu đến người mua sắm da đen, người Latinh và người châu Á nhiều hơn người da trắng.
Xu hướng trong AI: Nghiên cứu điển hình về phân biệt chủng tộc trong ngành bán lẻ
Các cáo buộc chống lại hệ thống của Rite Aid bao gồm việc phân biệt chủng tộc, đặc biệt là đối với khách hàng da màu. Những khách hàng này thường bị gắn cờ vì hành vi trộm cắp tiềm ẩn, một hành vi có liên quan đến các vấn đề phân biệt chủng tộc trong bán lẻ rộng hơn. Sự phân biệt đối xử như vậy đã được thể hiện trong lịch sử trong các hoạt động bán lẻ khác nhau, nhắm mục tiêu không công bằng vào những người mua sắm Da đen.
Kỷ lục rắc rối của công nghệ
Việc sử dụng AI trong các cơ sở bán lẻ như Rite Aid đã cho thấy một xu hướng đáng lo ngại: sự tồn tại của thành kiến chủng tộc. Theo Rashawn Ray của Viện Brookings, những thành kiến này phản ánh những khuôn mẫu xã hội. AI, khi được thiết kế trong môi trường không đa dạng, có thể mã hóa và khuếch đại những thành kiến này.
Các biện pháp sai lầm và tác động của chúng
Hệ thống AI của Rite Aid không chỉ góp phần lập hồ sơ chủng tộc mà còn có ý nghĩa về mặt tài chính. Những người mua sắm bị nhắm mục tiêu sai, chủ yếu là từ các nhóm thiểu số, đã phải đối mặt với sự sỉ nhục trước công chúng, từ đó ảnh hưởng đến doanh thu của cửa hàng. Ở một số khu vực, những người mua sắm này không có lựa chọn bán lẻ nào khác, buộc họ phải chịu đựng môi trường phân biệt đối xử này.
Ngoài bán lẻ: Mối quan tâm rộng hơn về AI
Các vấn đề với AI thiên vị không chỉ giới hạn ở lĩnh vực bán lẻ. Đã có những trường hợp trong các lĩnh vực khác, chẳng hạn như cảnh sát, trong đó sự thiếu chính xác của AI đã dẫn đến các vụ bắt giữ sai trái. Dữ liệu từ Trung tâm nghiên cứu Pew cho thấy sự thiếu tin tưởng đáng kể vào AI trong cộng đồng người da đen, đặc biệt liên quan đến việc sử dụng nó trong việc thực thi pháp luật.
Kêu gọi trách nhiệm và thử nghiệm
Để giải quyết những lo ngại này, một số thượng nghị sĩ Hoa Kỳ đã thách thức việc sử dụng nhận dạng khuôn mặt tại các sân bay, với lý do tỷ lệ lỗi cao hơn đối với người da màu. Là một phần của thỏa thuận với FTC, Rite Aid sẽ ngừng giám sát AI trong 5 năm. Các chuyên gia ủng hộ các nhà bán lẻ khác tiến hành thử nghiệm kỹ lưỡng để xác định và sửa chữa những thành kiến trong công nghệ AI.
Việc ngừng sử dụng công nghệ nhận dạng khuôn mặt AI của Rite Aid đặt ra những câu hỏi thiết yếu về việc sử dụng AI một cách có đạo đức trong lĩnh vực bán lẻ và hơn thế nữa. Mặc dù đánh dấu một bước tiến tới giải quyết các thành kiến về chủng tộc trong công nghệ, nhưng nó cũng nêu bật những thách thức đang diễn ra trong việc đảm bảo hệ thống AI hoạt động công bằng và dành cho tất cả mọi người.