Khiếu nại được đệ trình chống lại ChatGPT vì câu chuyện giết người sai sự thật
Theo một nhóm vận động bảo vệ quyền riêng tư, OpenAI hiện đang phải đối mặt với khiếu nại liên quan đến chatbot ChatGPT của mình, bị cáo buộc đã bịa ra một "câu chuyện kinh dị" bằng cách tuyên bố sai sự thật rằng một người đàn ông Na Uy đã giết con mình vào ngày 20 tháng 3.
Sự cố mới nhất này làm tăng thêm danh sách khiếu nại ngày càng tăng đối với công ty công nghệ Hoa Kỳ, với người dùng báo cáo rằngTrò chuyệnGPT đã phát tán thông tin sai lệch có thể gây tổn hại đến danh tiếng của cá nhân.
Công ty Noyb ("Không liên quan đến anh") có trụ sở tại Vienna cho biết trong một thông cáo báo chí:
"ChatGPT, chương trình trò chuyện trực tuyến rất phổ biến của OpenAI, thường xuyên cung cấp thông tin sai lệch về mọi người mà không đưa ra bất kỳ cách nào để sửa thông tin đó".
Nhóm này đã nêu bật một số trường hợp chatbot đã vu khống mọi người về những tội nghiêm trọng, bao gồm tham nhũng, lạm dụng trẻ em và thậm chí là giết người, như trường hợp của người dùng người Na Uy Arve Hjalmar Holmen.
Người đàn ông Na Uy đã giết con mình theo ChatGPT
Khi Holmen tìm cách xác định thông tin nàoTrò chuyệnGPT theo nhóm bảo vệ quyền riêng tư Noyb, anh ấy đã phải đối mặt với một câu chuyện bịa đặt và gây khó chịu.
Chatbot đã mô tả sai sự thật về anh ta như một tên tội phạm bị kết án, cáo buộc anh ta đã giết hai đứa con của mình và cố gắng giết đứa con trai thứ ba.
Noyb lưu ý:
"Tệ hơn nữa, câu chuyện giả mạo này lại bao gồm cả những yếu tố có thật trong cuộc sống cá nhân của ông."
Hjalmar Holmen được trích dẫn như sau:
"Một số người nghĩ rằng "không có lửa thì làm sao có khói". Việc có người đọc được thông tin này và tin rằng đó là sự thật là điều khiến tôi sợ nhất."
Người đàn ông Na Uy muốn xóa bỏ nội dung câu chuyện giết người giả mạo
Trong một khiếu nại gửi đến Cơ quan Bảo vệ Dữ liệu Na Uy (Datatilsynet), nhóm bảo mật Noyb đang kêu gọi OpenAI xóa nội dung phỉ báng doTrò chuyệnGPT và tinh chỉnh mô hình để ngăn ngừa những sai sót trong tương lai.
Luật sư bảo vệ dữ liệu của Noyb, Joakim Soederberg, nhấn mạnh rằng theo quy định bảo vệ dữ liệu của EU, dữ liệu cá nhân phải chính xác.
Ông phát biểu:
"Và nếu không phải vậy, người dùng có quyền yêu cầu thay đổi để phản ánh đúng sự thật", ông nói, đồng thời nói thêm rằng việc hiển thị cho người dùng ChatGPT một tuyên bố từ chối trách nhiệm "nhỏ" rằng chatbot có thể mắc lỗi "rõ ràng là chưa đủ".
Trong khi một bản cập nhật choTrò chuyệnGPT hiện ngăn không cho chatbot xác định Holmen là kẻ giết người, Noyb khẳng định rằng thông tin sai lệch vẫn được nhúng trong hệ thống.
Tình huống này nhấn mạnh những thách thức trong việc giải quyết thông tin sai lệch do AI tạo ra và nhấn mạnh nhu cầu về các biện pháp đảm bảo độ chính xác của dữ liệu.
Điều này tiếp nối một khiếu nại trước đó do Noyb đệ trình tại Áo, trong đó họ lập luận rằngTrò chuyệnGPT thường xuyên "gây ảo giác" cho những câu trả lời sai mà OpenAI vẫn chưa sửa.