Hành động bẻ khóa robot AI để thực hiện hành động không hạn chế của các nhà nghiên cứu có hợp lý hay rủi ro?
Các nhà nghiên cứu của Penn Engineering đã phát hiện ra những lỗ hổng đáng kể trong robot hỗ trợ AI thông qua việc bẻ khóa, phát triển một thuật toán bỏ qua các giao thức an toàn tiêu chuẩn nhằm ngăn chặn các hành động có hại. Điều này đặt ra một câu hỏi quan trọng: Liệu hành động của họ có thể biện minh được hay chúng có gây ra rủi ro về an toàn không?
Catherine