Tác giả: Cao Jianfeng, nhà nghiên cứu cấp cao tại Viện nghiên cứu Tencent
Trách nhiệm đối với các tai nạn trí tuệ nhân tạo là vấn đề cốt lõi trong Kỷ nguyên AI
Sau “thập kỷ vàng” của deep learning, kỷ nguyên AI đã đến. Các hệ thống AI đã trở thành một trong những đối tượng công nghệ quan trọng và quan trọng nhất trong thế kỷ 21. , liên tục tạo ra nhiều sản phẩm, dịch vụ và ứng dụng thông minh mới, như Robotaxi, ứng dụng đồng hành AI, robot hình người, v.v. Hơn nữa, dưới sự hướng dẫn của quy luật mở rộng, công nghệ AI được đại diện bởi các mô hình lớn vẫn đang tăng tốc phát triển, thậm chí gây ra sự khác biệt trong các khái niệm phát triển về "chủ nghĩa tăng tốc AI so với liên kết giá trị AI". Các chuyên gia, học giả nổi tiếng trong lĩnh vực AI đã dự đoán thời điểm xuất hiện của AGI và hình dung ra những thay đổi, tác động trong 10 năm tới. Mọi người có thể không thể dự đoán đầy đủ những thay đổi và tác động mà cuộc cách mạng AI này sẽ mang lại, nhưng ít nhất chúng ta không nên đánh giá thấp tác động lâu dài của công nghệ AI.
Hiện nay, sự phát triển và ứng dụng công nghệ AI không chỉ khiến các sản phẩm ngày càng có trí tuệ độc lập mà còn đẩy nhanh quá trình chuyển đổi của con người từ kỷ nguyên Internet sang sử dụng thuật toán, robot và tác nhân AI (tác nhân AI) Một xã hội AI hay xã hội thuật toán (xã hội thuật toán) , thuật toán do đó đã trở thành . yếu tố kỹ thuật cốt lõi hỗ trợ phát triển mạng, số hóa và trí tuệ. Điều này có thể dẫn đến những cải thiện đáng kể về độ an toàn và hiệu quả, nhưng không có gì đảm bảo rằng tất cả các tai nạn và rủi ro sẽ được loại bỏ. Không có công nghệ nào an toàn tuyệt đối. Trong khi công nghệ làm giảm và loại bỏ rủi ro ở một số khía cạnh, nó có thể tạo ra những rủi ro mới ở những khía cạnh khác. Trong những năm gần đây, các vụ tai nạn AI gây tổn hại đến quyền và lợi ích của người khác đã gia tăng nhanh chóng, từ tai nạn an toàn của ô tô tự lái và robot hữu hình đến việc chẩn đoán sai phần mềm chẩn đoán và điều trị AI cho đến phân biệt đối xử theo thuật toán và ra quyết định không công bằng trong nhiều lĩnh vực tự động hóa khác nhau. Có thể nói, Tai nạn AI và vi phạm AI đang ngày càng trở thành “bình thường mới” trong xã hội AI. Theo giám sát các vụ tai nạn AI trên toàn thế giới của OCED, các vụ tai nạn AI toàn cầu đã tăng nhanh kể từ tháng 1 năm 2014 và tổng số vụ đã lên tới 7.195 tính đến tháng 12 năm 2023. Ví dụ, kể từ tháng 10 năm 2024, nền tảng chatbot AI Character AI đã phải đối mặt với những tranh cãi như gây ra vụ tự sát của thanh thiếu niên Mỹ và đã trở thành bị đơn trong ít nhất hai vụ kiện. Nguyên đơn cho rằng Character AI có lỗi trong thiết kế và là một kẻ xấu. sản phẩm bị lỗi, yêu cầu người phát triển nó phải chịu trách nhiệm pháp lý về sản phẩm.
Ngày nay, khi ứng dụng trí tuệ nhân tạo ở khắp mọi nơi, con người phải đối mặt với các vấn đề trách nhiệm pháp lý về tai nạn AI và vi phạm AI. Khi hệ thống AI gây ra tai nạn và thiệt hại, luật pháp phải đưa ra biện pháp cứu trợ công bằng và hiệu quả cho các nạn nhân. Nhưng câu hỏi đặt ra là ai phải chịu trách nhiệm về các tai nạn và vi phạm AI? Các hệ thống AI có tính tự chủ cao có thể hành động hoặc đưa ra quyết định một cách độc lập mà không cần sự kiểm soát, can thiệp hoặc giám sát trực tiếp của con người. Điều này có nghĩa là trong bối cảnh trí tuệ nhân tạo, khi các hành vi và quyết định liên quan chuyển từ con người sang hệ thống thông minh, tai nạn và thiệt hại cũng bắt đầu chuyển từ do con người và hành vi của con người gây ra sang do hệ thống AI và hành vi của họ gây ra. Sự thay đổi này đặt ra những thách thức đối với việc phân bổ và đảm nhận trách nhiệm pháp lý. Thách thức liên quan không chỉ nằm ở khó khăn trong việc xác định bên chịu trách nhiệm mà còn ở những khó khăn do tính tự chủ, không thể giải thích, không thể đoán trước và các đặc điểm khác của hệ thống AI để chứng minh lỗi/khiếm khuyết, nguyên nhân và các thành phần trách nhiệm pháp lý khác, và thậm chí còn gặp khó khăn hơn trong việc vi phạm AI. Khó khăn trong cách nhận trách nhiệm (ví dụ: cách thực hiện các biện pháp trừng phạt như cấm hành vi và ngừng hoạt động đối với hệ thống AI).
Ba lựa chọn mới về trách nhiệm pháp lý do vi phạm do AI có thực sự khả thi không?
Để đạt được mục tiêu này, một số người đã đề xuất thiết lập một hệ thống trách nhiệm pháp lý mới đối với hành vi vi phạm AI, hệ thống này gần như bao gồm ba lựa chọn.
Đầu tiên là kế hoạch nhân cách. Nói một cách đơn giản, nó mang lại trạng thái chủ thể pháp lý cho hệ thống AI, để hệ thống AI có thể trực tiếp chịu trách nhiệm pháp lý cho chính mình hành động. Đó là một ý tưởng rất hấp dẫn khi coi các hệ thống AI tự trị và phức tạp là chủ thể pháp lý độc lập, từ đó chuyển trách nhiệm pháp lý từ con người sang trí tuệ nhân tạo. Các nhà lập pháp EU đã đề xuất tạo ra một địa vị pháp lý đặc biệt cho "người máy" đối với robot tự hành, nhưng cuối cùng đã bác bỏ ý tưởng này. Một số học giả đã đề xuất rằng hệ thống AI có thể được cấp tư cách pháp nhân tương tự như công ty trách nhiệm hữu hạn (LLC) để giải quyết vấn đề trách nhiệm pháp lý. Mọi người tưởng tượng rằng giống như các mô hình lớn có thể biến "công ty 1 người" thành hiện thực, sự phát triển trí tuệ nhân tạo trong tương lai cũng có thể biến "công ty 0 người" thành hiện thực, tức là các hệ thống AI có khả năng hoạt động tự chủ< /strong>< strong>(agent AI)có thể điều hành một công ty một cách độc lập mà không cần bất kỳ nhân viên con người nào.
Thứ hai là các kế hoạch trách nhiệm pháp lý mới như trách nhiệm pháp lý gián tiếp và trách nhiệm pháp lý không có lỗi có rủi ro cao, theo một lý thuyết, đặc biệt là trong bối cảnh trí tuệ nhân tạo thay thế , nếu doanh nghiệp sử dụng hệ thống AI để thay thế nhân viên con người thì doanh nghiệp đó phải chịu trách nhiệm gián tiếp đối với hành động của những người được gọi là "nhân viên AI" vì điều này phù hợp với nguyên tắc tương đương về chức năng. Khi khả năng của các mô hình lớn tiếp tục tăng lên, chúng ta có thể hình dung ra một tương lai trong đó mọi người không chỉ có trợ lý AI cá nhân có thể thực sự hành động thay mặt họ mà còn có thể làm việc và cộng tác với những người được gọi là “đồng nghiệp AI”. Do đó, có vẻ hợp lý khi buộc các nhà khai thác phải chịu trách nhiệm gián tiếp về hành động của “nhân viên AI”. Một ý tưởng khác là dựa trên lộ trình giám sát AI dựa trên rủi ro, cho phép nhà cung cấp, chủ sở hữu, người dùng và các thực thể khác không phải chịu trách nhiệm pháp lý do lỗi đối với thiệt hại do hệ thống AI có rủi ro cao gây ra. Ví dụ, ý tưởng cốt lõi của Đạo luật trí tuệ nhân tạo của EU là tập trung vào việc giám sát an toàn các hệ thống AI có rủi ro cao dựa trên việc phân loại rủi ro AI và cấm các hệ thống AI có rủi ro không thể chấp nhận được.
Thứ ba là giải pháp bảo hiểm Đối với những thiệt hại do hệ thống AI hoàn toàn tự chủ gây ra, bạn có thể xem xét thay thế hoàn toàn các cơ chế bồi thường không có lỗi dựa trên bảo hiểm hiện có như bảo hiểm xã hội. và quỹ bồi thường. Một hệ thống trách nhiệm bồi thường thiệt hại ngoài hợp đồng, bởi vì việc bỏ qua luật bồi thường thiệt hại ngoài hợp đồng sẽ tránh được nhiều khó khăn gặp phải khi áp dụng các quy định trách nhiệm pháp lý hiện có đối với trí tuệ nhân tạo. Trước đây, không có gì lạ khi các cơ chế bồi thường không có lỗi có thể thay thế hoàn toàn các thiệt hại do vi phạm bản quyền trong lĩnh vực thương tích lao động, tai nạn giao thông, thương tích y tế, thiệt hại do vắc xin, v.v.
Việc thiết lập hệ thống trách nhiệm pháp lý sai lầm do AI Cần phải loại bỏ một số hiểu lầm
Tuy nhiên, những điều mới này các vấn đề liên quan đến trách nhiệm pháp lý do tra tấn AI Kế hoạch này quá triệt để và khó đảm bảo sự cân bằng giữa an ninh và tự do. Nó không những không phù hợp với thực tế xã hội mà chúng ta vẫn đang trong giai đoạn đầu phát triển của cuộc cách mạng AI và thời đại. của trí tuệ nhân tạo yếu kém mà còn dựa trên một số hiểu lầm đáng trách cần tránh.
Lầm tưởng 1: Đổ lỗi cho chính trí tuệ nhân tạo.
Quy trách nhiệm cho chính hệ thống AI có nghĩa là coi hệ thống AI như một chủ thể pháp lý. Tuy nhiên, ở giai đoạn này, tư cách pháp nhân của trí tuệ nhân tạo là không cần thiết về mặt đạo đức và có thể gây rắc rối về mặt pháp lý. Hầu hết các lập luận ủng hộ tính cách pháp lý của AI đều quá đơn giản và quá phức tạp vì AI tồn tại trong một phạm vi có giới hạn mơ hồ và hiện tại không có phạm trù ý nghĩa nào có thể được công nhận là một chủ thể pháp lý quá phức tạp. là những biến thể của “ngụy biện robot” (chẳng hạn như tin rằng robot sẽ giống con người) và dựa trên những giả định suy đoán về sự phát triển trong tương lai của trí tuệ nhân tạo. Hiện tại, việc cấp tư cách pháp nhân cho các hệ thống AI không phải là “thuốc chữa bách bệnh” để giải quyết trách nhiệm “hành vi” của chúng mà thay vào đó, nó có thể mở ra một “chiếc hộp Pandora” và gây ra hàng loạt vấn đề pháp lý và đạo đức mới, đặc biệt là tư cách pháp nhân AI. sẽ dễ dẫn đến việc Lạm dụng trở thành cơ chế trốn tránh, chuyển dịch trách nhiệm, nghĩa vụ pháp lý. Nói cách khác, tư cách pháp nhân của AI có thể là một loại “lỗ đen pháp lý”, một thực thể hút đi trách nhiệm pháp lý của các tác nhân con người mà không có bất kỳ dấu vết nào về trách nhiệm giải trình. Tóm lại, trí tuệ nhân tạo với tư cách là một hoạt động của con người dù phức tạp, thông minh hay tiên tiến đến đâu cũng chỉ là một công cụ phục vụ con người và đạt được mục đích của con người, thể hiện đầy đủ nhu cầu phục vụ như một đối tượng hợp pháp và thúc đẩy hạnh phúc của con người. Về cơ bản, chúng ta cần phát triển AI công cụ (AI công cụ) chứ không phải cái gọi là AI chủ quan hoàn toàn gần gũi với con người.
Lầm tưởng 2: Kết nối khái niệm phân loại rủi ro AI trong luật công với các quy định về trách nhiệm pháp lý do sai lầm do AI.
Một trong những ý tưởng chính về quy định về trí tuệ nhân tạo toàn cầu là áp dụng "quy định dựa trên rủi ro" và áp dụng biện pháp giám sát khác biệt đối với các hệ thống AI có mức độ rủi ro khác nhau. Đạo luật Trí tuệ nhân tạo của EU là đại diện điển hình cho ý tưởng này. Theo mức độ rủi ro, hệ thống AI được chia thành bốn loại: AI có rủi ro không thể chấp nhận được, AI có rủi ro cao, AI có rủi ro hạn chế và AI có rủi ro tối thiểu và tập trung vào AI có rủi ro cao. AI. Yêu cầu và nghĩa vụ của các nhà khai thác có liên quan (nhà cung cấp, nhà triển khai, v.v.). Trong số đó, tiêu chí để đánh giá AI có rủi ro cao là hệ thống AI có nguy cơ gây tổn hại đáng kể đến sức khỏe, sự an toàn và các quyền cơ bản của thể nhân. Theo cách tiếp cận theo quy định này, mọi người có xu hướng liên kết mức độ rủi ro của hệ thống AI với các nguyên tắc trách nhiệm pháp lý, chẳng hạn như liên kết AI có rủi ro cao với trách nhiệm pháp lý không có lỗi, đồng thời liên kết AI có rủi ro thấp hoặc AI có rủi ro không cao với trách nhiệm pháp lý hoặc lỗi có lỗi. trách nhiệm pháp lý được coi là có liên quan. “Dự thảo Quy định về trách nhiệm đối với hoạt động trí tuệ nhân tạo” do các nhà lập pháp EU đề xuất trước đây là một đại diện điển hình cho ý tưởng quy kết này. Tuy nhiên, việc kết nối và kết hợp thống nhất cách phân loại AI dựa trên rủi ro với các quy định trách nhiệm pháp lý khác nhau trong khuôn khổ pháp luật công là không hợp lý. Trên thực tế, đó là một sai lầm. Lý do chính là AI có nguy cơ cao không thể được đánh đồng một cách đơn giản với các đối tượng hoặc hoạt động nguy hiểm bất thường được nhắm đến bởi các lý thuyết trách nhiệm không có lỗi truyền thống;Ngược lại, việc đưa trí tuệ nhân tạo vào sử dụng có thể thay đổi nhận thức của mọi người về các khu vực nguy hiểm. biết rằng cái gọi là AI có nguy cơ cao thực sự có thể an toàn hơn các vật thể hoặc hoạt động tương tự do con người kiểm soát và vận hành. Nói cách khác, cái gọi là AI có rủi ro cao thực sự được thiết kế để giảm thiểu rủi ro, tăng cường độ an toàn và thực sự an toàn hơn các hoạt động của con người mà nó thay thế.
Lầm tưởng 3: Đánh giá cẩu thả “hành vi” của hệ thống AI.
Khi hệ thống AI gây ra tai nạn hoặc gây thiệt hại, việc đánh giá “hành vi” hoặc hiệu suất của hệ thống AI như thế nào là vấn đề then chốt. Một số người đã đề xuất áp dụng nguyên tắc sơ suất cho chính hệ thống AI. Cụ thể, bằng cách tương tự với tiêu chuẩn “người có lý trí” dùng để đánh giá xem một tác nhân con người có cẩu thả hay không, tiêu chuẩn “robot có lý trí” có thể được sử dụng để đánh giá xem hệ thống AI có cái gọi là "sơ suất" hay không, nhằm hạn chế trách nhiệm pháp lý của các đơn vị liên quan đối với hệ thống AI. Ví dụ, trong vụ kiện trước ở Hoa Kỳ, trong vụ Nilsson kiện Gen. Motors LLC, nguyên đơn đã kiện công ty xe tự lái Cruise của Mỹ, nhưng không nộp đơn yêu cầu trách nhiệm pháp lý sản phẩm mà chọn lý thuyết dựa trên lý thuyết. về sơ suất: Chủ xe máy khẳng định xe số tự động của Cruise đã bị điều khiển cẩu thả, lấn sang làn đường liền kề và tông ngã anh này mà không quan tâm đến các phương tiện đi qua. Đây có thể là lần đầu tiên trong lịch sử, một robot chính thức bị buộc tội vì vận hành cẩu thả - một cáo buộc tra tấn từng được dành riêng cho các tác nhân con người. Tuy nhiên, ý tưởng quy kết này nên bị bác bỏ bất cứ lúc nào. Ngay cả khi việc xác định sơ suất trong luật tra tấn hiện đại có xu hướng khách quan, khái niệm sơ suất luôn hướng đến hành vi của các chủ thể con người và gắn liền với con người. tính chủ quan. Việc áp dụng tiêu chuẩn sơ suất vào “hành vi” hoặc hiệu suất của hệ thống AI là không thực tế. Có thể thấy trước rằng khi tính tự chủ của hệ thống AI tăng lên, trong nhiều vụ tai nạn AI trong tương lai, tòa án sẽ cần đánh giá người dùng(chẳng hạn như người lái xe) Hành vi đã thay đổi nhiều hơn đối với hành vi đánh giá hệ thống AI(chẳng hạn như hệ thống lái xe tự động) và “hành vi” hoặc hiệu suất của hệ thống AI phải được xem xét từ góc độ lỗi của sản phẩm hơn là từ góc độ lỗi của sản phẩm. Điều này đòi hỏi chúng ta phải cập nhật kịp thời hệ thống trách nhiệm sản phẩm đối với các sản phẩm truyền thống trong thời đại công nghiệp.
Lầm tưởng 4: Thay thế trách nhiệm giải trình cho các đơn vị triển khai và vận hành hệ thống AI dựa trên nguyên tắc tương đương về chức năng.
Nguyên tắc tương đương về chức năng cho rằng nếu việc sử dụng các công nghệ tự động như hệ thống AI có chức năng tương đương với việc thuê nhân sự phụ trợ của con người và gây hại thì người vận hành ( Trách nhiệm của người vận hành trong việc triển khai và việc sử dụng công nghệ này phải tương ứng với cơ chế trách nhiệm pháp lý gián tiếp hiện có của người ủy quyền (Hiệu trưởng) đối với người phụ trợ của mình (Human Auxiliary), tức là người vận hành hệ thống AI sẽ chịu trách nhiệm gián tiếp đối với những thiệt hại do AI gây ra hệ thống. Tuy nhiên, lối suy nghĩ này đang gây rắc rối. Việc tương tự về trách nhiệm dựa trên sự tương đương về chức năng thoạt nhìn có vẻ hợp lý, nhưng trên thực tế, nó không khả thi. Hơn nữa, lý thuyết tương đương chức năng chỉ tập trung một cách hời hợt vào tác động thay thế của công nghệ mà không thể hiểu rõ hơn về việc tạo ra và kiểm soát rủi ro thực sự đằng sau hiện tượng công nghệ này. Ví dụ, trong thời đại trước trí tuệ nhân tạo, các nhà máy đã sử dụng thiết bị tự động để thay thế công nhân. Nếu thiết bị tự động gặp trục trặc và gây hư hỏng, nạn nhân sẽ cân nhắc việc truy cứu trách nhiệm pháp lý đối với nhà sản xuất thiết bị tự động, thay vì để nhà máy chịu trách nhiệm pháp lý gián tiếp. cho thiết bị tự động. Mặc dù cấu hình rủi ro của hệ thống AI có thể khác nhau, nhưng chúng đơn giản là những công cụ tiên tiến hơn và thông minh hơn các thiết bị tự động hóa truyền thống, có nghĩa là người ta cần phải vượt qua sự tương đương về chức năng và kiểm tra xem đối tượng nào (thường là nhà cung cấp và người sử dụng công cụ) tạo ra hoặc kiểm soát rủi ro. Bởi vì cuối cùng mọi người chỉ muốn ai đó phải chịu trách nhiệm về những thiệt hại do hệ thống AI gây ra, thay vì bắt các hệ thống AI phải chịu trách nhiệm giống như cách các tác nhân con người phải chịu trách nhiệm.
Hệ thống trách nhiệm bồi thường thiệt hại ngoài hợp đồng trong kỷ nguyên AI Con đường phía trước ở đâu?
Mặc dù trí tuệ nhân tạo đặt ra những thách thức đối với việc áp dụng hiệu quả hệ thống trách nhiệm pháp lý vi phạm pháp luật hiện tại, nhưng điều đó không có nghĩa là chúng ta cần phải bắt đầu lại từ đầu và áp dụng sơ đồ trách nhiệm pháp lý mới. Ngược lại, ở giai đoạn này, bằng cách thực hiện những điều chỉnh cần thiết đối với các quy tắc trách nhiệm bồi thường thiệt hại ngoài hợp đồng hiện có như trách nhiệm pháp lý do lỗi và trách nhiệm pháp lý về sản phẩm, chúng tôi có thể điều chỉnh hệ thống trách nhiệm bồi thường thiệt hại ngoài hợp đồng cho phù hợp với nhu cầu phát triển của kỷ nguyên AI và đạt được sự cân bằng giữa an toàn và đổi mới .
Đầu tiên, hãy tuân thủ tư cách đối tượng pháp lý của trí tuệ nhân tạo và thực hiện trách nhiệm của con người trong các tai nạn AI và vi phạm AI. Bắt đầu từ thực tế kỹ thuật, cho dù hệ thống AI hiện tại có tiên tiến và thông minh đến đâu thì luôn cần có người phát triển và đưa nó vào sử dụng. Cụ thể, mặc dù chuỗi giá trị AI phức tạp nhưng chúng ta có thể phân biệt tương đối rõ ràng hai nhóm: phe nhà cung cấp và phe người dùng. Sự phân biệt này có ý nghĩa pháp lý vì trong mỗi nhóm (ví dụ: giữa nhà sản xuất và nhà cung cấp, chủ sở hữu và người sử dụng), trách nhiệm pháp lý có thể được giao tương đối dễ dàng cho một trong các thành viên của nhóm đó thông qua các công cụ hợp đồng hoặc được chia sẻ giữa một số thành viên. Ví dụ: Đạo luật Trí tuệ nhân tạo của EU phân biệt giữa nhà cung cấp AI và người dùng AI (nhà triển khai hệ thống AI) và tập trung vào việc áp đặt các nghĩa vụ và trách nhiệm liên quan đối với hai loại đối tượng này. Do đó, vì mục đích trách nhiệm pháp lý ngoài hợp đồng, việc thiết lập các tiêu chuẩn để nhận dạng và xác định nhà cung cấp AI và người sử dụng AI là cần thiết và quan trọng.
Thứ hai, đổi mới hệ thống trách nhiệm sản phẩm cho kỷ nguyên AI Mặc dù trong nhiều tình huống sử dụng cụ thể của ứng dụng trí tuệ nhân tạo, người dùng vẫn cần thực hiện một số nghĩa vụ cẩn thận nhất định (như sử dụng đúng mục đích, đảm bảo chất lượng dữ liệu, giám sát, bảo trì, v.v.), họ có thể kiểm soát việc sử dụng Tuy nhiên, về lâu dài, nghĩa vụ chăm sóc của người dùng sẽ giảm đi, đồng nghĩa với việc trách nhiệm của người dùng cũng có thể giảm bớt theo. Khi vai trò và quyền kiểm soát của chủ sở hữu và người dùng AI tiếp tục suy yếu, trách nhiệm pháp lý của nhà cung cấp AI có thể trở thành trọng tâm của luật trách nhiệm pháp lý ngoài hợp đồng trong tương lai. Là một loại sản phẩm "thông minh" mới, hệ thống AI kêu gọi những đổi mới cần thiết trong hệ thống trách nhiệm pháp lý đối với sản phẩm hiện có, bao gồm khái niệm sản phẩm, định nghĩa của nhà sản xuất, lỗi, thiệt hại được bồi thường, quan hệ nhân quả, nghĩa vụ chứng minh, v.v. Ví dụ, về mặt quy định về trí tuệ nhân tạo, các nhà lập pháp EU, trong khi xây dựng dự luật trí tuệ nhân tạo toàn diện đầu tiên trên thế giới, đã sửa đổi toàn diện Chỉ thị trách nhiệm pháp lý về sản phẩm của EU được đưa ra vào năm 1985, nhằm thiết lập một quy định mới cho hệ thống trách nhiệm pháp lý về sản phẩm và kỹ thuật số. . Đồng thời, các nhà lập pháp EU vẫn đang chuẩn bị "Chỉ thị trách nhiệm pháp lý AI" (AI Liability Directive), nhằm thiết lập các quy tắc rõ ràng hơn và dễ thực hiện hơn đối với trách nhiệm của người dùng AI.
Thứ ba, bảo hiểm nên được sử dụng như một cơ chế bổ sung hữu ích cho khuôn khổ trách nhiệm pháp lý AI, thay vì một cơ chế thay thế. Là một công cụ quản lý rủi ro, bảo hiểm đóng một vai trò quan trọng không thể bỏ qua trong việc thúc đẩy sự tích hợp an toàn của công nghệ mới vào xã hội, chẳng hạn như bằng cách cung cấp bảo đảm tài chính để kích thích đổi mới và đảm bảo triển khai an toàn các công nghệ mới. Với những điều chỉnh phù hợp và sự can thiệp của cơ quan quản lý, bảo hiểm có thể tiếp tục hỗ trợ đổi mới công nghệ và cung cấp sự bảo vệ cần thiết cho xã hội. Các hệ thống bảo hiểm hiện tại có thể được sử dụng để điều chỉnh các hệ thống AI, nhưng không cần phải phát triển chính sách bảo hiểm AI chuyên dụng hoặc toàn diện. Đồng thời, chúng ta nên thận trọng khi đưa ra các chính sách bảo hiểm bắt buộc đối với các ứng dụng trí tuệ nhân tạo, để không gây tác dụng ngược và cản trở việc quảng bá, phổ biến công nghệ AI có thể mang lại lợi ích kinh tế và xã hội đáng kể.
Thứ tư, ngoài hệ thống trách nhiệm pháp lý về vi phạm AI, chúng ta cần chú ý và tích cực ứng phó với các rủi ro bảo mật của AI tiên tiến. Về mặt quản trị trí tuệ nhân tạo, các quy tắc trách nhiệm pháp lý về hành vi vi phạm pháp luật AI là cần thiết, nhưng vai trò của chúng còn hạn chế. Mặc dù chúng có thể giải quyết một cách hiệu quả các rủi ro thiệt hại mà hệ thống AI có thể gây ra đối với quyền cá nhân và tài sản của con người nhưng chúng không phù hợp. đối với siêu trí thông minh, v.v. Rất khó để các quy tắc trách nhiệm pháp lý về hành vi sai trái của AI đóng một vai trò đáng kể trong những rủi ro cực độ hoặc rủi ro thảm khốc mà AI biên giới có thể mang lại. Dưới xu hướng phát triển ngày càng nhanh của AI, siêu trí tuệ (siêu trí tuệ) đang xuất hiện và những nguy cơ bảo mật tiềm ẩn của nó ngày càng nhận được sự quan tâm, chú ý tích cực từ các chính phủ, cộng đồng nghiên cứu và các ngành công nghiệp trên toàn thế giới. Các chuyên gia AI nước ngoài chỉ ra rằng về lâu dài, hầu hết mọi người đều đánh giá thấp mức độ nghiêm trọng của rủi ro bảo mật của siêu trí tuệ. Do đó, tích cực ủng hộ, phát triển và xây dựng AI mang lại sức khỏe tốt (AI sức khỏe) và sử dụng trí tuệ nhân tạo để tối đa hóa sức khỏe cá nhân, xã hội và môi trường, đồng thời Điều đặc biệt quan trọng là khái niệm liên kết giữa con người và máy móc, bao gồm cả liên kết giá trị AI, phải được tích hợp vào sự phát triển của siêu trí thông minh.
Nội dung bài viết chỉ dành cho thảo luận mang tính học thuật và không Đại diện cho quan điểm của nhà tuyển dụng
[1] Zheng Zhifeng: "Cập nhật pháp lý về trách nhiệm pháp lý đối với sản phẩm trí tuệ nhân tạo", được xuất bản trong "Khoa học pháp lý ( Tạp chí Đại học Khoa học Chính trị và Luật Tây Bắc)" 2024 Số 4 trong năm
[2] Cao Jianfeng: "Sự liên kết giữa con người và máy tính trong bối cảnh lớn models", được xuất bản trên "Tạp chí Khoa học Xã hội Trung Quốc"
https://www.cssn.cn/skgz/bwyc/202410/t20241029_5797216.shtml
[3] https://www.youtube.com/watch?v=559VdVIz5V4
[ 4] https://eur-lex.europa.eu/eli /dir/2024/2853/oj
[5] https://mp .weixin.qq.com/s/HKbVSvQzULG13BSLCfVpBQ
[6] https://darioamodei.com/machines-of-loving-grace
< p style="text-align: left;">[7] https: //ia.samaltman.com/
[8]https://www .washingtonpost.com/documents/028582a9-7e6d-4e60-8692-a061f4f4e745.pdf