Đạo luật trí tuệ nhân tạo của EU mới đây đã quy định Quy tắc phân loại cho các hệ thống AI có rủi ro cao ( Điều 6 của Đạo luật) 1. Bất kể hệ thống AI có được đưa ra thị trường hay đưa vào sử dụng độc lập với các sản phẩm được đề cập ở điểm (a) và (b), hệ thống AI đó sẽ được coi là có rủi ro cao khi cả hai điều kiện sau được đáp ứng: (a) hệ thống AI được dự định sử dụng như một thành phần an toàn của sản phẩm hoặc bản thân hệ thống AI là một sản phẩm, được điều chỉnh bởi luật điều chỉnh của Liên minh được liệt kê trong Phụ lục I ; (b) sản phẩm có thành phần an toàn theo điểm (a) là hệ thống AI hoặc bản thân hệ thống AI như một sản phẩm, được yêu cầu phải trải qua đánh giá sự phù hợp của bên thứ ba, nhằm mục đích đưa sản phẩm đó ra thị trường hoặc đưa vào sử dụng theo luật điều chỉnh của Liên minh được liệt kê trong Phụ lục I. 2. Ngoài các hệ thống AI có rủi ro cao được đề cập trong đoạn 1, các hệ thống AI được đề cập trong Phụ lục III sẽ được coi là có rủi ro cao 3. Bằng cách miễn trừ đoạn 2, một hệ thống AI được đề cập trong Phụ lục III sẽ không được coi là có rủi ro cao khi nó không gây ra rủi ro đáng kể gây hại cho sức khỏe, sự an toàn hoặc các quyền cơ bản của cá nhân, bao gồm cả việc không ảnh hưởng đáng kể đến kết quả của việc ra quyết định. Đoạn đầu tiên sẽ áp dụng khi bất kỳ điều kiện nào sau đây được đáp ứng: (a) hệ thống AI được thiết kế để thực hiện một nhiệm vụ thủ tục hẹp; (b) hệ thống AI có mục đích cải thiện kết quả của hoạt động đã hoàn thành trước đó của con người; (c) hệ thống AI được thiết kế để phát hiện các mô hình ra quyết định hoặc các sai lệch so với các mô hình ra quyết định trước đó và không nhằm mục đích thay thế hoặc ảnh hưởng đến đánh giá của con người đã hoàn thành trước đó mà không có sự xem xét thích hợp của con người; hoặc (d) hệ thống AI được thiết kế để thực hiện nhiệm vụ chuẩn bị cho đánh giá có liên quan đến mục đích của các trường hợp sử dụng được liệt kê trong Phụ lục III . Bất chấp đoạn đầu tiên, hệ thống AI được đề cập trong Phụ lục III sẽ luôn được coi là có rủi ro cao khi hệ thống AI thực hiện lập hồ sơ về cá nhân. 4. Nhà cung cấp nào cho rằng hệ thống AI được đề cập trong Phụ lục III không có rủi ro cao thì phải lập tài liệu đánh giá của mình trước khi hệ thống đó được đưa ra thị trường hoặc đưa vào sử dụng. Nhà cung cấp đó phải tuân thủ nghĩa vụ đăng ký được nêu trong Điều 49 (2). Theo yêu cầu của các cơ quan có thẩm quyền quốc gia, nhà cung cấp phải cung cấp tài liệu đánh giá. 5. Sau khi tham khảo ý kiến của Hội đồng Trí tuệ nhân tạo Châu Âu (sau đây gọi là ‘Hội đồng’), và chậm nhất là ngày 2 tháng 2 năm 2026, Ủy ban sẽ cung cấp các hướng dẫn chỉ rõ việc triển khai thực tế Điều này theo Điều 96 cùng với danh sách toàn diện các ví dụ thực tế về các trường hợp sử dụng hệ thống AI có rủi ro cao và không có rủi ro cao. 6. Ủy ban được trao quyền thông qua các hành vi được ủy quyền theo Điều 97 để sửa đổi đoạn 3, tiểu đoạn thứ hai, của Điều này bằng cách thêm các điều kiện mới vào các điều kiện được nêu trong đó hoặc bằng cách sửa đổi chúng, khi có bằng chứng cụ thể và đáng tin cậy về sự tồn tại của các hệ thống AI nằm trong phạm vi của Phụ lục III , nhưng không gây ra rủi ro đáng kể đối với sức khỏe, sự an toàn hoặc các quyền cơ bản của cá nhân. 7. Ủy ban sẽ thông qua các hành vi được ủy quyền theo Điều 97 để sửa đổi đoạn 3, tiểu đoạn thứ hai của Điều này bằng cách xóa bất kỳ điều kiện nào được nêu trong đó, khi có bằng chứng cụ thể và đáng tin cậy rằng điều này là cần thiết để duy trì mức độ bảo vệ sức khỏe, an toàn và các quyền cơ bản được quy định bởi Quy định này. 8. Bất kỳ sửa đổi nào đối với các điều kiện quy định tại khoản 3, tiểu khoản thứ hai, được thông qua theo các khoản 6 và 7 của Điều này sẽ không làm giảm mức độ bảo vệ chung về sức khỏe, an toàn và các quyền cơ bản được quy định bởi Quy định này và sẽ đảm bảo tính nhất quán với các hành vi được ủy quyền được thông qua theo Điều 7 (1) và tính đến các diễn biến của thị trường và công nghệ
1.Yêu cầu đối với hệ thống AI có rủi ro cao Điều 8 của Đạo Luật quy định việc Tuân thủ các yêu cầu: 1. Các hệ thống AI có rủi ro cao phải tuân thủ các yêu cầu được nêu trong Mục này, có tính đến mục đích sử dụng cũng như tình trạng công nghệ AI và công nghệ liên quan đến AI được công nhận chung. Hệ thống quản lý rủi ro được đề cập trong Điều 9 sẽ được tính đến khi đảm bảo tuân thủ các yêu cầu đó. 2. Trong trường hợp sản phẩm có hệ thống AI, mà các yêu cầu của Quy định này cũng như các yêu cầu của luật điều chỉnh của Liên minh được liệt kê trong Mục A của Phụ lục I áp dụng, các nhà cung cấp phải chịu trách nhiệm đảm bảo rằng sản phẩm của họ tuân thủ đầy đủ mọi yêu cầu áp dụng theo luật điều chỉnh của Liên minh hiện hành. Để đảm bảo các hệ thống AI có rủi ro cao được đề cập trong đoạn 1 tuân thủ các yêu cầu nêu trong Mục này và để đảm bảo tính nhất quán, tránh trùng lặp và giảm thiểu gánh nặng bổ sung, các nhà cung cấp phải có quyền lựa chọn tích hợp, khi thích hợp, các quy trình thử nghiệm và báo cáo cần thiết, thông tin và tài liệu mà họ cung cấp liên quan đến sản phẩm của mình vào tài liệu và quy trình đã tồn tại và được yêu cầu theo luật điều chỉnh của Liên minh được liệt kê trong Mục A của Phụ lục I. 2.Hệ thống quản lý rủi ro đối với hệ thống AI có rủi ro cao: 1. Hệ thống quản lý rủi ro phải được thiết lập, triển khai, ghi chép và duy trì liên quan đến các hệ thống AI có rủi ro cao. 2. Hệ thống quản lý rủi ro được hiểu là một quy trình lặp đi lặp lại liên tục được lập kế hoạch và chạy trong toàn bộ vòng đời của một hệ thống AI có rủi ro cao, đòi hỏi phải được xem xét và cập nhật có hệ thống thường xuyên. Nó sẽ bao gồm các bước sau: (a) việc xác định và phân tích các rủi ro đã biết và có thể lường trước một cách hợp lý mà hệ thống AI có rủi ro cao có thể gây ra cho sức khỏe, sự an toàn hoặc các quyền cơ bản khi hệ thống AI có rủi ro cao được sử dụng theo đúng mục đích đã định; (b) ước tính và đánh giá các rủi ro có thể phát sinh khi hệ thống AI có rủi ro cao được sử dụng theo đúng mục đích đã định và trong các điều kiện sử dụng sai mục đích có thể lường trước được một cách hợp lý; (c) việc đánh giá các rủi ro khác có thể phát sinh, dựa trên việc phân tích dữ liệu thu thập được từ hệ thống giám sát sau khi đưa ra thị trường được đề cập trong Điều 72 ; (d) việc áp dụng các biện pháp quản lý rủi ro phù hợp và có mục tiêu được thiết kế để giải quyết các rủi ro được xác định theo điểm (a). 3. Các rủi ro được đề cập trong Điều này chỉ liên quan đến những rủi ro có thể được giảm thiểu hoặc loại bỏ một cách hợp lý thông qua việc phát triển hoặc thiết kế hệ thống AI có rủi ro cao hoặc cung cấp thông tin kỹ thuật đầy đủ. 4. Các biện pháp quản lý rủi ro nêu tại khoản 2, điểm (d) phải xem xét đầy đủ các tác động và tương tác có thể xảy ra do việc áp dụng kết hợp các yêu cầu nêu trong Mục này, nhằm mục đích giảm thiểu rủi ro hiệu quả hơn trong khi vẫn đạt được sự cân bằng thích hợp trong việc thực hiện các biện pháp để đáp ứng các yêu cầu đó. 5. Các biện pháp quản lý rủi ro được đề cập trong đoạn 2, điểm (d), phải như vậy để rủi ro còn lại có liên quan liên quan đến từng mối nguy hiểm, cũng như rủi ro còn lại tổng thể của các hệ thống AI có rủi ro cao được đánh giá là có thể chấp nhận được. Khi xác định các biện pháp quản lý rủi ro phù hợp nhất, phải đảm bảo những điều sau: (a) loại bỏ hoặc giảm thiểu các rủi ro được xác định và đánh giá theo đoạn 2 trong phạm vi khả thi về mặt kỹ thuật thông qua thiết kế và phát triển đầy đủ hệ thống AI có rủi ro cao; (b) khi thích hợp, thực hiện các biện pháp giảm thiểu và kiểm soát thích hợp để giải quyết các rủi ro không thể loại bỏ được; (c) cung cấp thông tin theo yêu cầu của Điều 13 và, khi thích hợp, đào tạo cho người triển khai. Với mục đích loại bỏ hoặc giảm thiểu rủi ro liên quan đến việc sử dụng hệ thống AI có rủi ro cao, cần cân nhắc kỹ lưỡng đến kiến thức kỹ thuật, kinh nghiệm, trình độ học vấn, đào tạo mà người triển khai mong đợi và bối cảnh có thể xảy ra trong đó hệ thống được dự định sử dụng. 6. Các hệ thống AI có rủi ro cao sẽ được thử nghiệm nhằm mục đích xác định các biện pháp quản lý rủi ro phù hợp và có mục tiêu nhất. Việc thử nghiệm sẽ đảm bảo rằng các hệ thống AI có rủi ro cao hoạt động nhất quán theo mục đích dự định của chúng và tuân thủ các yêu cầu được nêu trong Mục này. 7. Các thủ tục thử nghiệm có thể bao gồm thử nghiệm trong điều kiện thực tế theo Điều 60 . 8. Việc thử nghiệm các hệ thống AI có rủi ro cao sẽ được thực hiện, tùy theo trường hợp, tại bất kỳ thời điểm nào trong suốt quá trình phát triển và, trong mọi trường hợp, trước khi chúng được đưa ra thị trường hoặc đưa vào sử dụng. Việc thử nghiệm sẽ được thực hiện theo các số liệu được xác định trước và ngưỡng xác suất phù hợp với mục đích dự kiến của hệ thống AI có rủi ro cao. 9. Khi triển khai hệ thống quản lý rủi ro theo quy định tại các đoạn 1 đến 7, nhà cung cấp phải cân nhắc xem xét mục đích dự kiến của hệ thống AI có rủi ro cao có khả năng gây ra tác động tiêu cực đến những người dưới 18 tuổi và nếu có, đến các nhóm dễ bị tổn thương khác hay không. 10. Đối với các nhà cung cấp hệ thống AI có rủi ro cao phải tuân thủ các yêu cầu liên quan đến quy trình quản lý rủi ro nội bộ theo các điều khoản liên quan khác của luật Liên minh, các khía cạnh được quy định trong các đoạn 1 đến 9 có thể là một phần hoặc kết hợp với các quy trình quản lý rủi ro được thiết lập theo luật đó. ( Điều 9 của Đạo luật) 3.Dữ liệu và Quản trị dữ liệu đối với hệ thống AI có rủi ro cao 1. Các hệ thống AI có rủi ro cao sử dụng các kỹ thuật liên quan đến việc đào tạo các mô hình AI bằng dữ liệu sẽ được phát triển trên cơ sở đào tạo, xác thực và thử nghiệm các tập dữ liệu đáp ứng các tiêu chí chất lượng được đề cập trong các đoạn từ 2 đến 5 bất cứ khi nào các tập dữ liệu đó được sử dụng. 2. Các tập dữ liệu đào tạo, xác thực và thử nghiệm phải tuân theo các thông lệ quản lý và quản trị dữ liệu phù hợp với mục đích dự định của hệ thống AI có rủi ro cao. Các thông lệ đó phải liên quan cụ thể đến: (a) các lựa chọn thiết kế có liên quan; (b) quy trình thu thập dữ liệu và nguồn gốc của dữ liệu, và trong trường hợp dữ liệu cá nhân, mục đích ban đầu của việc thu thập dữ liệu; (c) các hoạt động xử lý chuẩn bị dữ liệu có liên quan, chẳng hạn như chú thích, dán nhãn, làm sạch, cập nhật, làm giàu và tổng hợp; (d) việc xây dựng các giả định, đặc biệt liên quan đến thông tin mà dữ liệu được cho là đo lường và thể hiện; (e) đánh giá về tính sẵn có, số lượng và tính phù hợp của các tập dữ liệu cần thiết; (f) kiểm tra theo quan điểm về những thành kiến có thể ảnh hưởng đến sức khỏe và sự an toàn của con người, có tác động tiêu cực đến các quyền cơ bản hoặc dẫn đến sự phân biệt đối xử bị cấm theo luật Liên minh, đặc biệt là khi dữ liệu đầu ra ảnh hưởng đến dữ liệu đầu vào cho các hoạt động trong tương lai; (g) các biện pháp thích hợp để phát hiện, ngăn ngừa và giảm thiểu những thành kiến có thể xảy ra được xác định theo điểm (f); (h) xác định những khoảng trống hoặc thiếu sót dữ liệu có liên quan ngăn cản việc tuân thủ Quy định này và cách giải quyết những khoảng trống và thiếu sót đó. 3. Các tập dữ liệu đào tạo, xác thực và thử nghiệm phải có liên quan, đủ đại diện và ở mức độ tốt nhất có thể, không có lỗi và hoàn chỉnh theo mục đích dự định. Chúng phải có các thuộc tính thống kê phù hợp, bao gồm, khi áp dụng, liên quan đến những người hoặc nhóm người mà hệ thống AI có rủi ro cao dự định sử dụng. Các đặc điểm đó của các tập dữ liệu có thể được đáp ứng ở cấp độ của các tập dữ liệu riêng lẻ hoặc ở cấp độ kết hợp của chúng. 4. Bộ dữ liệu phải tính đến, trong phạm vi yêu cầu của mục đích dự kiến, các đặc điểm hoặc yếu tố cụ thể đối với bối cảnh địa lý, ngữ cảnh, hành vi hoặc chức năng cụ thể mà hệ thống AI có rủi ro cao dự định sử dụng. 5. Trong phạm vi cần thiết nghiêm ngặt cho mục đích đảm bảo phát hiện và sửa lỗi thiên vị liên quan đến các hệ thống AI có rủi ro cao theo khoản (2), điểm (f) và (g) của Điều này, các nhà cung cấp các hệ thống như vậy có thể xử lý ngoại lệ các loại dữ liệu cá nhân đặc biệt, tùy thuộc vào các biện pháp bảo vệ thích hợp cho các quyền và quyền tự do cơ bản của cá nhân. Ngoài các điều khoản được nêu trong Quy định (EU) 2016/679 và (EU) 2018/1725 và Chỉ thị (EU) 2016/680, tất cả các điều kiện sau đây phải được đáp ứng để việc xử lý như vậy diễn ra: (a) việc phát hiện và sửa lỗi thiên vị không thể được thực hiện hiệu quả bằng cách xử lý dữ liệu khác, bao gồm dữ liệu tổng hợp hoặc ẩn danh; (b) các loại dữ liệu cá nhân đặc biệt phải tuân theo các hạn chế kỹ thuật về việc tái sử dụng dữ liệu cá nhân và các biện pháp bảo mật và bảo vệ quyền riêng tư hiện đại, bao gồm cả việc ẩn danh; (c) các loại dữ liệu cá nhân đặc biệt phải tuân theo các biện pháp để đảm bảo rằng dữ liệu cá nhân được xử lý được bảo mật, được bảo vệ, tuân theo các biện pháp bảo vệ phù hợp, bao gồm kiểm soát chặt chẽ và ghi chép lại quá trình truy cập, để tránh sử dụng sai mục đích và đảm bảo rằng chỉ những người được ủy quyền mới có quyền truy cập vào những dữ liệu cá nhân đó với các nghĩa vụ bảo mật phù hợp; (d) các loại dữ liệu cá nhân đặc biệt không được truyền, chuyển giao hoặc truy cập theo cách khác bởi các bên khác; (e) các loại dữ liệu cá nhân đặc biệt sẽ bị xóa sau khi sai lệch đã được sửa hoặc dữ liệu cá nhân đã hết thời hạn lưu giữ, tùy theo điều kiện nào đến trước; (f) hồ sơ về các hoạt động xử lý theo Quy định (EU) 2016/679 và (EU) 2018/1725 và Chỉ thị (EU) 2016/680 bao gồm các lý do tại sao việc xử lý các loại dữ liệu cá nhân đặc biệt là hoàn toàn cần thiết để phát hiện và sửa lỗi thiên vị, và tại sao mục tiêu đó không thể đạt được bằng cách xử lý dữ liệu khác. 6. Đối với việc phát triển các hệ thống AI có rủi ro cao không sử dụng các kỹ thuật liên quan đến việc đào tạo mô hình AI, các đoạn từ 2 đến 5 chỉ áp dụng cho các tập dữ liệu thử nghiệm. ( Điều 10 của Đạo luật trí tuệ nhân tạo EU) 4.Quy định về Tài liệu kỹ thuật hệ thống AI có rủi ro cao
1. Tài liệu kỹ thuật của hệ thống AI có rủi ro cao phải được lập trước khi hệ thống đó được đưa ra thị trường hoặc đưa vào sử dụng và phải được cập nhật thường xuyên. Tài liệu kỹ thuật phải được lập theo cách chứng minh rằng hệ thống AI có rủi ro cao tuân thủ các yêu cầu nêu trong Mục này và cung cấp cho các cơ quan có thẩm quyền quốc gia và các cơ quan được thông báo thông tin cần thiết dưới dạng rõ ràng và toàn diện để đánh giá mức độ tuân thủ của hệ thống AI với các yêu cầu đó. Tài liệu phải chứa tối thiểu các yếu tố nêu trong Phụ lục IV . Các doanh nghiệp vừa và nhỏ, bao gồm cả các công ty khởi nghiệp, có thể cung cấp các yếu tố của tài liệu kỹ thuật nêu trong Phụ lục IV theo cách đơn giản hóa. Vì mục đích đó, Ủy ban sẽ thiết lập một biểu mẫu tài liệu kỹ thuật đơn giản hóa hướng đến nhu cầu của các doanh nghiệp nhỏ và siêu nhỏ. Trong trường hợp một doanh nghiệp vừa và nhỏ, bao gồm cả một công ty khởi nghiệp, lựa chọn cung cấp thông tin theo yêu cầu trong Phụ lục IV theo cách đơn giản hóa, thì doanh nghiệp đó sẽ sử dụng biểu mẫu được đề cập trong đoạn này. Các cơ quan được thông báo sẽ chấp nhận biểu mẫu này cho mục đích đánh giá sự phù hợp. 2. Khi một hệ thống AI có rủi ro cao liên quan đến sản phẩm thuộc phạm vi điều chỉnh của luật điều chỉnh của Liên minh được liệt kê trong Mục A của Phụ lục I được đưa ra thị trường hoặc đưa vào sử dụng, thì phải lập một bộ tài liệu kỹ thuật duy nhất có chứa tất cả thông tin nêu trong đoạn 1, cũng như thông tin theo yêu cầu của các hành vi pháp lý đó. 3. Ủy ban có thẩm quyền thông qua các hành vi được ủy quyền theo Điều 97 để sửa đổi Phụ lục IV , khi cần thiết, nhằm đảm bảo rằng, xét theo tiến bộ kỹ thuật, tài liệu kỹ thuật cung cấp mọi thông tin cần thiết để đánh giá sự tuân thủ của hệ thống với các yêu cầu nêu trong Mục này. ( Điều 11, Đạo Luật trí tuệ nhân tạo EU)
5.Lưu giữ hồ sơ hệ thống AI có rủi ro cao
1. Về mặt kỹ thuật, các hệ thống AI có rủi ro cao phải cho phép tự động ghi lại các sự kiện (nhật ký) trong suốt vòng đời của hệ thống. 2. Để đảm bảo mức độ truy xuất nguồn gốc hoạt động của hệ thống AI có rủi ro cao phù hợp với mục đích sử dụng của hệ thống, khả năng ghi nhật ký sẽ cho phép ghi lại các sự kiện có liên quan đến: (a) xác định các tình huống có thể dẫn đến hệ thống AI có rủi ro cao gây ra rủi ro theo nghĩa của Điều 79 (1) hoặc dẫn đến sửa đổi đáng kể; (b) tạo điều kiện cho việc giám sát sau khi đưa ra thị trường được đề cập trong Điều 72 ; và (c) giám sát hoạt động của các hệ thống AI có rủi ro cao được đề cập trong Điều 26 (5). 3. Đối với các hệ thống AI có rủi ro cao được đề cập tại điểm 1 (a) của Phụ lục III , khả năng ghi nhật ký phải cung cấp tối thiểu: (a) ghi lại thời gian của mỗi lần sử dụng hệ thống (ngày, giờ bắt đầu và ngày, giờ kết thúc của mỗi lần sử dụng); (b) cơ sở dữ liệu tham chiếu mà dữ liệu đầu vào đã được hệ thống kiểm tra; (c) dữ liệu đầu vào mà tìm kiếm đã dẫn đến kết quả khớp; (d) việc xác định những cá nhân tham gia vào việc xác minh kết quả, như được đề cập trong Điều 14 (5). ( Điều 12 Đạo luật Trí tuệ nhân tạo EU) 6.Minh bạch và cung cấp thông tin cho người triển khai hệ thống AI có rủi ro cao
1. Các hệ thống AI có rủi ro cao phải được thiết kế và phát triển theo cách đảm bảo rằng hoạt động của chúng đủ minh bạch để cho phép người triển khai diễn giải đầu ra của hệ thống và sử dụng nó một cách thích hợp. Một loại và mức độ minh bạch thích hợp phải được đảm bảo nhằm đạt được sự tuân thủ các nghĩa vụ có liên quan của nhà cung cấp và người triển khai được nêu trong Mục 3. 2. Các hệ thống AI có rủi ro cao phải được kèm theo hướng dẫn sử dụng ở định dạng kỹ thuật số phù hợp hoặc bằng cách khác bao gồm thông tin ngắn gọn, đầy đủ, chính xác và rõ ràng, có liên quan, dễ tiếp cận và dễ hiểu đối với người triển khai. 3. Hướng dẫn sử dụng phải có ít nhất những thông tin sau: (a) danh tính và thông tin liên lạc của nhà cung cấp và, nếu có, của đại diện được ủy quyền của nhà cung cấp; (b) các đặc điểm, khả năng và hạn chế về hiệu suất của hệ thống AI có rủi ro cao, bao gồm: (i) mục đích dự kiến của nó; (ii) mức độ chính xác, bao gồm các số liệu, độ mạnh mẽ và an ninh mạng được đề cập trong Điều 15 mà hệ thống AI có rủi ro cao đã được thử nghiệm và xác thực và có thể mong đợi, và bất kỳ trường hợp nào đã biết và có thể thấy trước có thể tác động đến mức độ chính xác, độ mạnh mẽ và an ninh mạng dự kiến đó; (iii) bất kỳ trường hợp nào đã biết hoặc có thể lường trước được, liên quan đến việc sử dụng hệ thống AI có rủi ro cao theo đúng mục đích đã định hoặc trong các điều kiện sử dụng sai mục đích có thể lường trước được một cách hợp lý, có thể dẫn đến rủi ro đối với sức khỏe và sự an toàn hoặc các quyền cơ bản được đề cập trong Điều 9 (2); (iv) khi áp dụng, khả năng kỹ thuật và đặc điểm của hệ thống AI có rủi ro cao để cung cấp thông tin có liên quan nhằm giải thích kết quả đầu ra của hệ thống; (v) khi thích hợp, hiệu suất của nó liên quan đến những người hoặc nhóm người cụ thể mà hệ thống được dự định sử dụng; (vi) khi thích hợp, các thông số kỹ thuật cho dữ liệu đầu vào hoặc bất kỳ thông tin có liên quan nào khác về các tập dữ liệu đào tạo, xác thực và thử nghiệm được sử dụng, có tính đến mục đích dự định của hệ thống AI có rủi ro cao; (vii) khi áp dụng, thông tin cho phép người triển khai giải thích kết quả đầu ra của hệ thống AI có rủi ro cao và sử dụng nó một cách phù hợp; (c) những thay đổi đối với hệ thống AI có rủi ro cao và hiệu suất của hệ thống này đã được nhà cung cấp xác định trước tại thời điểm đánh giá sự phù hợp ban đầu, nếu có; (d) các biện pháp giám sát của con người được đề cập trong Điều 14 , bao gồm các biện pháp kỹ thuật được đưa ra để tạo điều kiện thuận lợi cho việc giải thích kết quả của các hệ thống AI có rủi ro cao của bên triển khai; (e) các tài nguyên tính toán và phần cứng cần thiết, tuổi thọ dự kiến của hệ thống AI có rủi ro cao và mọi biện pháp bảo trì và chăm sóc cần thiết, bao gồm tần suất của chúng, để đảm bảo hệ thống AI đó hoạt động bình thường, bao gồm cả các bản cập nhật phần mềm; (f) khi có liên quan, mô tả về các cơ chế có trong hệ thống AI có rủi ro cao cho phép người triển khai thu thập, lưu trữ và diễn giải nhật ký một cách phù hợp theo Điều 12 . ( Điều 13 Đạo luật Trí tuệ nhân tạo EU)
7.Giám sát của con người đối với hệ thống AI có rủi ro cao
1. Các hệ thống AI có rủi ro cao phải được thiết kế và phát triển theo cách sao cho, bao gồm cả các công cụ giao diện máy-người phù hợp, có thể được giám sát hiệu quả bởi cá nhân trong suốt thời gian sử dụng. 2. Giám sát của con người phải nhằm mục đích ngăn ngừa hoặc giảm thiểu rủi ro đối với sức khỏe, sự an toàn hoặc các quyền cơ bản có thể phát sinh khi một hệ thống AI có rủi ro cao được sử dụng theo đúng mục đích đã định hoặc trong các điều kiện sử dụng sai mục đích có thể lường trước được, đặc biệt là khi những rủi ro đó vẫn tồn tại mặc dù đã áp dụng các yêu cầu khác được nêu trong Mục này. 3. Các biện pháp giám sát phải tương xứng với rủi ro, mức độ tự chủ và bối cảnh sử dụng hệ thống AI có rủi ro cao và phải được đảm bảo thông qua một hoặc cả hai loại biện pháp sau: (a) các biện pháp được xác định và xây dựng, khi khả thi về mặt kỹ thuật, vào hệ thống AI có rủi ro cao bởi nhà cung cấp trước khi đưa ra thị trường hoặc đưa vào sử dụng; (b) các biện pháp do nhà cung cấp xác định trước khi đưa hệ thống AI có rủi ro cao ra thị trường hoặc đưa vào sử dụng và phù hợp để bên triển khai thực hiện. 4. Để thực hiện các khoản 1, 2 và 3, hệ thống AI có rủi ro cao sẽ được cung cấp cho đơn vị triển khai theo cách mà các cá nhân được giao nhiệm vụ giám sát của con người được phép, khi thích hợp và tương xứng: (a) hiểu đúng các năng lực và hạn chế liên quan của hệ thống AI có rủi ro cao và có thể giám sát chặt chẽ hoạt động của hệ thống, bao gồm cả việc phát hiện và giải quyết các bất thường, trục trặc và hiệu suất không mong muốn; (b) luôn nhận thức được xu hướng có thể xảy ra là tự động dựa vào hoặc dựa quá mức vào kết quả do hệ thống AI có rủi ro cao tạo ra (thiên kiến tự động hóa), đặc biệt đối với các hệ thống AI có rủi ro cao được sử dụng để cung cấp thông tin hoặc khuyến nghị cho các quyết định do cá nhân đưa ra; (c) để giải thích chính xác kết quả đầu ra của hệ thống AI có rủi ro cao, ví dụ như có tính đến các công cụ và phương pháp giải thích có sẵn; (d) quyết định, trong bất kỳ tình huống cụ thể nào, không sử dụng hệ thống AI có rủi ro cao hoặc bỏ qua, ghi đè hoặc đảo ngược kết quả của hệ thống AI có rủi ro cao; (e) can thiệp vào hoạt động của hệ thống AI có rủi ro cao hoặc làm gián đoạn hệ thống thông qua nút ‘dừng’ hoặc quy trình tương tự cho phép hệ thống dừng lại ở trạng thái an toàn. 5. Đối với các hệ thống AI có rủi ro cao được đề cập trong điểm 1(a) của Phụ lục III , các biện pháp được đề cập trong đoạn 3 của Điều này phải đảm bảo rằng, ngoài ra, không có hành động hoặc quyết định nào được thực hiện bởi bên triển khai dựa trên nhận dạng thu được từ hệ thống trừ khi nhận dạng đó đã được xác minh và xác nhận riêng biệt bởi ít nhất hai cá nhân có đủ năng lực, đào tạo và thẩm quyền cần thiết. Yêu cầu xác minh riêng biệt bởi ít nhất hai cá nhân sẽ không áp dụng cho các hệ thống AI có rủi ro cao được sử dụng cho mục đích thực thi pháp luật, di cư, kiểm soát biên giới hoặc tị nạn, trong trường hợp luật Liên minh hoặc luật quốc gia coi việc áp dụng yêu cầu này là không cân xứng. ( Điều 14 Đạo luật Trí tuệ nhân tạo EU)
8.Độ chính xác, tính mạnh mẽ và an ninh mạng của hệ thống AI có rủi ro cao 1. Các hệ thống AI có rủi ro cao phải được thiết kế và phát triển theo cách đạt được mức độ chính xác, độ mạnh mẽ và an ninh mạng phù hợp, đồng thời hoạt động nhất quán về các khía cạnh đó trong suốt vòng đời của chúng. 2. Để giải quyết các khía cạnh kỹ thuật về cách đo lường mức độ chính xác và độ tin cậy thích hợp được nêu trong đoạn 1 và bất kỳ số liệu hiệu suất có liên quan nào khác, Ủy ban sẽ, hợp tác với các bên liên quan và tổ chức có liên quan như các cơ quan đo lường và đánh giá chuẩn, khuyến khích, khi thích hợp, việc phát triển các chuẩn mực và phương pháp đo lường. 3. Mức độ chính xác và số liệu đo độ chính xác có liên quan của các hệ thống AI có rủi ro cao sẽ được công bố trong hướng dẫn sử dụng kèm theo. 4. Các hệ thống AI có rủi ro cao phải có khả năng phục hồi càng nhiều càng tốt đối với các lỗi, sự cố hoặc sự không nhất quán có thể xảy ra trong hệ thống hoặc môi trường mà hệ thống hoạt động, đặc biệt là do tương tác của chúng với cá nhân hoặc các hệ thống khác. Các biện pháp kỹ thuật và tổ chức phải được thực hiện liên quan đến vấn đề này. Tính mạnh mẽ của các hệ thống AI có rủi ro cao có thể đạt được thông qua các giải pháp dự phòng kỹ thuật, có thể bao gồm các kế hoạch dự phòng hoặc an toàn khi gặp sự cố. Các hệ thống AI có rủi ro cao tiếp tục học sau khi được đưa ra thị trường hoặc đưa vào sử dụng phải được phát triển theo cách loại bỏ hoặc giảm thiểu tối đa rủi ro về các đầu ra có thể bị thiên vị ảnh hưởng đến đầu vào cho các hoạt động trong tương lai (vòng phản hồi) và đảm bảo rằng bất kỳ vòng phản hồi nào như vậy đều được giải quyết thỏa đáng bằng các biện pháp giảm thiểu thích hợp. 5. Các hệ thống AI có rủi ro cao phải có khả năng phục hồi trước các nỗ lực của bên thứ ba trái phép nhằm thay đổi cách sử dụng, đầu ra hoặc hiệu suất của chúng bằng cách khai thác các lỗ hổng của hệ thống. Các giải pháp kỹ thuật nhằm đảm bảo an ninh mạng của các hệ thống AI có rủi ro cao phải phù hợp với các trường hợp và rủi ro có liên quan. Các giải pháp kỹ thuật để giải quyết các lỗ hổng cụ thể của AI phải bao gồm, khi thích hợp, các biện pháp ngăn ngừa, phát hiện, ứng phó, giải quyết và kiểm soát các cuộc tấn công cố gắng thao túng tập dữ liệu đào tạo (đầu độc dữ liệu) hoặc các thành phần được đào tạo trước được sử dụng trong đào tạo (đầu độc mô hình), các đầu vào được thiết kế để khiến mô hình AI mắc lỗi (ví dụ đối kháng hoặc trốn tránh mô hình), các cuộc tấn công bảo mật hoặc lỗi mô hình. ( Điều 15 Đạo luật Trí tuệ nhân tạo EU).
CÁC PHỤ LỤC THAM CHIẾU CỦA ĐẠO LUẬT
Phụ lục I: Danh sách các văn bản pháp luật điều chỉnh liên minh Mục A – Danh sách các văn bản pháp luật điều chỉnh Liên minh dựa trên Khung pháp lý mới 1. Chỉ thị 2006/42/EC của Nghị viện châu Âu và Hội đồng ngày 17 tháng 5 năm 2006 về máy móc và sửa đổi Chỉ thị 95/16/EC ( OJ L 157, 9.6.2006, tr. 24 ); 2. Chỉ thị 2009/48/EC của Nghị viện Châu Âu và Hội đồng ngày 18 tháng 6 năm 2009 về an toàn của đồ chơi ( OJ L 170, 30.6.2009, tr. 1 ); 3. Chỉ thị 2013/53/EU của Nghị viện Châu Âu và Hội đồng ngày 20 tháng 11 năm 2013 về tàu thuyền giải trí và tàu thủy cá nhân và bãi bỏ Chỉ thị 94/25/EC ( OJ L 354, 28.12.2013, tr. 90 ); 4. Chỉ thị 2014/33/EU của Nghị viện Châu Âu và Hội đồng ngày 26 tháng 2 năm 2014 về việc điều hòa luật pháp của các quốc gia thành viên liên quan đến thang máy và các thành phần an toàn cho thang máy ( OJ L 96, 29.3.2014, tr. 251 ); 5. Chỉ thị 2014/34/EU của Nghị viện Châu Âu và Hội đồng ngày 26 tháng 2 năm 2014 về việc điều hòa luật pháp của các quốc gia thành viên liên quan đến thiết bị và hệ thống bảo vệ được thiết kế để sử dụng trong môi trường có khả năng nổ ( OJ L 96, 29.3.2014, tr. 309 ); 6. Chỉ thị 2014/53/EU của Nghị viện Châu Âu và Hội đồng ngày 16 tháng 4 năm 2014 về việc điều hòa luật pháp của các quốc gia thành viên liên quan đến việc đưa thiết bị vô tuyến ra thị trường và bãi bỏ Chỉ thị 1999/5/EC ( OJ L 153, 22.5.2014, tr. 62 ); 7. Chỉ thị 2014/68/EU của Nghị viện Châu Âu và Hội đồng ngày 15 tháng 5 năm 2014 về việc điều hòa luật pháp của các quốc gia thành viên liên quan đến việc đưa thiết bị chịu áp suất ra thị trường ( OJ L 189, 27.6.2014, tr. 164 ); 8. Quy định (EU) 2016/424 của Nghị viện Châu Âu và Hội đồng ngày 9 tháng 3 năm 2016 về lắp đặt cáp treo và bãi bỏ Chỉ thị 2000/9/EC ( OJ L 81, 31.3.2016, tr. 1 ); 9. Quy định (EU) 2016/425 của Nghị viện Châu Âu và Hội đồng ngày 9 tháng 3 năm 2016 về thiết bị bảo vệ cá nhân và bãi bỏ Chỉ thị 89/686/EEC của Hội đồng ( OJ L 81, 31.3.2016, tr. 51 ); 10. Quy định (EU) 2016/426 của Nghị viện Châu Âu và Hội đồng ngày 9 tháng 3 năm 2016 về các thiết bị đốt nhiên liệu khí và bãi bỏ Chỉ thị 2009/142/EC ( OJ L 81, 31.3.2016, tr. 99 ); 11. Quy định (EU) 2017/745 của Nghị viện Châu Âu và Hội đồng ngày 5 tháng 4 năm 2017 về thiết bị y tế, sửa đổi Chỉ thị 2001/83/EC, Quy định (EC) số 178/2002 và Quy định (EC) số 1223/2009 và bãi bỏ Chỉ thị 90/385/EEC và 93/42/EEC của Hội đồng ( OJ L 117, 5.5.2017, tr. 1 ); 12. Quy định (EU) 2017/746 của Nghị viện Châu Âu và Hội đồng ngày 5 tháng 4 năm 2017 về thiết bị y tế chẩn đoán trong ống nghiệm và bãi bỏ Chỉ thị 98/79/EC và Quyết định 2010/227/EU của Ủy ban ( OJ L 117, 5.5.2017, tr. 176 ). Mục B – Danh sách các luật điều chỉnh Liên minh khác 13. Quy định (EC) số 300/2008 của Nghị viện châu Âu và Hội đồng ngày 11 tháng 3 năm 2008 về các quy tắc chung trong lĩnh vực an ninh hàng không dân dụng và bãi bỏ Quy định (EC) số 2320/2002 ( OJ L 97, 9.4.2008, tr. 72 ); 14. Quy định (EU) số 168/2013 của Nghị viện châu Âu và Hội đồng ngày 15 tháng 1 năm 2013 về việc phê duyệt và giám sát thị trường đối với xe hai hoặc ba bánh và xe bốn bánh ( OJ L 60, 2.3.2013, tr. 52 ); 15. Quy định (EU) số 167/2013 của Nghị viện châu Âu và Hội đồng ngày 5 tháng 2 năm 2013 về việc phê duyệt và giám sát thị trường các loại xe nông nghiệp và lâm nghiệp ( OJ L 60, 2.3.2013, tr. 1 ); 16. Chỉ thị 2014/90/EU của Nghị viện Châu Âu và Hội đồng ngày 23 tháng 7 năm 2014 về thiết bị hàng hải và bãi bỏ Chỉ thị 96/98/EC của Hội đồng ( OJ L 257, 28.8.2014, tr. 146 ); 17. Chỉ thị (EU) 2016/797 của Nghị viện châu Âu và Hội đồng ngày 11 tháng 5 năm 2016 về khả năng tương tác của hệ thống đường sắt trong Liên minh châu Âu ( OJ L 138, 26.5.2016, tr. 44 ); 18. Quy định (EU) 2018/858 của Nghị viện châu Âu và Hội đồng ngày 30 tháng 5 năm 2018 về việc phê duyệt và giám sát thị trường đối với xe cơ giới và rơ moóc của chúng, cũng như các hệ thống, thành phần và các đơn vị kỹ thuật riêng biệt dành cho các loại xe đó, sửa đổi Quy định (EC) số 715/2007 và (EC) số 595/2009 và bãi bỏ Chỉ thị 2007/46/EC ( OJ L 151, 14.6.2018, tr. 1 ); 19. Quy định (EU) 2019/2144 của Nghị viện châu Âu và Hội đồng ngày 27 tháng 11 năm 2019 về các yêu cầu phê duyệt kiểu loại đối với xe cơ giới và rơ moóc của chúng, cũng như các hệ thống, thành phần và các đơn vị kỹ thuật riêng biệt dành cho các loại xe đó, liên quan đến sự an toàn chung và việc bảo vệ người ngồi trên xe và người tham gia giao thông dễ bị tổn thương, sửa đổi Quy định (EU) 2018/858 của Nghị viện châu Âu và Hội đồng và bãi bỏ Quy định (EC) số 78/2009, (EC) số 79/2009 và (EC) số 661/2009 của Nghị viện châu Âu và Hội đồng và Quy định của Ủy ban (EC) số 631/2009, (EU) số 406/2010, (EU) số 672/2010, (EU) số 1003/2010, (EU) số 1005/2010, (EU) số 1008/2010, (EU) Không 1009/2010, (EU) Không 19/2011, (EU) Không 109/2011, (EU) Không 458/2011, (EU) Không 65/2012, (EU) Không 130/2012, (EU) Không 347/2012, (EU) Không 351/2012, (EU) Số 1230/2012 và (EU) 2015/166 ( OJ L 325, 16.12.2019, trang 1 ); 20. Quy định (EU) 2018/1139 của Nghị viện châu Âu và Hội đồng ngày 4 tháng 7 năm 2018 về các quy tắc chung trong lĩnh vực hàng không dân dụng và thành lập Cơ quan An toàn Hàng không Liên minh châu Âu, và sửa đổi Quy định (EC) số 2111/2005, (EC) số 1008/2008, (EU) số 996/2010, (EU) số 376/2014 và các Chỉ thị 2014/30/EU và 2014/53/EU của Nghị viện châu Âu và Hội đồng, và bãi bỏ Quy định (EC) số 552/2004 và (EC) số 216/2008 của Nghị viện châu Âu và Hội đồng và Quy định (EEC) số 3922/91 của Hội đồng ( OJ L 212, 22.8.2018, tr. 1 ), trong chừng mực thiết kế, sản xuất và lắp đặt trên thị trường máy bay được đề cập trong Điều 2 (1), điểm (a) và (b) của Điều đó, liên quan đến máy bay không người lái và động cơ, cánh quạt, bộ phận và thiết bị điều khiển chúng từ xa. Phụ lục III: Hệ thống AI có rủi ro cao được đề cập trong Điều 6(2) của Đạo luật Hệ thống AI có rủi ro cao theo Điều 6 (2) là hệ thống AI được liệt kê trong bất kỳ lĩnh vực nào sau đây: 1. Sinh trắc học, trong phạm vi việc sử dụng được phép theo luật pháp liên bang hoặc quốc gia có liên quan: (a) hệ thống nhận dạng sinh trắc học từ xa. Điều này không bao gồm các hệ thống AI được thiết kế để sử dụng cho mục đích xác minh sinh trắc học với mục đích duy nhất là xác nhận rằng một cá nhân cụ thể là người mà người đó tự nhận là; (b) Hệ thống AI được thiết kế để sử dụng cho mục đích phân loại sinh trắc học, theo các thuộc tính hoặc đặc điểm nhạy cảm hoặc được bảo vệ dựa trên suy luận về các thuộc tính hoặc đặc điểm đó; (c) Hệ thống AI được thiết kế để sử dụng cho mục đích nhận dạng cảm xúc. 2. Cơ sở hạ tầng quan trọng: Hệ thống AI được thiết kế để sử dụng như các thành phần an toàn trong việc quản lý và vận hành cơ sở hạ tầng kỹ thuật số quan trọng, giao thông đường bộ hoặc trong việc cung cấp nước, khí đốt, sưởi ấm hoặc điện 3. Giáo dục và đào tạo nghề: (a) Hệ thống AI được thiết kế để sử dụng nhằm xác định quyền tiếp cận hoặc tuyển sinh hoặc để phân công cá nhân vào các cơ sở giáo dục và đào tạo nghề ở mọi cấp độ; (b) Các hệ thống AI được thiết kế để sử dụng nhằm đánh giá kết quả học tập, bao gồm cả khi những kết quả đó được sử dụng để định hướng quá trình học tập của các cá nhân trong các cơ sở giáo dục và đào tạo nghề ở mọi cấp độ; (c) Hệ thống AI được thiết kế để sử dụng cho mục đích đánh giá trình độ giáo dục phù hợp mà một cá nhân sẽ nhận được hoặc có thể tiếp cận, trong bối cảnh hoặc trong các cơ sở giáo dục và đào tạo nghề ở mọi cấp độ; (d) Hệ thống AI được thiết kế để sử dụng nhằm giám sát và phát hiện hành vi bị cấm của học sinh trong các bài kiểm tra trong bối cảnh hoặc trong các cơ sở giáo dục và đào tạo nghề ở mọi cấp độ. 4. Việc làm, quản lý lao động và tiếp cận việc làm tự do: (a) Hệ thống AI được thiết kế để sử dụng cho mục đích tuyển dụng hoặc lựa chọn cá nhân, đặc biệt là để đăng quảng cáo việc làm có mục tiêu, phân tích và lọc đơn xin việc, và đánh giá ứng viên; (b) Hệ thống AI được thiết kế để sử dụng nhằm đưa ra quyết định ảnh hưởng đến các điều khoản của mối quan hệ liên quan đến công việc, thúc đẩy hoặc chấm dứt các mối quan hệ hợp đồng liên quan đến công việc, phân bổ nhiệm vụ dựa trên hành vi cá nhân hoặc các đặc điểm hoặc tính cách cá nhân hoặc để theo dõi và đánh giá hiệu suất và hành vi của những người trong các mối quan hệ đó. 5. Tiếp cận và hưởng thụ các dịch vụ tư nhân thiết yếu và các dịch vụ và phúc lợi công cộng thiết yếu: (a) Hệ thống AI dự định được các cơ quan công quyền hoặc thay mặt cho các cơ quan công quyền sử dụng để đánh giá tính đủ điều kiện của các cá nhân được hưởng các dịch vụ và phúc lợi hỗ trợ công cộng thiết yếu, bao gồm các dịch vụ chăm sóc sức khỏe, cũng như để cấp, giảm, thu hồi hoặc đòi lại các phúc lợi và dịch vụ đó; (b) Hệ thống AI được dùng để đánh giá khả năng tín dụng của cá nhân hoặc thiết lập điểm tín dụng của họ, ngoại trừ hệ thống AI được dùng cho mục đích phát hiện gian lận tài chính; (c) Hệ thống AI được thiết kế để sử dụng cho việc đánh giá rủi ro và định giá liên quan đến cá nhân trong trường hợp bảo hiểm nhân thọ và bảo hiểm sức khỏe; (d) Hệ thống AI nhằm đánh giá và phân loại các cuộc gọi khẩn cấp của cá nhân hoặc được sử dụng để điều phối hoặc thiết lập thứ tự ưu tiên trong việc điều phối các dịch vụ ứng phó khẩn cấp đầu tiên, bao gồm cảnh sát, lính cứu hỏa và viện trợ y tế, cũng như các hệ thống phân loại bệnh nhân chăm sóc sức khỏe khẩn cấp. 6. Thực thi pháp luật, trong phạm vi việc sử dụng được phép theo luật Liên minh hoặc luật quốc gia có liên quan: (a) Các hệ thống AI dự định được sử dụng bởi hoặc thay mặt cho các cơ quan thực thi pháp luật, hoặc bởi các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh để hỗ trợ các cơ quan thực thi pháp luật hoặc thay mặt cho các cơ quan này nhằm đánh giá rủi ro của một cá nhân trở thành nạn nhân của tội phạm; (b) Các hệ thống AI dự định được sử dụng bởi hoặc thay mặt cho các cơ quan thực thi pháp luật hoặc các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh để hỗ trợ các cơ quan thực thi pháp luật như máy phát hiện nói dối hoặc các công cụ tương tự; (c) Các hệ thống AI dự định được sử dụng bởi hoặc thay mặt cho các cơ quan thực thi pháp luật, hoặc các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh, để hỗ trợ các cơ quan thực thi pháp luật đánh giá độ tin cậy của bằng chứng trong quá trình điều tra hoặc truy tố tội phạm; (d) Các hệ thống AI dự định được các cơ quan thực thi pháp luật hoặc thay mặt cho các cơ quan này hoặc các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh sử dụng để hỗ trợ các cơ quan thực thi pháp luật nhằm đánh giá rủi ro của một cá nhân phạm tội hoặc tái phạm không chỉ dựa trên cơ sở lập hồ sơ cá nhân như được đề cập trong Điều 3(4) của Chỉ thị (EU) 2016/680, hoặc để đánh giá các đặc điểm và tính cách hoặc hành vi phạm tội trong quá khứ của cá nhân hoặc nhóm cá nhân; (e) Hệ thống AI dự định được sử dụng bởi hoặc thay mặt cho các cơ quan thực thi pháp luật hoặc các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh để hỗ trợ các cơ quan thực thi pháp luật nhằm lập hồ sơ về các cá nhân theo quy định tại Điều 3(4) của Chỉ thị (EU) 2016/680 trong quá trình phát hiện, điều tra hoặc truy tố các tội phạm. 7. Quản lý di cư, tị nạn và kiểm soát biên giới, trong phạm vi được phép sử dụng theo luật liên bang hoặc luật quốc gia có liên quan: (a) Các hệ thống AI dự định được sử dụng bởi hoặc thay mặt cho các cơ quan công quyền có thẩm quyền hoặc các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh làm máy phát hiện nói dối hoặc các công cụ tương tự; (b) Các hệ thống AI dự định được sử dụng bởi hoặc thay mặt cho các cơ quan công quyền có thẩm quyền hoặc các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh để đánh giá rủi ro, bao gồm rủi ro an ninh, rủi ro di cư bất hợp pháp hoặc rủi ro sức khỏe, do một cá nhân có ý định nhập cảnh hoặc đã nhập cảnh vào lãnh thổ của một Quốc gia thành viên gây ra; (c) Các hệ thống AI dự định được sử dụng bởi hoặc thay mặt cho các cơ quan công quyền có thẩm quyền hoặc các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh để hỗ trợ các cơ quan công quyền có thẩm quyền trong việc xem xét các đơn xin tị nạn, thị thực hoặc giấy phép cư trú và đối với các khiếu nại liên quan đến tính đủ điều kiện của các cá nhân nộp đơn xin cấp tư cách, bao gồm các đánh giá liên quan đến độ tin cậy của bằng chứng; (d) Các hệ thống AI dự định được sử dụng bởi hoặc thay mặt cho các cơ quan công quyền có thẩm quyền, hoặc các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh, trong bối cảnh quản lý di cư, tị nạn hoặc kiểm soát biên giới, nhằm mục đích phát hiện, nhận dạng hoặc xác định danh tính cá nhân, ngoại trừ việc xác minh các giấy tờ đi lại. 8. Quản lý công lý và tiến trình dân chủ: (a) Hệ thống AI dự định được cơ quan tư pháp hoặc thay mặt cơ quan này sử dụng để hỗ trợ cơ quan tư pháp trong việc nghiên cứu và diễn giải các sự kiện và luật pháp và trong việc áp dụng luật pháp vào một tập hợp các sự kiện cụ thể hoặc được sử dụng theo cách tương tự trong giải quyết tranh chấp thay thế; (b) Các hệ thống AI được sử dụng để tác động đến kết quả của một cuộc bầu cử hoặc trưng cầu dân ý hoặc hành vi bỏ phiếu của các cá nhân trong quá trình bỏ phiếu của họ trong các cuộc bầu cử hoặc trưng cầu dân ý. Điều này không bao gồm các hệ thống AI mà các cá nhân không tiếp xúc trực tiếp với đầu ra của chúng, chẳng hạn như các công cụ được sử dụng để tổ chức, tối ưu hóa hoặc xây dựng các chiến dịch chính trị theo quan điểm hành chính hoặc hậu cần
Nguồn; Trung tâm NC&PT hội nhập KH&CN quốc tế liên kết nguồn tin và Dịch Chương 3, Đạo luật Trí tuệ Nhân tạo EU của Liên minh Châu ÂU
Your email address will not be published. Required fields are marked *
Comment
Name *
Email *
Website
CAPTCHA Code*