Mới đây EU đã ban hành Đạo luật trí tuệ nhân tạo quy định các nội dung liên quan đến Nghĩa vụ của Nhà cung cấp và Triển khai Hệ thống AI Rủi ro Cao và các Bên liên quan
1. Nghĩa vụ của Nhà cung cấp Hệ thống AI có Rủi ro Cao Các nhà cung cấp hệ thống AI có rủi ro cao phải: (a) đảm bảo rằng các hệ thống AI có rủi ro cao của họ tuân thủ các yêu cầu được nêu trong Mục 2; (b) ghi rõ trên hệ thống AI có rủi ro cao hoặc, nếu không thể, ghi trên bao bì hoặc tài liệu đi kèm, tùy trường hợp, tên, tên thương mại đã đăng ký hoặc nhãn hiệu đã đăng ký của họ, địa chỉ mà họ có thể liên hệ; (c) có hệ thống quản lý chất lượng tuân thủ theo Điều 17 ; (d) lưu giữ các tài liệu được đề cập trong Điều 18 ; (e) khi nằm trong tầm kiểm soát của mình, hãy lưu giữ các bản ghi được tạo tự động bởi các hệ thống AI có rủi ro cao của mình như được đề cập trong Điều 19 ; (f) đảm bảo rằng hệ thống AI có rủi ro cao trải qua quy trình đánh giá sự phù hợp có liên quan như được đề cập trong Điều 43 trước khi đưa ra thị trường hoặc đưa vào sử dụng; (g) lập bản tuyên bố về sự phù hợp của EU theo Điều 47 ; (h) gắn nhãn hiệu CE vào hệ thống AI có rủi ro cao hoặc, nếu không thể, trên bao bì hoặc tài liệu đi kèm, để chỉ ra sự phù hợp với Quy định này, theo Điều 48 ; (i) tuân thủ các nghĩa vụ đăng ký được đề cập trong Điều 49 (1); (j) thực hiện các hành động khắc phục cần thiết và cung cấp thông tin theo yêu cầu của Điều 20 ; (k) theo yêu cầu có lý do của cơ quan có thẩm quyền quốc gia, chứng minh sự phù hợp của hệ thống AI có rủi ro cao với các yêu cầu nêu trong Mục 2; (l) đảm bảo rằng hệ thống AI có rủi ro cao tuân thủ các yêu cầu về khả năng truy cập theo Chỉ thị (EU) 2016/2102 và (EU) 2019/882. ( Điều 16 của Đạo luật trí tuệ nhân tạo EU) 2. Hệ thống quản lý chất lượng Hệ thống AI có Rủi ro Cao
1. Nhà cung cấp hệ thống AI có rủi ro cao phải thiết lập hệ thống quản lý chất lượng đảm bảo tuân thủ Quy định này. Hệ thống đó phải được lập thành văn bản theo cách có hệ thống và có trật tự dưới dạng chính sách, thủ tục và hướng dẫn bằng văn bản, và phải bao gồm ít nhất các khía cạnh sau: (a) chiến lược tuân thủ quy định, bao gồm tuân thủ các thủ tục đánh giá sự phù hợp và các thủ tục quản lý các sửa đổi đối với hệ thống AI có rủi ro cao; (b) các kỹ thuật, quy trình và hành động có hệ thống được sử dụng để thiết kế, kiểm soát thiết kế và xác minh thiết kế của hệ thống AI có rủi ro cao; (c) các kỹ thuật, quy trình và hành động có hệ thống được sử dụng để phát triển, kiểm soát chất lượng và đảm bảo chất lượng của hệ thống AI có rủi ro cao; (d) các thủ tục kiểm tra, thử nghiệm và xác nhận cần được thực hiện trước, trong và sau khi phát triển hệ thống AI có rủi ro cao và tần suất thực hiện các thủ tục này; (e) các thông số kỹ thuật, bao gồm các tiêu chuẩn, sẽ được áp dụng và, trong trường hợp các tiêu chuẩn hài hòa có liên quan không được áp dụng đầy đủ hoặc không bao gồm tất cả các yêu cầu có liên quan được nêu trong Mục 2, các biện pháp sẽ được sử dụng để đảm bảo rằng hệ thống AI có rủi ro cao tuân thủ các yêu cầu đó; (f) các hệ thống và quy trình quản lý dữ liệu, bao gồm thu thập dữ liệu, phân tích dữ liệu, dán nhãn dữ liệu, lưu trữ dữ liệu, lọc dữ liệu, khai thác dữ liệu, tổng hợp dữ liệu, lưu giữ dữ liệu và bất kỳ hoạt động nào khác liên quan đến dữ liệu được thực hiện trước và cho mục đích đưa ra thị trường hoặc đưa vào sử dụng các hệ thống AI có rủi ro cao; (g) hệ thống quản lý rủi ro được đề cập trong Điều 9 ; (h) việc thiết lập, triển khai và duy trì hệ thống giám sát sau khi đưa ra thị trường, theo Điều 72 ; (i) các thủ tục liên quan đến việc báo cáo sự cố nghiêm trọng theo Điều 73 ; (j) việc xử lý thông tin liên lạc với các cơ quan có thẩm quyền quốc gia, các cơ quan có liên quan khác, bao gồm cả các cơ quan cung cấp hoặc hỗ trợ việc truy cập dữ liệu, các cơ quan được thông báo, các nhà điều hành khác, khách hàng hoặc các bên quan tâm khác; (k) hệ thống và thủ tục lưu giữ hồ sơ của tất cả các tài liệu và thông tin có liên quan; (l) quản lý tài nguyên, bao gồm các biện pháp liên quan đến an ninh nguồn cung; (m) một khuôn khổ trách nhiệm nêu rõ trách nhiệm của ban quản lý và các nhân viên khác liên quan đến tất cả các khía cạnh được liệt kê trong đoạn này. 2. Việc thực hiện các khía cạnh được đề cập trong đoạn 1 sẽ tương ứng với quy mô của tổ chức nhà cung cấp. Trong mọi trường hợp, nhà cung cấp sẽ tôn trọng mức độ nghiêm ngặt và mức độ bảo vệ cần thiết để đảm bảo sự tuân thủ của các hệ thống AI có rủi ro cao của họ với Quy định này. 3. Các nhà cung cấp hệ thống AI có rủi ro cao phải tuân thủ các nghĩa vụ liên quan đến hệ thống quản lý chất lượng hoặc chức năng tương đương theo luật Liên minh chuyên ngành có liên quan có thể đưa các khía cạnh được liệt kê trong đoạn 1 vào hệ thống quản lý chất lượng theo luật đó. 4. Đối với các nhà cung cấp là các tổ chức tài chính phải tuân thủ các yêu cầu về quản trị nội bộ, sắp xếp hoặc quy trình theo luật dịch vụ tài chính của Liên minh, nghĩa vụ thiết lập hệ thống quản lý chất lượng, ngoại trừ đoạn 1, các điểm (g), (h) và (i) của Điều này, sẽ được coi là đã hoàn thành bằng cách tuân thủ các quy tắc về sắp xếp hoặc quy trình quản trị nội bộ theo luật dịch vụ tài chính của Liên minh có liên quan. Vì mục đích đó, bất kỳ tiêu chuẩn hài hòa nào được đề cập trong Điều 40 sẽ được tính đến. 3. Lưu trữ hồ sơ 1. Trong thời hạn 10 năm kể từ khi hệ thống AI có rủi ro cao được đưa ra thị trường hoặc đưa vào sử dụng, nhà cung cấp phải giữ lại để các cơ quan có thẩm quyền quốc gia sử dụng: (a) tài liệu kỹ thuật được đề cập trong Điều 11 ; (b) tài liệu liên quan đến hệ thống quản lý chất lượng được đề cập trong Điều 17 ; (c) tài liệu liên quan đến những thay đổi được các cơ quan thông báo chấp thuận, nếu có; (d) các quyết định và văn bản khác do các cơ quan được thông báo ban hành, nếu có; (e) Tuyên bố về sự phù hợp của EU được đề cập trong Điều 47 . 2. Mỗi quốc gia thành viên sẽ xác định các điều kiện theo đó các tài liệu được đề cập trong đoạn 1 vẫn nằm trong quyền sử dụng của các cơ quan có thẩm quyền quốc gia trong thời hạn được nêu trong đoạn đó đối với các trường hợp nhà cung cấp hoặc đại diện được ủy quyền của nhà cung cấp đó có trụ sở trên lãnh thổ của mình bị phá sản hoặc ngừng hoạt động trước khi kết thúc thời hạn đó. 3. Các nhà cung cấp là tổ chức tài chính phải tuân thủ các yêu cầu liên quan đến quản trị nội bộ, các thỏa thuận hoặc quy trình theo luật dịch vụ tài chính Liên minh phải lưu giữ tài liệu kỹ thuật như một phần của tài liệu được lưu giữ theo luật dịch vụ tài chính Liên minh có liên quan. ( Điều 18 Đạo luật trí tuệ nhân tạo EU) 3. Nhật ký được tạo tự động 1. Nhà cung cấp hệ thống AI rủi ro cao phải lưu giữ các nhật ký được đề cập trong Điều 12 (1), được tạo tự động bởi hệ thống AI rủi ro cao của họ, trong phạm vi các nhật ký đó nằm trong tầm kiểm soát của họ. Không ảnh hưởng đến luật Liên minh hoặc luật quốc gia hiện hành, các nhật ký phải được lưu giữ trong thời gian phù hợp với mục đích dự kiến của hệ thống AI rủi ro cao, ít nhất là sáu tháng, trừ khi có quy định khác trong luật Liên minh hoặc luật quốc gia hiện hành, đặc biệt là trong luật Liên minh về bảo vệ dữ liệu cá nhân. 2. Các nhà cung cấp là tổ chức tài chính phải tuân thủ các yêu cầu liên quan đến quản trị nội bộ, các thỏa thuận hoặc quy trình theo luật dịch vụ tài chính của Liên minh phải lưu giữ nhật ký do hệ thống AI có rủi ro cao tự động tạo ra như một phần của tài liệu được lưu giữ theo luật dịch vụ tài chính có liên quan. ( Điều 19 Đạo luật trí tuệ nhân tạo EU) 4. Các biện pháp khắc phục và nghĩa vụ thông tin 1. Các nhà cung cấp hệ thống AI có rủi ro cao, nếu xét thấy hoặc có lý do để xét thấy hệ thống AI có rủi ro cao mà họ đã đưa ra thị trường hoặc đưa vào sử dụng không tuân thủ Quy định này, phải ngay lập tức thực hiện các hành động khắc phục cần thiết để đưa hệ thống đó vào trạng thái tuân thủ, thu hồi, vô hiệu hóa hoặc thu hồi hệ thống, tùy theo trường hợp. Họ phải thông báo cho các nhà phân phối hệ thống AI có rủi ro cao có liên quan và, nếu có thể, cho các đơn vị triển khai, đại diện được ủy quyền và các đơn vị nhập khẩu. 2. Trường hợp hệ thống AI có rủi ro cao gây ra rủi ro theo nghĩa của Điều 79 (1) và nhà cung cấp nhận thức được rủi ro đó, nhà cung cấp phải ngay lập tức điều tra nguyên nhân, phối hợp với đơn vị triển khai báo cáo, nếu có, và thông báo cho các cơ quan giám sát thị trường có thẩm quyền đối với hệ thống AI có rủi ro cao có liên quan và, nếu có, cho cơ quan được thông báo đã cấp chứng chỉ cho hệ thống AI có rủi ro cao đó theo Điều 44 , đặc biệt là về bản chất của hành vi không tuân thủ và bất kỳ hành động khắc phục có liên quan nào đã được thực hiện. ( Điều 20 Đạo luật trí tuệ nhân tạo EU) 5. Hợp tác với các cơ quan có thẩm quyền 1. Các nhà cung cấp hệ thống AI có rủi ro cao phải, theo yêu cầu có lý do của cơ quan có thẩm quyền, cung cấp cho cơ quan đó tất cả thông tin và tài liệu cần thiết để chứng minh sự phù hợp của hệ thống AI có rủi ro cao với các yêu cầu nêu trong Mục 2, bằng ngôn ngữ mà cơ quan đó có thể dễ dàng hiểu được bằng một trong những ngôn ngữ chính thức của các tổ chức thuộc Liên minh do Quốc gia thành viên có liên quan chỉ định. 2. Theo yêu cầu có lý do của cơ quan có thẩm quyền, nhà cung cấp cũng phải cấp cho cơ quan có thẩm quyền yêu cầu, tùy theo trường hợp, quyền truy cập vào các nhật ký được tạo tự động của hệ thống AI có rủi ro cao được đề cập trong Điều 12 (1), trong phạm vi các nhật ký đó nằm trong tầm kiểm soát của họ. 3. Mọi thông tin do cơ quan có thẩm quyền thu thập theo Điều này sẽ được xử lý theo các nghĩa vụ bảo mật được quy định tại Điều 78 . ( Điều 21 Đạo luật trí tuệ nhân tạo EU)
6. Đại diện được ủy quyền của Nhà cung cấp Hệ thống AI có Rủi ro cao 1. Trước khi cung cấp các hệ thống AI có rủi ro cao trên thị trường Liên minh, các nhà cung cấp được thành lập tại các quốc gia thứ ba phải, bằng văn bản ủy quyền, chỉ định một đại diện được ủy quyền được thành lập tại Liên minh. 2. Nhà cung cấp phải tạo điều kiện cho người đại diện được ủy quyền của mình thực hiện các nhiệm vụ được nêu trong giấy ủy quyền nhận được từ nhà cung cấp. 3. Người đại diện được ủy quyền sẽ thực hiện các nhiệm vụ được nêu trong ủy quyền nhận được từ nhà cung cấp. Người này sẽ cung cấp một bản sao ủy quyền cho các cơ quan giám sát thị trường theo yêu cầu, bằng một trong các ngôn ngữ chính thức của các tổ chức của Liên minh, theo chỉ định của cơ quan có thẩm quyền. Cho mục đích của Quy định này, ủy quyền sẽ trao quyền cho người đại diện được ủy quyền thực hiện các nhiệm vụ sau: (a) xác minh rằng tuyên bố về sự phù hợp của EU được đề cập trong Điều 47 và tài liệu kỹ thuật được đề cập trong Điều 11 đã được lập và rằng nhà cung cấp đã thực hiện quy trình đánh giá sự phù hợp thích hợp; (b) lưu giữ theo ý của các cơ quan có thẩm quyền và các cơ quan hoặc tổ chức quốc gia được đề cập trong Điều 74 (10), trong thời hạn 10 năm sau khi hệ thống AI có rủi ro cao được đưa ra thị trường hoặc đưa vào sử dụng, thông tin liên lạc của nhà cung cấp đã chỉ định đại diện được ủy quyền, một bản sao tuyên bố về sự phù hợp của EU được đề cập trong Điều 47 , tài liệu kỹ thuật và nếu có, giấy chứng nhận do cơ quan được thông báo cấp; (c) cung cấp cho cơ quan có thẩm quyền, theo yêu cầu có lý do, tất cả thông tin và tài liệu, bao gồm thông tin và tài liệu được đề cập tại điểm (b) của tiểu mục này, cần thiết để chứng minh sự phù hợp của hệ thống AI có rủi ro cao với các yêu cầu được nêu trong Mục 2, bao gồm quyền truy cập vào nhật ký, như được đề cập tại Điều 12 (1), do hệ thống AI có rủi ro cao tự động tạo ra, trong phạm vi các nhật ký đó nằm trong tầm kiểm soát của nhà cung cấp; (d) hợp tác với các cơ quan có thẩm quyền, khi có yêu cầu hợp lý, trong bất kỳ hành động nào mà các cơ quan này thực hiện liên quan đến hệ thống AI có rủi ro cao, đặc biệt là để giảm thiểu và giảm nhẹ các rủi ro do hệ thống AI có rủi ro cao gây ra; (e) khi áp dụng, tuân thủ các nghĩa vụ đăng ký được đề cập trong Điều 49 (1), hoặc, nếu việc đăng ký được thực hiện bởi chính nhà cung cấp, đảm bảo rằng thông tin được đề cập trong điểm 3 của Mục A của Phụ lục VIII là chính xác. Nhiệm vụ sẽ trao quyền cho đại diện được ủy quyền được giải quyết, ngoài hoặc thay thế nhà cung cấp, bởi các cơ quan có thẩm quyền, về tất cả các vấn đề liên quan đến việc đảm bảo tuân thủ Quy định này. 4. Người đại diện được ủy quyền sẽ chấm dứt ủy quyền nếu họ cho rằng hoặc có lý do để cho rằng nhà cung cấp đang hành động trái với nghĩa vụ của mình theo Quy định này. Trong trường hợp đó, họ sẽ thông báo ngay cho cơ quan giám sát thị trường có liên quan, cũng như, nếu có thể, cho cơ quan thông báo có liên quan, về việc chấm dứt ủy quyền và lý do chấm dứt. ( Điều 22 Đạo luật trí tuệ nhân tạo EU)
7. Nghĩa vụ của người nhập khẩu 1. Trước khi đưa hệ thống AI có rủi ro cao ra thị trường, nhà nhập khẩu phải đảm bảo hệ thống đó tuân thủ Quy định này bằng cách xác minh rằng: (a) quy trình đánh giá sự phù hợp có liên quan được đề cập trong Điều 43 đã được nhà cung cấp hệ thống AI có rủi ro cao thực hiện; (b) nhà cung cấp đã lập tài liệu kỹ thuật theo Điều 11 và Phụ lục IV ; (c) hệ thống phải có dấu CE theo yêu cầu và kèm theo tuyên bố về sự phù hợp của EU được đề cập trong Điều 47 và hướng dẫn sử dụng; (d) nhà cung cấp đã chỉ định một đại diện được ủy quyền theo Điều 22 (1). 2. Trường hợp nhà nhập khẩu có đủ lý do để xem xét rằng hệ thống AI có rủi ro cao không tuân thủ Quy định này, hoặc bị làm giả hoặc kèm theo tài liệu giả mạo, nhà nhập khẩu không được đưa hệ thống ra thị trường cho đến khi hệ thống được đưa vào tuân thủ. Trường hợp hệ thống AI có rủi ro cao gây ra rủi ro theo nghĩa của Điều 79 (1), nhà nhập khẩu phải thông báo cho nhà cung cấp hệ thống, đại diện được ủy quyền và các cơ quan giám sát thị trường về vấn đề đó. 3. Người nhập khẩu phải ghi rõ tên, tên thương mại đã đăng ký hoặc nhãn hiệu đã đăng ký và địa chỉ liên hệ trên hệ thống AI có rủi ro cao và trên bao bì hoặc tài liệu đi kèm, nếu có. 4. Người nhập khẩu phải đảm bảo rằng trong khi hệ thống AI có rủi ro cao nằm trong trách nhiệm của mình, các điều kiện lưu trữ hoặc vận chuyển, nếu có, không gây nguy hiểm cho việc tuân thủ các yêu cầu được nêu trong Mục 2. 5. Người nhập khẩu phải lưu giữ, trong thời hạn 10 năm sau khi hệ thống AI có rủi ro cao được đưa ra thị trường hoặc đưa vào sử dụng, một bản sao giấy chứng nhận do cơ quan được thông báo cấp, nếu có, về hướng dẫn sử dụng và tuyên bố về sự phù hợp của EU được đề cập trong Điều 47 . 6. Người nhập khẩu phải cung cấp cho các cơ quan có thẩm quyền có liên quan, khi có yêu cầu hợp lý, tất cả thông tin và tài liệu cần thiết, bao gồm cả thông tin và tài liệu được đề cập trong đoạn 5, để chứng minh sự phù hợp của hệ thống AI có rủi ro cao với các yêu cầu nêu trong Mục 2 bằng ngôn ngữ mà họ có thể dễ dàng hiểu được. Vì mục đích này, họ cũng phải đảm bảo rằng tài liệu kỹ thuật có thể được cung cấp cho các cơ quan đó. 7. Người nhập khẩu phải hợp tác với các cơ quan có thẩm quyền liên quan trong mọi hành động mà các cơ quan đó thực hiện liên quan đến hệ thống AI có rủi ro cao do người nhập khẩu đưa ra thị trường, đặc biệt là để giảm thiểu và hạn chế những rủi ro do hệ thống này gây ra. ( Điều 23 Đạo luật trí tuệ nhân tạo EU)
8. Nghĩa vụ của Nhà phân phối 1. Trước khi đưa hệ thống AI có rủi ro cao ra thị trường, các nhà phân phối phải xác minh rằng hệ thống đó có dấu CE bắt buộc, có kèm theo bản sao tuyên bố về sự phù hợp của EU được đề cập trong Điều 47 và hướng dẫn sử dụng, và nhà cung cấp và nhà nhập khẩu hệ thống đó, nếu có, đã tuân thủ các nghĩa vụ tương ứng của họ theo quy định tại Điều 16 , điểm (b) và (c) và Điều 23 (3). 2. Trường hợp nhà phân phối cho rằng hoặc có lý do để cho rằng, trên cơ sở thông tin mà mình nắm giữ, một hệ thống AI có rủi ro cao không tuân thủ các yêu cầu nêu trong Mục 2, thì nhà phân phối đó không được đưa hệ thống AI có rủi ro cao đó ra thị trường cho đến khi hệ thống đó tuân thủ các yêu cầu đó. Hơn nữa, trường hợp hệ thống AI có rủi ro cao đó gây ra rủi ro theo nghĩa của Điều 79 (1), nhà phân phối phải thông báo cho nhà cung cấp hoặc nhà nhập khẩu hệ thống đó, tùy theo trường hợp, về vấn đề đó. 3. Nhà phân phối phải đảm bảo rằng trong khi hệ thống AI có rủi ro cao nằm trong trách nhiệm của mình, các điều kiện lưu trữ hoặc vận chuyển, khi áp dụng, không gây nguy hiểm cho việc tuân thủ của hệ thống với các yêu cầu được nêu trong Mục 2. 4. Nhà phân phối xem xét hoặc có lý do để xem xét, trên cơ sở thông tin mà mình nắm giữ, một hệ thống AI có rủi ro cao mà mình đã đưa ra thị trường không tuân thủ các yêu cầu nêu trong Mục 2, phải thực hiện các hành động khắc phục cần thiết để đưa hệ thống đó tuân thủ các yêu cầu đó, để thu hồi hoặc thu hồi hệ thống đó, hoặc phải đảm bảo rằng nhà cung cấp, nhà nhập khẩu hoặc bất kỳ nhà điều hành có liên quan nào, khi thích hợp, thực hiện các hành động khắc phục đó. Trong trường hợp hệ thống AI có rủi ro cao gây ra rủi ro theo nghĩa của Điều 79 (1), nhà phân phối phải thông báo ngay cho nhà cung cấp hoặc nhà nhập khẩu về hệ thống và các cơ quan có thẩm quyền đối với hệ thống AI có rủi ro cao liên quan, đặc biệt là cung cấp thông tin chi tiết về việc không tuân thủ và bất kỳ hành động khắc phục nào đã thực hiện. 5. Theo yêu cầu có lý do từ cơ quan có thẩm quyền liên quan, các nhà phân phối hệ thống AI có rủi ro cao phải cung cấp cho cơ quan đó mọi thông tin và tài liệu liên quan đến hành động của họ theo các đoạn từ 1 đến 4 cần thiết để chứng minh hệ thống đó tuân thủ các yêu cầu nêu trong Mục 2. 6. Nhà phân phối phải hợp tác với các cơ quan có thẩm quyền liên quan trong mọi hành động mà các cơ quan đó thực hiện liên quan đến hệ thống AI có rủi ro cao do nhà phân phối cung cấp trên thị trường, đặc biệt là để giảm thiểu hoặc giảm nhẹ rủi ro do hệ thống này gây ra. ( Điều 24 Đạo luật trí tuệ nhân tạo EU)
9. Trách nhiệm trong chuỗi giá trị AI 1. Bất kỳ nhà phân phối, nhà nhập khẩu, đơn vị triển khai hoặc bên thứ ba nào khác đều được coi là nhà cung cấp hệ thống AI có rủi ro cao cho mục đích của Quy định này và phải tuân thủ các nghĩa vụ của nhà cung cấp theo Điều 16 , trong bất kỳ trường hợp nào sau đây: (a) họ đặt tên hoặc nhãn hiệu của mình trên một hệ thống AI có rủi ro cao đã được đưa ra thị trường hoặc đưa vào sử dụng, mà không ảnh hưởng đến các thỏa thuận hợp đồng quy định rằng các nghĩa vụ được phân bổ theo cách khác; (b) họ thực hiện một sửa đổi đáng kể đối với một hệ thống AI có rủi ro cao đã được đưa ra thị trường hoặc đã được đưa vào sử dụng theo cách mà nó vẫn là một hệ thống AI có rủi ro cao theo Điều 6 ; (c) họ sửa đổi mục đích dự kiến của một hệ thống AI, bao gồm một hệ thống AI mục đích chung, chưa được phân loại là rủi ro cao và đã được đưa ra thị trường hoặc đưa vào sử dụng theo cách mà hệ thống AI có liên quan trở thành hệ thống AI rủi ro cao theo Điều 6. 2. Trong trường hợp các trường hợp nêu tại khoản 1 xảy ra, nhà cung cấp ban đầu đưa hệ thống AI ra thị trường hoặc đưa vào sử dụng sẽ không còn được coi là nhà cung cấp hệ thống AI cụ thể đó cho mục đích của Quy định này. Nhà cung cấp ban đầu đó sẽ hợp tác chặt chẽ với các nhà cung cấp mới và sẽ cung cấp thông tin cần thiết và cung cấp quyền truy cập kỹ thuật hợp lý và hỗ trợ khác cần thiết để thực hiện các nghĩa vụ được nêu trong Quy định này, đặc biệt là liên quan đến việc tuân thủ đánh giá sự phù hợp của các hệ thống AI có rủi ro cao. Khoản này sẽ không áp dụng trong trường hợp nhà cung cấp ban đầu đã chỉ rõ rõ ràng rằng hệ thống AI của mình không được chuyển đổi thành hệ thống AI có rủi ro cao và do đó không thuộc nghĩa vụ bàn giao tài liệu 3. Trong trường hợp các hệ thống AI có rủi ro cao là thành phần an toàn của sản phẩm được quy định trong luật điều chỉnh của Liên minh được liệt kê trong Mục A của Phụ lục I , nhà sản xuất sản phẩm sẽ được coi là nhà cung cấp hệ thống AI có rủi ro cao và phải tuân thủ các nghĩa vụ theo Điều 16 trong bất kỳ trường hợp nào sau đây: (a) hệ thống AI có rủi ro cao được đưa ra thị trường cùng với sản phẩm dưới tên hoặc nhãn hiệu của nhà sản xuất sản phẩm; (b) hệ thống AI có rủi ro cao được đưa vào sử dụng dưới tên hoặc nhãn hiệu của nhà sản xuất sản phẩm sau khi sản phẩm đã được đưa ra thị trường. 4. Nhà cung cấp hệ thống AI có rủi ro cao và bên thứ ba cung cấp hệ thống AI, công cụ, dịch vụ, thành phần hoặc quy trình được sử dụng hoặc tích hợp trong hệ thống AI có rủi ro cao phải, bằng thỏa thuận bằng văn bản, chỉ định thông tin, khả năng, quyền truy cập kỹ thuật và hỗ trợ khác cần thiết dựa trên tình trạng nghệ thuật được công nhận chung, để cho phép nhà cung cấp hệ thống AI có rủi ro cao tuân thủ đầy đủ các nghĩa vụ được nêu trong Quy định này. Đoạn này không áp dụng cho các bên thứ ba cung cấp các công cụ, dịch vụ, quy trình hoặc thành phần công khai, ngoài các mô hình AI mục đích chung, theo giấy phép nguồn mở và miễn phí. Văn phòng AI có thể phát triển và đề xuất các điều khoản mô hình tự nguyện cho các hợp đồng giữa các nhà cung cấp hệ thống AI có rủi ro cao và các bên thứ ba cung cấp các công cụ, dịch vụ, thành phần hoặc quy trình được sử dụng hoặc tích hợp vào các hệ thống AI có rủi ro cao. Khi phát triển các điều khoản mô hình tự nguyện đó, Văn phòng AI sẽ tính đến các yêu cầu hợp đồng có thể áp dụng trong các lĩnh vực hoặc trường hợp kinh doanh cụ thể. Các điều khoản mô hình tự nguyện sẽ được công bố và có sẵn miễn phí ở định dạng điện tử dễ sử dụng 5. Đoạn 2 và 3 không ảnh hưởng đến nhu cầu tuân thủ và bảo vệ quyền sở hữu trí tuệ, thông tin kinh doanh bí mật và bí mật thương mại theo luật pháp Liên minh và luật pháp quốc gia. ( Điều 25 Đạo luật trí tuệ nhân tạo EU)
10. Nghĩa vụ của bên triển khai hệ thống AI có rủi ro cao 1. Các đơn vị triển khai hệ thống AI có rủi ro cao phải thực hiện các biện pháp kỹ thuật và tổ chức phù hợp để đảm bảo họ sử dụng các hệ thống đó theo đúng hướng dẫn sử dụng đi kèm với hệ thống, theo các đoạn 3 và 6. 2. Người triển khai phải phân công giám sát con người cho những cá nhân có đủ năng lực, đào tạo và thẩm quyền cần thiết, cũng như có sự hỗ trợ cần thiết. 3. Các nghĩa vụ nêu trong đoạn 1 và 2 không ảnh hưởng đến các nghĩa vụ khác của bên triển khai theo luật Liên minh hoặc luật quốc gia và quyền tự do của bên triển khai trong việc tổ chức các nguồn lực và hoạt động của riêng mình nhằm mục đích thực hiện các biện pháp giám sát của con người do nhà cung cấp chỉ định. 4. Không ảnh hưởng đến các đoạn 1 và 2, trong phạm vi người triển khai kiểm soát dữ liệu đầu vào, người triển khai đó phải đảm bảo rằng dữ liệu đầu vào có liên quan và đủ đại diện theo mục đích dự định của hệ thống AI có rủi ro cao. 5. Người triển khai phải giám sát hoạt động của hệ thống AI có rủi ro cao trên cơ sở hướng dẫn sử dụng và, khi có liên quan, thông báo cho nhà cung cấp theo Điều 72. Khi người triển khai có lý do để xem xét rằng việc sử dụng hệ thống AI có rủi ro cao theo hướng dẫn có thể dẫn đến hệ thống AI đó gây ra rủi ro theo nghĩa của Điều 79 (1), họ phải thông báo ngay cho nhà cung cấp hoặc nhà phân phối và cơ quan giám sát thị trường có liên quan và phải đình chỉ việc sử dụng hệ thống đó. Khi người triển khai xác định được sự cố nghiêm trọng, họ cũng phải thông báo ngay cho nhà cung cấp, sau đó là nhà nhập khẩu hoặc nhà phân phối và cơ quan giám sát thị trường có liên quan về sự cố đó. Nếu người triển khai không thể liên lạc với nhà cung cấp, Điều 73 sẽ được áp dụng tương tự. Nghĩa vụ này không bao gồm dữ liệu hoạt động nhạy cảm của người triển khai hệ thống AI là cơ quan thực thi pháp luật. Đối với những đơn vị triển khai là các tổ chức tài chính phải tuân thủ các yêu cầu về quản trị nội bộ, các thỏa thuận hoặc quy trình theo luật dịch vụ tài chính của Liên minh, nghĩa vụ giám sát được nêu trong tiểu đoạn đầu tiên sẽ được coi là đã hoàn thành bằng cách tuân thủ các quy tắc về các thỏa thuận, quy trình và cơ chế quản trị nội bộ theo luật dịch vụ tài chính có liên quan. 6. Người triển khai hệ thống AI rủi ro cao phải lưu giữ nhật ký do hệ thống AI rủi ro cao đó tự động tạo ra trong phạm vi nhật ký đó nằm trong tầm kiểm soát của họ, trong khoảng thời gian phù hợp với mục đích dự kiến của hệ thống AI rủi ro cao, ít nhất là sáu tháng, trừ khi có quy định khác trong luật Liên minh hoặc luật quốc gia hiện hành, đặc biệt là trong luật Liên minh về bảo vệ dữ liệu cá nhân. Người triển khai là tổ chức tài chính phải tuân thủ các yêu cầu liên quan đến quản trị nội bộ, sắp xếp hoặc quy trình của họ theo luật dịch vụ tài chính Liên minh phải lưu giữ nhật ký như một phần của tài liệu được lưu giữ theo luật dịch vụ tài chính Liên minh có liên quan. 7. Trước khi đưa vào sử dụng hoặc sử dụng hệ thống AI có rủi ro cao tại nơi làm việc, những người triển khai là chủ lao động phải thông báo cho đại diện của người lao động và những người lao động bị ảnh hưởng rằng họ sẽ phải chịu sự sử dụng của hệ thống AI có rủi ro cao. Thông tin này sẽ được cung cấp, khi áp dụng, theo các quy tắc và thủ tục được quy định trong luật pháp và thông lệ của Liên đoàn và quốc gia về thông tin của người lao động và đại diện của họ. Liên quan: Đoạn trích 92 8. Các đơn vị triển khai hệ thống AI có rủi ro cao là các cơ quan công quyền hoặc các tổ chức, cơ quan, văn phòng hoặc cơ quan của Liên minh phải tuân thủ các nghĩa vụ đăng ký được đề cập trong Điều 49. Khi các đơn vị triển khai đó phát hiện hệ thống AI có rủi ro cao mà họ dự định sử dụng chưa được đăng ký trong cơ sở dữ liệu EU được đề cập trong Điều 71 , họ sẽ không sử dụng hệ thống đó và phải thông báo cho nhà cung cấp hoặc nhà phân phối. 9. Khi áp dụng, đơn vị triển khai hệ thống AI có rủi ro cao sẽ sử dụng thông tin được cung cấp theo Điều 13 của Quy định này để tuân thủ nghĩa vụ thực hiện đánh giá tác động bảo vệ dữ liệu theo Điều 35 của Quy định (EU) 2016/679 hoặc Điều 27 của Chỉ thị (EU) 2016/680. 10. Không ảnh hưởng đến Chỉ thị (EU) 2016/680, trong khuôn khổ của một cuộc điều tra để tìm kiếm có mục tiêu một người bị tình nghi hoặc bị kết tội đã phạm tội hình sự, bên triển khai hệ thống AI có rủi ro cao để nhận dạng sinh trắc học sau khi điều khiển từ xa phải yêu cầu cơ quan tư pháp hoặc cơ quan hành chính có quyết định ràng buộc và phải chịu sự xem xét của tòa án cấp phép, trước hoặc không chậm trễ quá 48 giờ, để sử dụng hệ thống đó, ngoại trừ khi hệ thống được sử dụng để nhận dạng ban đầu một nghi phạm tiềm năng dựa trên các sự kiện khách quan và có thể xác minh được liên quan trực tiếp đến tội phạm. Mỗi lần sử dụng phải giới hạn ở những gì hoàn toàn cần thiết cho cuộc điều tra một tội phạm hình sự cụ thể. Nếu ủy quyền được yêu cầu theo tiểu đoạn đầu tiên bị từ chối, việc sử dụng hệ thống nhận dạng sinh trắc học sau khi điều khiển từ xa được liên kết với ủy quyền được yêu cầu đó sẽ bị dừng ngay lập tức và dữ liệu cá nhân được liên kết với việc sử dụng hệ thống AI có rủi ro cao mà ủy quyền đã được yêu cầu sẽ bị xóa. Trong mọi trường hợp, hệ thống AI có rủi ro cao để nhận dạng sinh trắc học sau khi điều khiển từ xa như vậy không được sử dụng cho mục đích thực thi pháp luật theo cách không có mục tiêu, không liên quan đến hành vi phạm tội, tố tụng hình sự, mối đe dọa thực sự và hiện tại hoặc thực sự và có thể thấy trước về hành vi phạm tội, hoặc tìm kiếm một người mất tích cụ thể. Cần đảm bảo rằng không có quyết định nào tạo ra tác động pháp lý bất lợi đối với một người được các cơ quan thực thi pháp luật đưa ra chỉ dựa trên kết quả của các hệ thống nhận dạng sinh trắc học sau khi điều khiển từ xa như vậy. Đoạn này không ảnh hưởng đến Điều 9 của Quy định (EU) 2016/679 và Điều 10 của Chỉ thị (EU) 2016/680 về việc xử lý dữ liệu sinh trắc học. Bất kể mục đích hoặc đơn vị triển khai nào, mỗi lần sử dụng các hệ thống AI có rủi ro cao như vậy đều phải được ghi lại trong hồ sơ cảnh sát có liên quan và phải được cung cấp cho cơ quan giám sát thị trường có liên quan và cơ quan bảo vệ dữ liệu quốc gia theo yêu cầu, ngoại trừ việc tiết lộ dữ liệu hoạt động nhạy cảm liên quan đến thực thi pháp luật. Tiểu mục này không ảnh hưởng đến các quyền hạn được trao theo Chỉ thị (EU) 2016/680 đối với các cơ quan giám sát. Các đơn vị triển khai phải nộp báo cáo hàng năm cho các cơ quan giám sát thị trường và bảo vệ dữ liệu quốc gia có liên quan về việc sử dụng các hệ thống nhận dạng sinh trắc học sau khi triển khai từ xa, ngoại trừ việc tiết lộ dữ liệu hoạt động nhạy cảm liên quan đến việc thực thi pháp luật. Các báo cáo có thể được tổng hợp để bao gồm nhiều hơn một lần triển khai. Các quốc gia thành viên có thể đưa ra, theo luật của Liên minh, các luật hạn chế hơn về việc sử dụng các hệ thống nhận dạng sinh trắc học sau khi triển khai từ xa. Liên quan: Đoạn trích 94 và Đoạn trích 95 11. Không ảnh hưởng đến Điều 50 của Quy định này, bên triển khai hệ thống AI rủi ro cao được đề cập trong Phụ lục III đưa ra quyết định hoặc hỗ trợ đưa ra quyết định liên quan đến cá nhân phải thông báo cho cá nhân rằng họ phải tuân theo việc sử dụng hệ thống AI rủi ro cao. Đối với hệ thống AI rủi ro cao được sử dụng cho mục đích thực thi pháp luật, Điều 13 của Chỉ thị (EU) 2016/680 sẽ được áp dụng. 12. Người triển khai phải hợp tác với các cơ quan có thẩm quyền liên quan trong mọi hành động mà các cơ quan đó thực hiện liên quan đến hệ thống AI có rủi ro cao nhằm thực hiện Quy định này. ( Điều 26 Đạo luật trí tuệ nhân tạo EU)
11. Đánh giá tác động của các quyền cơ bản đối với các hệ thống AI có rủi ro cao 1. Trước khi triển khai hệ thống AI có rủi ro cao được đề cập trong Điều 6 (2), ngoại trừ các hệ thống AI có rủi ro cao dự định sử dụng trong khu vực được liệt kê trong điểm 2 của Phụ lục III , các đơn vị triển khai là các cơ quan chịu sự quản lý của luật công hoặc là các thực thể tư nhân cung cấp dịch vụ công và các đơn vị triển khai hệ thống AI có rủi ro cao được đề cập trong điểm 5 (b) và (c) của Phụ lục III , phải thực hiện đánh giá tác động đến các quyền cơ bản mà việc sử dụng hệ thống đó có thể tạo ra. Vì mục đích đó, các đơn vị triển khai phải thực hiện đánh giá bao gồm: (a) mô tả về các quy trình của đơn vị triển khai trong đó hệ thống AI có rủi ro cao sẽ được sử dụng theo đúng mục đích dự kiến; (b) mô tả về khoảng thời gian và tần suất mà mỗi hệ thống AI có rủi ro cao được dự định sử dụng; (c) các loại cá nhân và nhóm có khả năng bị ảnh hưởng bởi việc sử dụng nó trong bối cảnh cụ thể; (d) các rủi ro cụ thể về tác hại có khả năng ảnh hưởng đến các loại cá nhân hoặc nhóm cá nhân được xác định theo điểm (c) của đoạn này, có tính đến thông tin do nhà cung cấp cung cấp theo Điều 13 ; (e) mô tả về việc thực hiện các biện pháp giám sát của con người, theo hướng dẫn sử dụng; (f) các biện pháp cần thực hiện trong trường hợp những rủi ro đó trở thành hiện thực, bao gồm các sắp xếp về quản trị nội bộ và cơ chế khiếu nại. 2. Nghĩa vụ quy định tại khoản 1 áp dụng cho lần đầu tiên sử dụng hệ thống AI rủi ro cao. Trong những trường hợp tương tự, bên triển khai có thể dựa vào các đánh giá tác động quyền cơ bản đã tiến hành trước đó hoặc các đánh giá tác động hiện có do nhà cung cấp thực hiện. Nếu trong quá trình sử dụng hệ thống AI rủi ro cao, bên triển khai cho rằng bất kỳ yếu tố nào được liệt kê trong khoản 1 đã thay đổi hoặc không còn cập nhật nữa, bên triển khai sẽ thực hiện các bước cần thiết để cập nhật thông tin. 3. Sau khi đánh giá được đề cập trong khoản 1 của Điều này đã được thực hiện, người triển khai sẽ thông báo cho cơ quan giám sát thị trường về kết quả của mình, nộp mẫu đã điền được đề cập trong khoản 5 của Điều này như một phần của thông báo. Trong trường hợp được đề cập trong Điều 46 (1), người triển khai có thể được miễn nghĩa vụ thông báo đó. 4. Nếu bất kỳ nghĩa vụ nào được quy định trong Điều này đã được đáp ứng thông qua đánh giá tác động bảo vệ dữ liệu được tiến hành theo Điều 35 của Quy định (EU) 2016/679 hoặc Điều 27 của Chỉ thị (EU) 2016/680, thì đánh giá tác động về quyền cơ bản được đề cập trong đoạn 1 của Điều này sẽ bổ sung cho đánh giá tác động bảo vệ dữ liệu đó. 5. Văn phòng AI sẽ xây dựng mẫu bảng câu hỏi, bao gồm cả thông qua công cụ tự động, để tạo điều kiện thuận lợi cho người triển khai tuân thủ các nghĩa vụ của mình theo Điều này một cách đơn giản. ( Điều 27 Đạo luật trí tuệ nhân tạo EU)
Nguồn; Trung tâm NC&PT hội nhập KH&CN quốc tế liên kết nguồn tin và Dịch Chương 3, Đạo luật Trí tuệ Nhân tạo EU của Liên minh Châu ÂU
Your email address will not be published. Required fields are marked *
Comment
Name *
Email *
Website
CAPTCHA Code*