Mới đây Liên minh Châu Âu EU đã ban hành Đạo luật trí tuệ nhân tạo, một trong các nội dung rất quan trọng là luật hóa tinh thần đổi mới sáng tạo trong quản lý AI, xây dựng, áp dụng, vận hành, đánh giá, điều chỉnh các cơ chế thử nghiệm (sandbox) trong quản lý AI, các nội dung bao gồm. 1.Cơ chế thử nghiệm quản lý AI 1. Các quốc gia thành viên phải đảm bảo rằng các cơ quan có thẩm quyền của mình thiết lập ít nhất một cơ chế thử nghiệm (sandbox) quản lý AI ở cấp quốc gia, sẽ đi vào hoạt động vào ngày 2 tháng 8 năm 2026. Sandbox đó cũng có thể được thiết lập chung với các cơ quan có thẩm quyền của các quốc gia thành viên khác. Ủy ban có thể cung cấp hỗ trợ kỹ thuật, tư vấn và công cụ để thiết lập và vận hành các sandbox quản lý AI. Nghĩa vụ theo tiểu đoạn đầu tiên cũng có thể được thực hiện bằng cách tham gia vào một sandbox hiện có miễn là sự tham gia đó cung cấp mức độ bao phủ quốc gia tương đương cho các quốc gia thành viên tham gia. 2. Cũng có thể thành lập các cơ chế thử nghiệm quản lý AI bổ sung ở cấp khu vực hoặc địa phương hoặc được thành lập chung với các cơ quan có thẩm quyền của các quốc gia thành viên khác. 3. Cơ quan giám sát bảo vệ dữ liệu châu Âu cũng có thể thiết lập một khuôn khổ thử nghiệm quản lý AI cho các tổ chức, cơ quan, văn phòng và đơn vị của Liên minh và có thể thực hiện các vai trò và nhiệm vụ của các cơ quan có thẩm quyền quốc gia theo Chương này. 4. Các quốc gia thành viên phải đảm bảo rằng các cơ quan có thẩm quyền được đề cập trong các đoạn 1 và 2 phân bổ đủ nguồn lực để tuân thủ Điều này một cách hiệu quả và kịp thời. Khi thích hợp, các cơ quan có thẩm quyền quốc gia sẽ hợp tác với các cơ quan có liên quan khác và có thể cho phép các bên khác trong hệ sinh thái AI tham gia. Điều này sẽ không ảnh hưởng đến các sandbox quản lý khác được thành lập theo luật của Liên minh hoặc luật quốc gia. Các quốc gia thành viên phải đảm bảo mức độ hợp tác phù hợp giữa các cơ quan giám sát các sandbox khác đó và các cơ quan có thẩm quyền quốc gia. 5. Các sandbox quản lý AI được thành lập theo khoản 1 sẽ cung cấp một môi trường được kiểm soát thúc đẩy sự đổi mới và tạo điều kiện cho việc phát triển, đào tạo, thử nghiệm và xác thực các hệ thống AI sáng tạo trong một thời gian giới hạn trước khi chúng được đưa ra thị trường hoặc đưa vào sử dụng theo một kế hoạch sandbox cụ thể đã được thỏa thuận giữa các nhà cung cấp hoặc các nhà cung cấp tiềm năng và cơ quan có thẩm quyền. Các sandbox như vậy có thể bao gồm thử nghiệm trong các điều kiện thực tế được giám sát tại đó. 6. Các cơ quan có thẩm quyền sẽ cung cấp, khi thích hợp, hướng dẫn, giám sát và hỗ trợ trong khuôn khổ thử nghiệm quản lý AI nhằm xác định rủi ro, đặc biệt là đối với các quyền cơ bản, sức khỏe và an toàn, thử nghiệm, các biện pháp giảm thiểu và hiệu quả của chúng liên quan đến các nghĩa vụ và yêu cầu của Quy định này và, khi có liên quan, luật pháp quốc gia và Liên minh khác được giám sát trong khuôn khổ thử nghiệm. 7. Các cơ quan có thẩm quyền sẽ cung cấp cho các nhà cung cấp và các nhà cung cấp tiềm năng tham gia vào sandbox quản lý AI hướng dẫn về kỳ vọng quản lý và cách thực hiện các yêu cầu và nghĩa vụ được nêu trong Quy định này. Theo yêu cầu của nhà cung cấp hoặc nhà cung cấp tiềm năng của hệ thống AI, cơ quan có thẩm quyền sẽ cung cấp bằng chứng bằng văn bản về các hoạt động đã thực hiện thành công trong sandbox. Cơ quan có thẩm quyền cũng sẽ cung cấp báo cáo xuất cảnh nêu chi tiết các hoạt động đã thực hiện trong sandbox và các kết quả và kết quả học tập liên quan. Các nhà cung cấp có thể sử dụng tài liệu đó để chứng minh việc tuân thủ Quy định này thông qua quy trình đánh giá sự phù hợp hoặc các hoạt động giám sát thị trường có liên quan. Về vấn đề này, các báo cáo xuất cảnh và bằng chứng bằng văn bản do cơ quan có thẩm quyền quốc gia cung cấp sẽ được các cơ quan giám sát thị trường và các cơ quan được thông báo xem xét tích cực, nhằm mục đích đẩy nhanh các thủ tục đánh giá sự phù hợp ở mức độ hợp lý. 8. Theo các điều khoản bảo mật trong Điều 78 và với sự đồng ý của nhà cung cấp hoặc nhà cung cấp tiềm năng, Ủy ban và Hội đồng sẽ được phép truy cập các báo cáo thoát và sẽ xem xét chúng, khi thích hợp, khi thực hiện nhiệm vụ của mình theo Quy định này. Nếu cả nhà cung cấp hoặc nhà cung cấp tiềm năng và cơ quan có thẩm quyền quốc gia đồng ý rõ ràng, báo cáo thoát có thể được công khai thông qua nền tảng thông tin duy nhất được đề cập trong Điều này. 9. Việc thành lập các khuôn khổ pháp lý thử nghiệm về AI sẽ nhằm mục đích đóng góp vào các mục tiêu sau: (a) cải thiện tính chắc chắn về mặt pháp lý để đạt được sự tuân thủ theo quy định của Quy định này hoặc, khi có liên quan, luật pháp quốc gia và Liên minh hiện hành khác; (b) hỗ trợ chia sẻ các thông lệ tốt nhất thông qua hợp tác với các cơ quan có liên quan đến khuôn khổ pháp lý về AI; (c) thúc đẩy đổi mới sáng tạo và khả năng cạnh tranh và tạo điều kiện phát triển hệ sinh thái AI; (d) đóng góp vào việc học tập quy định dựa trên bằng chứng; (e) tạo điều kiện thuận lợi và đẩy nhanh việc tiếp cận thị trường Liên minh đối với các hệ thống AI, đặc biệt khi được cung cấp bởi các doanh nghiệp vừa và nhỏ, bao gồm cả các công ty khởi nghiệp. 10. Các cơ quan có thẩm quyền quốc gia phải đảm bảo rằng, trong phạm vi các hệ thống AI sáng tạo liên quan đến việc xử lý dữ liệu cá nhân hoặc nằm trong phạm vi giám sát của các cơ quan quốc gia khác hoặc các cơ quan có thẩm quyền cung cấp hoặc hỗ trợ quyền truy cập dữ liệu, các cơ quan bảo vệ dữ liệu quốc gia và các cơ quan quốc gia hoặc có thẩm quyền khác đó có liên quan đến hoạt động của hộp cát quản lý AI và tham gia vào việc giám sát các khía cạnh đó trong phạm vi nhiệm vụ và quyền hạn tương ứng của họ. 11. Các sandbox quản lý AI sẽ không ảnh hưởng đến quyền giám sát hoặc quyền khắc phục của các cơ quan có thẩm quyền giám sát các sandbox, bao gồm cả ở cấp khu vực hoặc địa phương. Bất kỳ rủi ro đáng kể nào đối với sức khỏe, sự an toàn và các quyền cơ bản được xác định trong quá trình phát triển và thử nghiệm các hệ thống AI như vậy sẽ dẫn đến việc giảm thiểu đầy đủ. Các cơ quan có thẩm quyền quốc gia sẽ có quyền tạm thời hoặc vĩnh viễn đình chỉ quá trình thử nghiệm hoặc việc tham gia vào sandbox nếu không thể giảm thiểu hiệu quả và sẽ thông báo cho Văn phòng AI về quyết định đó. Các cơ quan có thẩm quyền quốc gia sẽ thực hiện các quyền giám sát của mình trong phạm vi của luật có liên quan, sử dụng các quyền tùy ý của mình khi thực hiện các điều khoản pháp lý liên quan đến một dự án sandbox quản lý AI cụ thể, với mục tiêu hỗ trợ đổi mới trong AI tại Liên minh. 12. Các nhà cung cấp và nhà cung cấp tiềm năng tham gia vào sandbox quản lý AI sẽ vẫn phải chịu trách nhiệm theo luật trách nhiệm pháp lý của Liên minh và quốc gia hiện hành đối với bất kỳ thiệt hại nào gây ra cho bên thứ ba do kết quả của thử nghiệm diễn ra trong sandbox. Tuy nhiên, với điều kiện là các nhà cung cấp tiềm năng tuân thủ kế hoạch cụ thể và các điều khoản và điều kiện tham gia của họ và thực hiện theo hướng dẫn của cơ quan có thẩm quyền quốc gia một cách thiện chí, thì các cơ quan này sẽ không áp dụng bất kỳ khoản tiền phạt hành chính nào đối với hành vi vi phạm Quy định này. Trong trường hợp các cơ quan có thẩm quyền khác chịu trách nhiệm về luật Liên minh và quốc gia khác đã tích cực tham gia vào việc giám sát hệ thống AI trong sandbox và cung cấp hướng dẫn để tuân thủ, thì sẽ không áp dụng bất kỳ khoản tiền phạt hành chính nào liên quan đến luật đó. 13. Các khuôn khổ pháp lý thử nghiệm về AI sẽ được thiết kế và triển khai theo cách tạo điều kiện thuận lợi cho sự hợp tác xuyên biên giới giữa các cơ quan có thẩm quyền quốc gia khi cần thiết. 14. Các cơ quan có thẩm quyền quốc gia sẽ phối hợp các hoạt động của mình và hợp tác trong khuôn khổ của Hội đồng. 15. Các cơ quan có thẩm quyền quốc gia sẽ thông báo cho Văn phòng AI và Hội đồng về việc thành lập một sandbox, và có thể yêu cầu họ hỗ trợ và hướng dẫn. Văn phòng AI sẽ công khai danh sách các sandbox đã có và đang được lên kế hoạch và cập nhật danh sách này để khuyến khích nhiều tương tác hơn trong các sandbox quản lý AI và hợp tác xuyên biên giới. 16. Các cơ quan có thẩm quyền quốc gia sẽ nộp báo cáo thường niên cho Văn phòng AI và Hội đồng, từ một năm sau khi thành lập hộp thử nghiệm quản lý AI và hàng năm sau đó cho đến khi hộp thử nghiệm chấm dứt, và báo cáo cuối cùng. Các báo cáo đó sẽ cung cấp thông tin về tiến độ và kết quả thực hiện các hộp thử nghiệm đó, bao gồm các thông lệ tốt nhất, sự cố, bài học kinh nghiệm và khuyến nghị về việc thiết lập chúng và, khi có liên quan, về việc áp dụng và có thể sửa đổi Quy định này, bao gồm các hành vi được ủy quyền và thực hiện của nó, và về việc áp dụng luật Liên minh khác do các cơ quan có thẩm quyền giám sát trong hộp thử nghiệm. Các cơ quan có thẩm quyền quốc gia sẽ công khai các báo cáo thường niên đó hoặc tóm tắt của chúng cho công chúng, trực tuyến. Ủy ban sẽ, khi thích hợp, xem xét các báo cáo thường niên khi thực hiện các nhiệm vụ của mình theo Quy định này. 17. Ủy ban sẽ phát triển một giao diện duy nhất và chuyên dụng chứa tất cả thông tin có liên quan đến các hộp cát quản lý AI để cho phép các bên liên quan tương tác với các hộp cát quản lý AI và đưa ra các câu hỏi với các cơ quan có thẩm quyền, và để tìm kiếm hướng dẫn không ràng buộc về sự phù hợp của các sản phẩm, dịch vụ, mô hình kinh doanh sáng tạo nhúng công nghệ AI, theo Điều 62 (1), điểm (c). Ủy ban sẽ chủ động phối hợp với các cơ quan có thẩm quyền quốc gia, khi có liên quan. ( Điều 57 Đạo luật AI của EU) 2. Các sắp xếp chi tiết và hoạt động của các cơ chế thử nghiệm quản lý AI 1. Để tránh sự phân mảnh trên toàn Liên minh, Ủy ban sẽ thông qua các đạo luật thực hiện nêu rõ các sắp xếp chi tiết cho việc thành lập, phát triển, triển khai, vận hành và giám sát các hộp cát quản lý AI. Các đạo luật thực hiện sẽ bao gồm các nguyên tắc chung về các vấn đề sau: (a) tiêu chí đủ điều kiện và lựa chọn để tham gia vào chương trình thử nghiệm quản lý AI; (b) các thủ tục áp dụng, tham gia, giám sát, thoát khỏi và chấm dứt chương trình thử nghiệm theo quy định về AI, bao gồm kế hoạch thử nghiệm và báo cáo thoát khỏi chương trình; (c) các điều khoản và điều kiện áp dụng cho người tham gia. Những hành vi thực hiện đó sẽ được thông qua theo thủ tục kiểm tra được đề cập trong Điều 98 (2). 2. Các hành vi thực hiện quy định tại khoản 1 phải bảo đảm: (a) rằng các hộp thử nghiệm quản lý AI được mở cho bất kỳ nhà cung cấp hoặc nhà cung cấp tiềm năng nào của hệ thống AI đáp ứng các tiêu chí đủ điều kiện và lựa chọn, phải minh bạch và công bằng, và các cơ quan có thẩm quyền quốc gia sẽ thông báo cho người nộp đơn về quyết định của họ trong vòng ba tháng kể từ ngày nộp đơn; (b) rằng các hộp cát quản lý AI cho phép tiếp cận rộng rãi và bình đẳng và đáp ứng nhu cầu tham gia; các nhà cung cấp và nhà cung cấp tiềm năng cũng có thể nộp đơn đăng ký hợp tác với các đơn vị triển khai và các bên thứ ba có liên quan khác; (c) các sắp xếp chi tiết và các điều kiện liên quan đến các cơ chế thử nghiệm quản lý AI hỗ trợ, ở mức độ tốt nhất có thể, tính linh hoạt cho các cơ quan có thẩm quyền quốc gia trong việc thành lập và vận hành các cơ chế thử nghiệm quản lý AI của họ; (d) việc tiếp cận các hộp thử nghiệm quy định về AI là miễn phí đối với các doanh nghiệp vừa và nhỏ, bao gồm cả các công ty khởi nghiệp, mà không ảnh hưởng đến chi phí đặc biệt mà các cơ quan có thẩm quyền quốc gia có thể thu hồi theo cách công bằng và tương xứng; (e) rằng họ tạo điều kiện cho các nhà cung cấp và nhà cung cấp tiềm năng, thông qua các kết quả học tập của các hộp thử nghiệm quản lý AI, trong việc tuân thủ các nghĩa vụ đánh giá sự phù hợp theo Quy định này và việc áp dụng tự nguyện các quy tắc ứng xử được đề cập trong Điều 95 ; (f) các khuôn khổ thử nghiệm pháp lý AI tạo điều kiện cho sự tham gia của các tác nhân liên quan khác trong hệ sinh thái AI, chẳng hạn như các cơ quan được thông báo và các tổ chức tiêu chuẩn hóa, các doanh nghiệp vừa và nhỏ, bao gồm các công ty khởi nghiệp, doanh nghiệp, nhà đổi mới, các cơ sở thử nghiệm và thử nghiệm, phòng thí nghiệm nghiên cứu và thử nghiệm và các Trung tâm đổi mới kỹ thuật số châu Âu, các trung tâm xuất sắc, các nhà nghiên cứu cá nhân, nhằm cho phép và tạo điều kiện cho sự hợp tác với các khu vực công và tư nhân; (g) các thủ tục, quy trình và yêu cầu hành chính đối với việc áp dụng, lựa chọn, tham gia và thoát khỏi khuôn khổ thử nghiệm quản lý AI phải đơn giản, dễ hiểu và được truyền đạt rõ ràng để tạo điều kiện thuận lợi cho các doanh nghiệp vừa và nhỏ, bao gồm cả các công ty khởi nghiệp, có năng lực pháp lý và hành chính hạn chế, tham gia và được hợp lý hóa trên toàn Liên minh, nhằm tránh tình trạng phân mảnh và việc tham gia vào khuôn khổ thử nghiệm quản lý AI do một Quốc gia thành viên hoặc Cơ quan giám sát bảo vệ dữ liệu châu Âu thành lập phải được công nhận chung và thống nhất, có cùng hiệu lực pháp lý trên toàn Liên minh; (h) việc tham gia vào hộp thử nghiệm quản lý AI bị giới hạn trong khoảng thời gian phù hợp với mức độ phức tạp và quy mô của dự án và có thể được cơ quan có thẩm quyền quốc gia gia hạn; (i) các hộp cát quản lý AI tạo điều kiện thuận lợi cho việc phát triển các công cụ và cơ sở hạ tầng để thử nghiệm, đánh giá chuẩn, đánh giá và giải thích các chiều của hệ thống AI có liên quan đến việc học theo quy định, chẳng hạn như độ chính xác, độ mạnh mẽ và an ninh mạng, cũng như các biện pháp giảm thiểu rủi ro đối với các quyền cơ bản và xã hội nói chung. 3. Các nhà cung cấp tiềm năng trong các hộp thử nghiệm quy định về AI, đặc biệt là các doanh nghiệp vừa và nhỏ và các công ty khởi nghiệp, sẽ được hướng dẫn, khi có liên quan, đến các dịch vụ trước khi triển khai như hướng dẫn thực hiện Quy định này, đến các dịch vụ gia tăng giá trị khác như hỗ trợ về tài liệu chuẩn hóa và chứng nhận, cơ sở thử nghiệm và thử nghiệm, Trung tâm đổi mới kỹ thuật số châu Âu và các trung tâm xuất sắc. 4. Khi các cơ quan có thẩm quyền quốc gia xem xét cho phép thử nghiệm trong điều kiện thực tế được giám sát trong khuôn khổ của một hộp cát quản lý AI được thành lập theo Điều này, họ sẽ nhất trí cụ thể các điều khoản và điều kiện của thử nghiệm đó và đặc biệt là các biện pháp bảo vệ phù hợp với những người tham gia, nhằm bảo vệ các quyền cơ bản, sức khỏe và sự an toàn. Khi thích hợp, họ sẽ hợp tác với các cơ quan có thẩm quyền quốc gia khác nhằm đảm bảo các hoạt động nhất quán trên toàn Liên minh. ( Điều 58 Đạo luật AI của EU) 3. Xử lý thêm dữ liệu cá nhân để phát triển một số hệ thống AI vì lợi ích công cộng trong Chương trình thử nghiệm quản lý AI 1. Trong khuôn khổ thử nghiệm quản lý AI, dữ liệu cá nhân được thu thập hợp pháp cho các mục đích khác có thể được xử lý chỉ nhằm mục đích phát triển, đào tạo và thử nghiệm một số hệ thống AI nhất định trong khuôn khổ thử nghiệm khi tất cả các điều kiện sau được đáp ứng: (a) Các hệ thống AI sẽ được phát triển để bảo vệ lợi ích công cộng đáng kể của một cơ quan công quyền hoặc một cá nhân hoặc pháp nhân khác và trong một hoặc nhiều lĩnh vực sau: (i) an toàn công cộng và sức khỏe cộng đồng, bao gồm phát hiện bệnh tật, chẩn đoán, phòng ngừa, kiểm soát và điều trị và cải thiện hệ thống chăm sóc sức khỏe; (ii) mức độ bảo vệ và cải thiện cao chất lượng môi trường, bảo vệ đa dạng sinh học, bảo vệ chống ô nhiễm, các biện pháp chuyển đổi xanh, các biện pháp giảm thiểu và thích ứng với biến đổi khí hậu; (iii) tính bền vững của năng lượng; (iv) sự an toàn và khả năng phục hồi của hệ thống giao thông và tính di động, cơ sở hạ tầng và mạng lưới quan trọng; (v) hiệu quả và chất lượng của hành chính công và dịch vụ công; (b) dữ liệu được xử lý là cần thiết để tuân thủ một hoặc nhiều yêu cầu được đề cập trong Chương III , Mục 2 khi các yêu cầu đó không thể được đáp ứng hiệu quả bằng cách xử lý dữ liệu ẩn danh, tổng hợp hoặc dữ liệu phi cá nhân khác; (c) có các cơ chế giám sát hiệu quả để xác định xem có bất kỳ rủi ro cao nào đối với quyền và tự do của chủ thể dữ liệu, như được đề cập trong Điều 35 của Quy định (EU) 2016/679 và trong Điều 39 của Quy định (EU) 2018/1725, có thể phát sinh trong quá trình thử nghiệm hộp cát hay không, cũng như các cơ chế ứng phó để kịp thời giảm thiểu những rủi ro đó và, khi cần thiết, dừng việc xử lý; (d) bất kỳ dữ liệu cá nhân nào được xử lý trong bối cảnh thử nghiệm đều nằm trong môi trường xử lý dữ liệu riêng biệt, biệt lập và được bảo vệ dưới sự kiểm soát của nhà cung cấp tiềm năng và chỉ những người được ủy quyền mới có quyền truy cập vào những dữ liệu đó; (e) nhà cung cấp chỉ có thể chia sẻ thêm dữ liệu ban đầu được thu thập theo luật bảo vệ dữ liệu của Liên minh; bất kỳ dữ liệu cá nhân nào được tạo trong hộp thử nghiệm đều không thể được chia sẻ bên ngoài hộp thử nghiệm; (f) bất kỳ quá trình xử lý dữ liệu cá nhân nào trong bối cảnh thử nghiệm không dẫn đến các biện pháp hoặc quyết định ảnh hưởng đến chủ thể dữ liệu cũng như không ảnh hưởng đến việc áp dụng các quyền của họ được quy định trong luật Liên minh về bảo vệ dữ liệu cá nhân; (g) bất kỳ dữ liệu cá nhân nào được xử lý trong bối cảnh thử nghiệm đều được bảo vệ bằng các biện pháp kỹ thuật và tổ chức phù hợp và bị xóa sau khi quá trình tham gia thử nghiệm chấm dứt hoặc dữ liệu cá nhân đã hết thời hạn lưu giữ; (h) nhật ký xử lý dữ liệu cá nhân trong bối cảnh thử nghiệm được lưu giữ trong suốt thời gian tham gia thử nghiệm, trừ khi luật pháp của Liên minh hoặc quốc gia có quy định khác; (i) mô tả đầy đủ và chi tiết về quy trình và cơ sở lý luận đằng sau việc đào tạo, thử nghiệm và xác thực hệ thống AI được lưu giữ cùng với kết quả thử nghiệm như một phần của tài liệu kỹ thuật được đề cập trong Phụ lục IV ; (j) tóm tắt ngắn gọn về dự án AI được phát triển trong hộp cát, các mục tiêu và kết quả mong đợi của dự án được công bố trên trang web của các cơ quan có thẩm quyền; nghĩa vụ này không bao gồm dữ liệu hoạt động nhạy cảm liên quan đến hoạt động của cơ quan thực thi pháp luật, kiểm soát biên giới, nhập cư hoặc tị nạn. 2. Vì mục đích phòng ngừa, điều tra, phát hiện hoặc truy tố tội phạm hoặc thi hành hình phạt hình sự, bao gồm bảo vệ và ngăn ngừa các mối đe dọa đối với an ninh công cộng, dưới sự kiểm soát và trách nhiệm của cơ quan thực thi pháp luật, việc xử lý dữ liệu cá nhân trong các hộp cát quản lý AI sẽ dựa trên luật cụ thể của Liên minh hoặc quốc gia và tuân theo các điều kiện tích lũy giống như được đề cập trong đoạn 1. 3. Mục 1 không ảnh hưởng đến luật Liên minh hoặc luật quốc gia loại trừ việc xử lý dữ liệu cá nhân cho các mục đích khác ngoài những mục đích được nêu rõ trong luật đó, cũng như luật Liên minh hoặc luật quốc gia đặt ra cơ sở cho việc xử lý dữ liệu cá nhân cần thiết cho mục đích phát triển, thử nghiệm hoặc đào tạo các hệ thống AI sáng tạo hoặc bất kỳ cơ sở pháp lý nào khác, tuân thủ luật Liên minh về bảo vệ dữ liệu cá nhân. ( Điều 59 Đạo luật AI của EU)
4. Kiểm tra các hệ thống AI có rủi ro cao trong điều kiện thực tế bên ngoài các cơ chế thử nghiệm quản lý AI 1. Việc thử nghiệm các hệ thống AI có rủi ro cao trong điều kiện thực tế bên ngoài các hộp thử nghiệm quy định về AI có thể được tiến hành bởi các nhà cung cấp hoặc nhà cung cấp tiềm năng của các hệ thống AI có rủi ro cao được liệt kê trong Phụ lục III , theo Điều này và kế hoạch thử nghiệm thực tế được đề cập trong Điều này, mà không ảnh hưởng đến các lệnh cấm theo Điều 5. Ủy ban sẽ, thông qua các hành vi thực hiện, chỉ định các yếu tố chi tiết của kế hoạch thử nghiệm thực tế. Các hành vi thực hiện đó sẽ được thông qua theo thủ tục kiểm tra được đề cập trong Điều 98 (2). Đoạn này sẽ không ảnh hưởng đến luật của Liên minh hoặc luật quốc gia về việc thử nghiệm trong điều kiện thực tế của các hệ thống AI có rủi ro cao liên quan đến các sản phẩm thuộc phạm vi điều chỉnh của luật điều chỉnh của Liên minh được liệt kê trong Phụ lục I. 2. Nhà cung cấp hoặc nhà cung cấp tiềm năng có thể tiến hành thử nghiệm các hệ thống AI có rủi ro cao được đề cập trong Phụ lục III trong điều kiện thực tế bất kỳ lúc nào trước khi đưa ra thị trường hoặc đưa hệ thống AI vào sử dụng một mình hoặc hợp tác với một hoặc nhiều đơn vị triển khai hoặc đơn vị triển khai tiềm năng. 3. Việc thử nghiệm các hệ thống AI có rủi ro cao trong điều kiện thực tế theo Điều này sẽ không ảnh hưởng đến bất kỳ đánh giá đạo đức nào được yêu cầu theo luật của Liên minh hoặc luật quốc gia. 4. Nhà cung cấp hoặc nhà cung cấp tiềm năng chỉ có thể tiến hành thử nghiệm trong điều kiện thực tế khi đáp ứng tất cả các điều kiện sau: (a) nhà cung cấp hoặc nhà cung cấp tiềm năng đã lập kế hoạch thử nghiệm thực tế và nộp cho cơ quan giám sát thị trường tại Quốc gia thành viên nơi thử nghiệm trong điều kiện thực tế sẽ được tiến hành; (b) cơ quan giám sát thị trường tại Quốc gia thành viên nơi tiến hành thử nghiệm trong điều kiện thực tế đã phê duyệt thử nghiệm trong điều kiện thực tế và kế hoạch thử nghiệm trong điều kiện thực tế; trường hợp cơ quan giám sát thị trường không trả lời trong vòng 30 ngày, thì việc thử nghiệm trong điều kiện thực tế và kế hoạch thử nghiệm trong điều kiện thực tế sẽ được hiểu là đã được phê duyệt; trường hợp luật quốc gia không quy định về sự chấp thuận ngầm, thì việc thử nghiệm trong điều kiện thực tế sẽ vẫn phải tuân theo một sự cho phép; (c) nhà cung cấp hoặc nhà cung cấp tiềm năng, ngoại trừ các nhà cung cấp hoặc nhà cung cấp tiềm năng của các hệ thống AI có rủi ro cao được đề cập tại các điểm 1, 6 và 7 của Phụ lục III trong các lĩnh vực thực thi pháp luật, di cư, tị nạn và quản lý kiểm soát biên giới, và các hệ thống AI có rủi ro cao được đề cập tại điểm 2 của Phụ lục III đã đăng ký thử nghiệm trong điều kiện thực tế theo Điều 71 (4) với một số nhận dạng duy nhất trên toàn Liên minh và với thông tin được chỉ định trong Phụ lục IX ; nhà cung cấp hoặc nhà cung cấp tiềm năng của các hệ thống AI có rủi ro cao được đề cập tại các điểm 1, 6 và 7 của Phụ lục III trong các lĩnh vực thực thi pháp luật, di cư, tị nạn và quản lý kiểm soát biên giới, đã đăng ký thử nghiệm trong điều kiện thực tế trong phần không công khai an toàn của cơ sở dữ liệu EU theo Điều 49 (4), điểm (d), với một số nhận dạng duy nhất trên toàn Liên minh và với thông tin được chỉ định trong đó; nhà cung cấp hoặc nhà cung cấp tiềm năng của các hệ thống AI có rủi ro cao được đề cập tại điểm 2 của Phụ lục III đã đăng ký thử nghiệm trong điều kiện thực tế theo Điều 49 (5); (d) nhà cung cấp hoặc nhà cung cấp tiềm năng tiến hành thử nghiệm trong điều kiện thực tế được thành lập tại Liên minh hoặc đã chỉ định một đại diện hợp pháp được thành lập tại Liên minh; (e) dữ liệu được thu thập và xử lý cho mục đích thử nghiệm trong điều kiện thực tế chỉ được chuyển cho các nước thứ ba với điều kiện các biện pháp bảo vệ phù hợp và có thể áp dụng theo luật của Liên minh được thực hiện; (f) việc thử nghiệm trong điều kiện thực tế không kéo dài hơn mức cần thiết để đạt được mục tiêu của nó và trong mọi trường hợp không quá sáu tháng, có thể được gia hạn thêm sáu tháng nữa, tùy thuộc vào việc nhà cung cấp hoặc nhà cung cấp tiềm năng thông báo trước cho cơ quan giám sát thị trường, kèm theo lời giải thích về nhu cầu gia hạn như vậy; (g) đối tượng thử nghiệm trong điều kiện thực tế là những người thuộc nhóm dễ bị tổn thương do tuổi tác hoặc khuyết tật, được bảo vệ phù hợp; (h) khi nhà cung cấp hoặc nhà cung cấp tiềm năng tổ chức thử nghiệm trong điều kiện thực tế với sự hợp tác của một hoặc nhiều đơn vị triển khai hoặc đơn vị triển khai tiềm năng, thì các đơn vị triển khai này đã được thông báo về mọi khía cạnh của thử nghiệm có liên quan đến quyết định tham gia của họ và được cung cấp hướng dẫn liên quan về việc sử dụng hệ thống AI được đề cập trong Điều 13 ; nhà cung cấp hoặc nhà cung cấp tiềm năng và đơn vị triển khai hoặc đơn vị triển khai tiềm năng sẽ ký kết một thỏa thuận nêu rõ vai trò và trách nhiệm của họ nhằm đảm bảo tuân thủ các điều khoản về thử nghiệm trong điều kiện thực tế theo Quy định này và theo luật hiện hành khác của Liên minh và quốc gia; (i) đối tượng thử nghiệm trong điều kiện thực tế đã đồng ý có thông tin theo Điều 61 , hoặc trong trường hợp thực thi pháp luật, khi việc tìm kiếm sự đồng ý có thông tin sẽ ngăn cản hệ thống AI được thử nghiệm, thì bản thân quá trình thử nghiệm và kết quả của quá trình thử nghiệm trong điều kiện thực tế sẽ không có bất kỳ tác động tiêu cực nào đến đối tượng và dữ liệu cá nhân của họ sẽ bị xóa sau khi quá trình thử nghiệm được thực hiện; (j) việc thử nghiệm trong điều kiện thực tế được giám sát hiệu quả bởi nhà cung cấp hoặc nhà cung cấp tiềm năng, cũng như bởi người triển khai hoặc người triển khai tiềm năng thông qua những người có trình độ phù hợp trong lĩnh vực có liên quan và có năng lực, đào tạo và thẩm quyền cần thiết để thực hiện nhiệm vụ của họ; (k) các dự đoán, khuyến nghị hoặc quyết định của hệ thống AI có thể bị đảo ngược và bỏ qua một cách hiệu quả. 5. Bất kỳ đối tượng nào của thử nghiệm trong điều kiện thực tế, hoặc người đại diện được chỉ định hợp pháp của họ, nếu phù hợp, có thể, mà không có bất kỳ thiệt hại nào phát sinh và không cần phải cung cấp bất kỳ lý do chính đáng nào, rút khỏi thử nghiệm bất kỳ lúc nào bằng cách thu hồi sự đồng ý có thông tin của họ và có thể yêu cầu xóa ngay lập tức và vĩnh viễn dữ liệu cá nhân của họ. Việc thu hồi sự đồng ý có thông tin sẽ không ảnh hưởng đến các hoạt động đã thực hiện. 6. Theo Điều 75 , các Quốc gia thành viên sẽ trao cho các cơ quan giám sát thị trường của mình các quyền yêu cầu các nhà cung cấp và các nhà cung cấp tiềm năng cung cấp thông tin, thực hiện các cuộc thanh tra từ xa hoặc tại chỗ không báo trước và thực hiện các cuộc kiểm tra về việc tiến hành thử nghiệm trong điều kiện thực tế và các hệ thống AI có rủi ro cao liên quan. Các cơ quan giám sát thị trường sẽ sử dụng các quyền đó để đảm bảo phát triển an toàn các thử nghiệm trong điều kiện thực tế. 7. Bất kỳ sự cố nghiêm trọng nào được xác định trong quá trình thử nghiệm trong điều kiện thực tế phải được báo cáo cho cơ quan giám sát thị trường quốc gia theo Điều 73. Nhà cung cấp hoặc nhà cung cấp tiềm năng phải áp dụng các biện pháp giảm thiểu ngay lập tức hoặc nếu không, phải tạm dừng thử nghiệm trong điều kiện thực tế cho đến khi việc giảm thiểu đó diễn ra hoặc chấm dứt theo cách khác. Nhà cung cấp hoặc nhà cung cấp tiềm năng phải thiết lập một quy trình để thu hồi nhanh chóng hệ thống AI sau khi kết thúc thử nghiệm trong điều kiện thực tế. 8. Nhà cung cấp hoặc nhà cung cấp tiềm năng phải thông báo cho cơ quan giám sát thị trường quốc gia tại Quốc gia thành viên nơi tiến hành thử nghiệm trong điều kiện thực tế về việc đình chỉ hoặc chấm dứt thử nghiệm trong điều kiện thực tế và kết quả cuối cùng. 9. Nhà cung cấp hoặc nhà cung cấp tiềm năng sẽ chịu trách nhiệm theo luật trách nhiệm pháp lý của Liên minh và quốc gia hiện hành đối với bất kỳ thiệt hại nào gây ra trong quá trình thử nghiệm của họ trong điều kiện thực tế. ( Điều 60 Đạo luật AI của EU)
5. Sự đồng ý có thông tin để tham gia thử nghiệm trong điều kiện thực tế bên ngoài các cơ chế thử nghiệm quản lý AI 1. Với mục đích thử nghiệm trong điều kiện thực tế theo Điều 60 , phải có sự đồng ý tự nguyện và được thông báo từ đối tượng thử nghiệm trước khi họ tham gia thử nghiệm và sau khi họ được thông báo đầy đủ, rõ ràng, có liên quan và dễ hiểu về: (a) bản chất và mục tiêu của việc thử nghiệm trong điều kiện thực tế và những bất tiện có thể xảy ra khi tham gia; (b) các điều kiện mà việc thử nghiệm trong điều kiện thực tế sẽ được tiến hành, bao gồm thời lượng dự kiến của đối tượng hoặc sự tham gia của các đối tượng; (c) quyền của họ và các bảo đảm liên quan đến sự tham gia của họ, đặc biệt là quyền từ chối tham gia và quyền rút khỏi việc thử nghiệm trong điều kiện thực tế bất kỳ lúc nào mà không gây ra bất kỳ thiệt hại nào và không phải đưa ra bất kỳ lý do chính đáng nào; (d) các sắp xếp để yêu cầu đảo ngược hoặc bỏ qua các dự đoán, khuyến nghị hoặc quyết định của hệ thống AI; (e) số nhận dạng duy nhất trên toàn Liên minh về việc thử nghiệm trong điều kiện thực tế theo Điều 60 (4) điểm (c) và thông tin liên lạc của nhà cung cấp hoặc đại diện hợp pháp của nhà cung cấp mà từ đó có thể có thêm thông tin. 2. Bản đồng ý được thông báo phải được ghi ngày tháng và lưu lại, đồng thời phải đưa một bản sao cho đối tượng thử nghiệm hoặc người đại diện hợp pháp của họ. ( Điều 61 Đạo luật AI của EU)
6. Các biện pháp dành cho Nhà cung cấp và Nhà triển khai, đặc biệt là các Doanh nghiệp vừa và nhỏ, Bao gồm cả các Doanh nghiệp khởi nghiệp 1. Các quốc gia thành viên sẽ thực hiện các hành động sau: (a) cung cấp cho các doanh nghiệp vừa và nhỏ, bao gồm cả các công ty khởi nghiệp, có văn phòng đã đăng ký hoặc chi nhánh tại Liên minh, quyền ưu tiên tiếp cận các cơ chế thử nghiệm quản lý AI, trong phạm vi các doanh nghiệp này đáp ứng các điều kiện đủ điều kiện và tiêu chí lựa chọn; quyền ưu tiên tiếp cận này sẽ không ngăn cản các doanh nghiệp vừa và nhỏ khác, bao gồm cả các công ty khởi nghiệp, ngoài những doanh nghiệp được đề cập trong đoạn này, được tiếp cận cơ chế thử nghiệm quản lý AI, với điều kiện các doanh nghiệp này cũng đáp ứng các điều kiện đủ điều kiện và tiêu chí lựa chọn; (b) tổ chức các hoạt động nâng cao nhận thức và đào tạo cụ thể về việc áp dụng Quy định này phù hợp với nhu cầu của các doanh nghiệp vừa và nhỏ, bao gồm các công ty khởi nghiệp, đơn vị triển khai và nếu phù hợp, các cơ quan công quyền địa phương; (c) sử dụng các kênh chuyên dụng hiện có và khi thích hợp, thiết lập các kênh mới để liên lạc với các doanh nghiệp vừa và nhỏ bao gồm các công ty khởi nghiệp, đơn vị triển khai, các đơn vị đổi mới khác và, nếu thích hợp, các cơ quan công quyền địa phương để cung cấp lời khuyên và trả lời các câu hỏi về việc thực hiện Quy định này, bao gồm cả việc tham gia vào các chương trình thử nghiệm quản lý AI; (d) tạo điều kiện thuận lợi cho các doanh nghiệp vừa và nhỏ và các bên liên quan khác tham gia vào quá trình phát triển tiêu chuẩn hóa. 2. Khi thiết lập mức phí đánh giá sự phù hợp theo Điều 43 , cần xem xét đến lợi ích và nhu cầu cụ thể của các nhà cung cấp dịch vụ SME, bao gồm cả các doanh nghiệp khởi nghiệp, đồng thời giảm các mức phí này theo quy mô, quy mô thị trường và các chỉ số liên quan khác. 3. Văn phòng AI sẽ thực hiện các hành động sau: (a) cung cấp các mẫu chuẩn cho các lĩnh vực thuộc phạm vi của Quy định này, như được Hội đồng chỉ định trong yêu cầu của mình; (b) phát triển và duy trì một nền tảng thông tin duy nhất cung cấp thông tin dễ sử dụng liên quan đến Quy định này cho tất cả các nhà khai thác trên toàn Liên minh; (c) tổ chức các chiến dịch truyền thông phù hợp để nâng cao nhận thức về các nghĩa vụ phát sinh từ Quy định này; (d) đánh giá và thúc đẩy sự hội tụ của các thông lệ tốt nhất trong các thủ tục mua sắm công liên quan đến các hệ thống AI. ( Điều 62 Đạo luật AI của EU) 7. Miễn trừ trách nhiệm đối với nhà điều hành cụ thể 1. Các doanh nghiệp siêu nhỏ theo nghĩa của Khuyến nghị 2003/361/EC có thể tuân thủ một số yếu tố của hệ thống quản lý chất lượng theo yêu cầu của Điều 17 của Quy định này theo cách đơn giản hóa, với điều kiện là họ không có doanh nghiệp đối tác hoặc doanh nghiệp liên kết theo nghĩa của Khuyến nghị đó. Vì mục đích đó, Ủy ban sẽ xây dựng các hướng dẫn về các yếu tố của hệ thống quản lý chất lượng có thể được tuân thủ theo cách đơn giản hóa khi xem xét nhu cầu của các doanh nghiệp siêu nhỏ, mà không ảnh hưởng đến mức độ bảo vệ hoặc nhu cầu tuân thủ các yêu cầu đối với các hệ thống AI có rủi ro cao. 2. Đoạn 1 của Điều này không được hiểu là miễn trừ cho những nhà điều hành đó khỏi việc thực hiện bất kỳ yêu cầu hoặc nghĩa vụ nào khác được quy định ( Điều 63 Đạo luật AI của EU)
Nguồn; Trung tâm NC&PT hội nhập KH&CN quốc tế liên kết nguồn tin và Dịch Chương 6, Đạo luật Trí tuệ Nhân tạo EU của Liên minh Châu ÂU
Your email address will not be published. Required fields are marked *
Comment
Name *
Email *
Website
CAPTCHA Code*