2 January, 2025 | 15:18
Chia sẻ bài viết lên facebook Chia sẻ bài viết lên twitter Chia sẻ bài viết lên google+

ĐẠO LUẬT TRÍ TUỆ NHÂN TẠO CỦA EU: ĐỊNH NGHĨA VỀ AI VÀ CÁC HÀNH VI AI BỊ CẤM

Vừa qua Liên minh châu âu đã ban hành Đạo luật trí tuệ nhân tạo, một trong những nội dung quan trọng của Đạo luật này là định nghĩa về AI và các hành vi AI bị cấm như sau
I.Định nghĩa về AI

(1) ‘Hệ thống AI’ có nghĩa là một hệ thống dựa trên máy được thiết kế để hoạt động với các mức độ tự chủ khác nhau và có thể thể hiện khả năng thích ứng sau khi triển khai, và đối với các mục tiêu rõ ràng hoặc ngầm định, suy ra, từ dữ liệu đầu vào mà nó nhận được, cách tạo ra các đầu ra như dự đoán, nội dung, khuyến nghị hoặc quyết định có thể ảnh hưởng đến môi trường vật lý hoặc ảo;
(2) ‘rủi ro’ có nghĩa là sự kết hợp giữa khả năng xảy ra tác hại và mức độ nghiêm trọng của tác hại đó;
(3) ‘nhà cung cấp’ có nghĩa là một cá nhân, pháp nhân, cơ quan công quyền, tổ chức hoặc cơ quan khác phát triển hệ thống AI hoặc mô hình AI mục đích chung hoặc có hệ thống AI hoặc mô hình AI mục đích chung được phát triển và đưa ra thị trường hoặc đưa hệ thống AI vào sử dụng dưới tên hoặc nhãn hiệu riêng của mình, cho dù có thu phí hay miễn phí;
(4) ‘người triển khai’ có nghĩa là một cá nhân hoặc pháp nhân, cơ quan công quyền, cơ quan hoặc tổ chức khác sử dụng hệ thống AI theo thẩm quyền của mình, ngoại trừ trường hợp hệ thống AI được sử dụng trong quá trình hoạt động cá nhân không chuyên nghiệp;
(5) ‘người đại diện được ủy quyền’ có nghĩa là một cá nhân hoặc pháp nhân có trụ sở hoặc thành lập tại Liên minh đã nhận và chấp nhận ủy quyền bằng văn bản từ nhà cung cấp hệ thống AI hoặc mô hình AI mục đích chung để thực hiện và tiến hành thay mặt cho mình các nghĩa vụ và thủ tục được thiết lập theo Quy định này;
(6) ‘người nhập khẩu’ có nghĩa là một cá nhân hoặc pháp nhân có trụ sở hoặc thành lập tại Liên minh đưa ra thị trường một hệ thống AI mang tên hoặc nhãn hiệu của một cá nhân hoặc pháp nhân có trụ sở tại một quốc gia thứ ba;
(7) ‘nhà phân phối’ có nghĩa là một cá nhân hoặc pháp nhân trong chuỗi cung ứng, không phải là nhà cung cấp hoặc nhà nhập khẩu, cung cấp hệ thống AI trên thị trường Liên minh;
(8) ‘người vận hành’ có nghĩa là nhà cung cấp, nhà sản xuất sản phẩm, đơn vị triển khai, đại diện được ủy quyền, nhà nhập khẩu hoặc nhà phân phối;
(9) ‘đưa ra thị trường’ có nghĩa là lần đầu tiên đưa một hệ thống AI hoặc một mô hình AI mục đích chung vào thị trường Liên minh;
(10) ‘cung cấp trên thị trường’ có nghĩa là cung cấp một hệ thống AI hoặc một mô hình AI mục đích chung để phân phối hoặc sử dụng trên thị trường Liên minh trong quá trình hoạt động thương mại, cho dù có trả tiền hay miễn phí;
(11) ‘đưa vào sử dụng’ có nghĩa là cung cấp hệ thống AI để sử dụng lần đầu trực tiếp cho bên triển khai hoặc để sử dụng riêng trong Liên minh cho mục đích dự kiến của mình;
(12) ‘mục đích dự kiến’ có nghĩa là mục đích sử dụng mà nhà cung cấp dự định sử dụng hệ thống AI, bao gồm bối cảnh và điều kiện sử dụng cụ thể, như được chỉ định trong thông tin do nhà cung cấp cung cấp trong hướng dẫn sử dụng, tài liệu và tuyên bố khuyến mại hoặc bán hàng, cũng như trong tài liệu kỹ thuật;
(13) ‘việc sử dụng sai mục đích có thể lường trước được một cách hợp lý’ có nghĩa là việc sử dụng hệ thống AI theo cách không phù hợp với mục đích dự kiến của nó, nhưng có thể là kết quả của hành vi hoặc tương tác của con người có thể lường trước được một cách hợp lý với các hệ thống khác, bao gồm các hệ thống AI khác;
(14) ‘thành phần an toàn’ có nghĩa là một thành phần của sản phẩm hoặc của hệ thống AI thực hiện chức năng an toàn cho sản phẩm hoặc hệ thống AI đó, hoặc sự hỏng hóc hoặc trục trặc của chúng gây nguy hiểm cho sức khỏe và sự an toàn của con người hoặc tài sản;
(15) ‘hướng dẫn sử dụng’ có nghĩa là thông tin do nhà cung cấp cung cấp để thông báo cho người triển khai về, cụ thể là, mục đích dự kiến và cách sử dụng hợp lý của hệ thống AI;
(16) ‘thu hồi hệ thống AI’ có nghĩa là bất kỳ biện pháp nào nhằm mục đích trả lại cho nhà cung cấp hoặc ngừng dịch vụ hoặc vô hiệu hóa việc sử dụng hệ thống AI được cung cấp cho người triển khai;
(17) ‘rút lại hệ thống AI’ có nghĩa là bất kỳ biện pháp nào nhằm ngăn chặn việc đưa hệ thống AI trong chuỗi cung ứng ra thị trường;
(18) ‘hiệu suất của hệ thống AI’ có nghĩa là khả năng của hệ thống AI đạt được mục đích dự định của nó;
(19) ‘cơ quan thông báo’ có nghĩa là cơ quan quốc gia chịu trách nhiệm thiết lập và thực hiện các thủ tục cần thiết để đánh giá, chỉ định và thông báo các cơ quan đánh giá sự phù hợp và để giám sát các cơ quan này;
(20) ‘đánh giá sự phù hợp’ có nghĩa là quá trình chứng minh liệu các yêu cầu nêu trong Chương III , Mục 2 liên quan đến hệ thống AI có rủi ro cao đã được đáp ứng hay chưa;
(21) ‘cơ quan đánh giá sự phù hợp’ có nghĩa là cơ quan thực hiện các hoạt động đánh giá sự phù hợp của bên thứ ba, bao gồm thử nghiệm, chứng nhận và thanh tra;
(22) ‘cơ quan được thông báo’ có nghĩa là cơ quan đánh giá sự phù hợp được thông báo theo Quy định này và các luật điều chỉnh Liên minh có liên quan khác;
(23) ‘sửa đổi đáng kể’ có nghĩa là một thay đổi đối với hệ thống AI sau khi đưa ra thị trường hoặc đưa vào sử dụng mà không được lường trước hoặc lên kế hoạch trong đánh giá sự phù hợp ban đầu do nhà cung cấp thực hiện và do đó, việc tuân thủ của hệ thống AI với các yêu cầu nêu trong Chương III , Mục 2 bị ảnh hưởng hoặc dẫn đến sửa đổi mục đích dự kiến mà hệ thống AI đã được đánh giá;
(24) ‘Dấu CE’ có nghĩa là dấu mà nhà cung cấp dùng để chỉ ra rằng hệ thống AI tuân thủ các yêu cầu được nêu trong Chương III , Mục 2 và các luật điều chỉnh của Liên minh hiện hành khác quy định về việc gắn dấu này;
(25) ‘hệ thống giám sát sau khi đưa ra thị trường’ có nghĩa là tất cả các hoạt động do các nhà cung cấp hệ thống AI thực hiện để thu thập và xem xét kinh nghiệm thu được từ việc sử dụng các hệ thống AI mà họ đưa ra thị trường hoặc đưa vào sử dụng nhằm mục đích xác định bất kỳ nhu cầu nào để áp dụng ngay lập tức bất kỳ hành động khắc phục hoặc phòng ngừa cần thiết nào;
(26) ‘cơ quan giám sát thị trường’ có nghĩa là cơ quan quốc gia thực hiện các hoạt động và áp dụng các biện pháp theo Quy định (EU) 2019/1020;
(27) ‘tiêu chuẩn hài hòa’ có nghĩa là tiêu chuẩn hài hòa như được định nghĩa trong Điều 2(1), điểm (c), của Quy định (EU) số 1025/2012;
(28) ‘tiêu chuẩn chung’ có nghĩa là một bộ tiêu chuẩn kỹ thuật như được định nghĩa trong Điều 2, điểm (4) của Quy định (EU) số 1025/2012, cung cấp các phương tiện để tuân thủ các yêu cầu nhất định được thiết lập theo Quy định này;
(29) ‘dữ liệu đào tạo’ có nghĩa là dữ liệu được sử dụng để đào tạo hệ thống AI thông qua việc điều chỉnh các tham số có thể học được của nó;
(30) ‘dữ liệu xác thực’ có nghĩa là dữ liệu được sử dụng để cung cấp đánh giá về hệ thống AI đã được đào tạo và để điều chỉnh các tham số không thể học được của hệ thống và quy trình học của hệ thống theo thứ tự, trong số những thứ khác, nhằm ngăn ngừa tình trạng lắp không đủ hoặc lắp quá mức;
(31) ‘bộ dữ liệu xác thực’ có nghĩa là một bộ dữ liệu riêng biệt hoặc một phần của bộ dữ liệu đào tạo, dưới dạng phân chia cố định hoặc biến đổi;
(32) ‘dữ liệu thử nghiệm’ có nghĩa là dữ liệu được sử dụng để cung cấp đánh giá độc lập về hệ thống AI nhằm xác nhận hiệu suất dự kiến của hệ thống đó trước khi đưa ra thị trường hoặc đưa vào sử dụng;
(33) ‘dữ liệu đầu vào’ có nghĩa là dữ liệu được cung cấp cho hoặc được thu thập trực tiếp bởi hệ thống AI mà trên cơ sở đó hệ thống tạo ra đầu ra;
(34) ‘dữ liệu sinh trắc học’ có nghĩa là dữ liệu cá nhân thu được từ quá trình xử lý kỹ thuật cụ thể liên quan đến các đặc điểm vật lý, sinh lý hoặc hành vi của một cá nhân tự nhiên, chẳng hạn như hình ảnh khuôn mặt hoặc dữ liệu vân tay;
(35) ‘nhận dạng sinh trắc học’ có nghĩa là nhận dạng tự động các đặc điểm vật lý, sinh lý, hành vi hoặc tâm lý của con người nhằm mục đích xác định danh tính của một cá nhân bằng cách so sánh dữ liệu sinh trắc học của cá nhân đó với dữ liệu sinh trắc học của các cá nhân được lưu trữ trong cơ sở dữ liệu; Có
(36) ‘xác minh sinh trắc học’ có nghĩa là xác minh tự động, một-một, bao gồm xác thực, về danh tính của cá nhân bằng cách so sánh dữ liệu sinh trắc học của họ với dữ liệu sinh trắc học đã cung cấp trước đó;
(37) ‘các loại dữ liệu cá nhân đặc biệt’ có nghĩa là các loại dữ liệu cá nhân được đề cập trong Điều 9(1) của Quy định (EU) 2016/679, Điều 10 của Chỉ thị (EU) 2016/680 và Điều 10(1) của Quy định (EU) 2018/1725;
(38) ‘dữ liệu hoạt động nhạy cảm’ có nghĩa là dữ liệu hoạt động liên quan đến các hoạt động phòng ngừa, phát hiện, điều tra hoặc truy tố tội phạm, việc tiết lộ dữ liệu này có thể gây nguy hiểm cho tính toàn vẹn của các thủ tục tố tụng hình sự;
(39) ‘hệ thống nhận dạng cảm xúc’ có nghĩa là hệ thống AI nhằm mục đích xác định hoặc suy ra cảm xúc hoặc ý định của cá nhân dựa trên dữ liệu sinh trắc học của họ;
(40) ‘hệ thống phân loại sinh trắc học’ có nghĩa là hệ thống AI nhằm mục đích phân loại cá nhân vào các danh mục cụ thể dựa trên dữ liệu sinh trắc học của họ, trừ khi hệ thống này là dịch vụ phụ trợ cho một dịch vụ thương mại khác và hoàn toàn cần thiết vì lý do kỹ thuật khách quan;
(41) ‘hệ thống nhận dạng sinh trắc học từ xa’ có nghĩa là hệ thống AI nhằm mục đích nhận dạng cá nhân, mà không cần sự tham gia tích cực của họ, thường là ở khoảng cách xa thông qua việc so sánh dữ liệu sinh trắc học của một người với dữ liệu sinh trắc học có trong cơ sở dữ liệu tham chiếu;
(42) ‘hệ thống nhận dạng sinh trắc học từ xa thời gian thực’ có nghĩa là hệ thống nhận dạng sinh trắc học từ xa, trong đó việc thu thập dữ liệu sinh trắc học, so sánh và nhận dạng đều diễn ra mà không có sự chậm trễ đáng kể, bao gồm không chỉ nhận dạng tức thời mà còn có sự chậm trễ ngắn hạn để tránh việc lách luật;
(43) ‘hệ thống nhận dạng sinh trắc học từ xa’ có nghĩa là hệ thống nhận dạng sinh trắc học từ xa khác với hệ thống nhận dạng sinh trắc học từ xa thời gian thực;
(44) ‘không gian công cộng có thể tiếp cận’ có nghĩa là bất kỳ địa điểm vật lý nào do công chúng hoặc tư nhân sở hữu có thể tiếp cận được đối với một số lượng cá nhân không xác định, bất kể có thể áp dụng một số điều kiện nhất định để tiếp cận hay không và bất kể những hạn chế tiềm ẩn về sức chứa; Có liên quan: Đoạn trích 19
(45) ‘cơ quan thực thi pháp luật’ có nghĩa là:
(a) bất kỳ cơ quan công quyền nào có thẩm quyền phòng ngừa, điều tra, phát hiện hoặc truy tố các tội phạm hoặc thi hành các hình phạt hình sự, bao gồm cả việc bảo vệ và ngăn ngừa các mối đe dọa đối với an ninh công cộng; hoặc
(b) bất kỳ cơ quan hoặc thực thể nào khác được luật của Quốc gia thành viên giao phó để thực hiện thẩm quyền công và quyền hạn công nhằm mục đích phòng ngừa, điều tra, phát hiện hoặc truy tố tội phạm hoặc thi hành hình phạt hình sự, bao gồm cả việc bảo vệ và ngăn ngừa các mối đe dọa đối với an ninh công cộng;
(46) ‘thực thi pháp luật’ có nghĩa là các hoạt động do cơ quan thực thi pháp luật hoặc thay mặt cho cơ quan này thực hiện để phòng ngừa, điều tra, phát hiện hoặc truy tố các tội phạm hoặc thực hiện các hình phạt hình sự, bao gồm bảo vệ và ngăn ngừa các mối đe dọa đối với an ninh công cộng;
(47) ‘Văn phòng AI’ có nghĩa là chức năng của Ủy ban trong việc đóng góp vào việc triển khai, theo dõi và giám sát các hệ thống AI và các mô hình AI mục đích chung, và quản trị AI, được quy định trong Quyết định của Ủy ban ngày 24 tháng 1 năm 2024; các tham chiếu trong Quy định này đến Văn phòng AI sẽ được hiểu là các tham chiếu đến Ủy ban;
(48) ‘cơ quan có thẩm quyền quốc gia’ có nghĩa là cơ quan thông báo hoặc cơ quan giám sát thị trường; liên quan đến các hệ thống AI được đưa vào sử dụng hoặc được các tổ chức, cơ quan, văn phòng và cơ quan của Liên minh sử dụng, các tham chiếu đến các cơ quan có thẩm quyền quốc gia hoặc cơ quan giám sát thị trường trong Quy định này sẽ được hiểu là các tham chiếu đến Cơ quan giám sát bảo vệ dữ liệu châu Âu;
(49) ‘sự cố nghiêm trọng’ có nghĩa là sự cố hoặc trục trặc của hệ thống AI dẫn trực tiếp hoặc gián tiếp đến bất kỳ điều nào sau đây:
(a) cái chết của một người, hoặc tổn hại nghiêm trọng đến sức khỏe của một người;
(b) sự gián đoạn nghiêm trọng và không thể đảo ngược đối với việc quản lý hoặc vận hành cơ sở hạ tầng quan trọng.
(c) vi phạm các nghĩa vụ theo luật Liên minh nhằm bảo vệ các quyền cơ bản;
(d) gây thiệt hại nghiêm trọng đến tài sản hoặc môi trường;
(50) ‘dữ liệu cá nhân’ có nghĩa là dữ liệu cá nhân như được định nghĩa trong Điều 4, điểm (1), của Quy định (EU) 2016/679;
(51) ‘dữ liệu phi cá nhân’ có nghĩa là dữ liệu khác với dữ liệu cá nhân theo định nghĩa tại Điều 4, điểm (1), của Quy định (EU) 2016/679;
(52) ‘phân tích’ có nghĩa là phân tích theo định nghĩa tại Điều 4, điểm (4), của Quy định (EU) 2016/679;
(53) ‘kế hoạch thử nghiệm thực tế’ có nghĩa là một tài liệu mô tả các mục tiêu, phương pháp, phạm vi địa lý, dân số và thời gian, giám sát, tổ chức và tiến hành thử nghiệm trong điều kiện thực tế;
(54) ‘kế hoạch thử nghiệm’ có nghĩa là một tài liệu được thỏa thuận giữa nhà cung cấp tham gia và cơ quan có thẩm quyền mô tả các mục tiêu, điều kiện, khung thời gian, phương pháp và yêu cầu đối với các hoạt động được thực hiện trong thử nghiệm;
(55) ‘Hộp thử nghiệm theo quy định AI’ có nghĩa là một khuôn khổ được kiểm soát do cơ quan có thẩm quyền thiết lập, cung cấp cho các nhà cung cấp hoặc nhà cung cấp tiềm năng của hệ thống AI khả năng phát triển, đào tạo, xác thực và thử nghiệm, khi phù hợp trong điều kiện thực tế, một hệ thống AI sáng tạo, theo kế hoạch hộp thử nghiệm trong một thời gian giới hạn dưới sự giám sát của cơ quan quản lý;
(56) ‘Kiến thức về AI’ có nghĩa là các kỹ năng, kiến thức và sự hiểu biết cho phép các nhà cung cấp, đơn vị triển khai và những người bị ảnh hưởng, có tính đến các quyền và nghĩa vụ tương ứng của họ trong bối cảnh của Quy định này, triển khai các hệ thống AI một cách có hiểu biết, cũng như nâng cao nhận thức về các cơ hội và rủi ro của AI và tác hại có thể xảy ra của AI;
(57) ‘thử nghiệm trong điều kiện thực tế’ có nghĩa là thử nghiệm tạm thời một hệ thống AI cho mục đích dự kiến của nó trong điều kiện thực tế bên ngoài phòng thí nghiệm hoặc môi trường mô phỏng khác, nhằm mục đích thu thập dữ liệu đáng tin cậy và mạnh mẽ và đánh giá và xác minh sự phù hợp của hệ thống AI với các yêu cầu của Quy định này và không đủ điều kiện để đưa hệ thống AI ra thị trường hoặc đưa vào sử dụng theo nghĩa của Quy định này, với điều kiện là tất cả các điều kiện quy định tại Điều 57 hoặc Điều 60 đều được đáp ứng;
(58) ‘đối tượng’, cho mục đích thử nghiệm trong thế giới thực, có nghĩa là một cá nhân tham gia thử nghiệm trong điều kiện thế giới thực;
(59) ‘sự đồng ý được thông báo’ có nghĩa là sự bày tỏ tự nguyện, cụ thể, rõ ràng và tự nguyện của một đối tượng về sự sẵn lòng tham gia vào một cuộc thử nghiệm cụ thể trong điều kiện thực tế, sau khi đã được thông báo về mọi khía cạnh của cuộc thử nghiệm có liên quan đến quyết định tham gia của đối tượng;
(60) ‘giả mạo sâu’ có nghĩa là nội dung hình ảnh, âm thanh hoặc video do AI tạo ra hoặc thao túng giống với người, vật thể, địa điểm, thực thể hoặc sự kiện hiện có và có vẻ sai lệch đối với một người là xác thực hoặc trung thực;
(61) ‘vi phạm rộng rãi’ có nghĩa là bất kỳ hành vi hoặc thiếu sót nào trái với luật Liên minh bảo vệ lợi ích của cá nhân, mà:
(a) đã gây tổn hại hoặc có khả năng gây tổn hại đến lợi ích chung của các cá nhân cư trú tại ít nhất hai Quốc gia thành viên khác ngoài Quốc gia thành viên mà:
(i) hành vi hoặc sự thiếu sót bắt nguồn hoặc diễn ra;
(ii) nhà cung cấp có liên quan hoặc, nếu có, đại diện được ủy quyền của nhà cung cấp đó được đặt tại hoặc thành lập; hoặc
(iii) người triển khai được xác lập khi hành vi vi phạm được thực hiện bởi người triển khai;
(b) đã, đang hoặc có khả năng gây hại đến lợi ích chung của các cá nhân và có các đặc điểm chung, bao gồm cùng một hành vi vi phạm pháp luật hoặc cùng một lợi ích bị xâm phạm và xảy ra đồng thời, do cùng một người điều hành thực hiện, tại ít nhất ba Quốc gia thành viên;
(62) ‘cơ sở hạ tầng quan trọng’ có nghĩa là cơ sở hạ tầng quan trọng như được định nghĩa trong Điều 2, điểm (4), của Chỉ thị (EU) 2022/2557;
(63) ‘mô hình AI mục đích chung’ có nghĩa là một mô hình AI, bao gồm cả trường hợp mô hình AI đó được đào tạo với một lượng lớn dữ liệu sử dụng tự giám sát ở quy mô lớn, thể hiện tính tổng quát đáng kể và có khả năng thực hiện thành thạo nhiều nhiệm vụ riêng biệt bất kể mô hình được đưa ra thị trường theo cách nào và có thể được tích hợp vào nhiều hệ thống hoặc ứng dụng hạ nguồn, ngoại trừ các mô hình AI được sử dụng cho các hoạt động nghiên cứu, phát triển hoặc tạo mẫu trước khi đưa ra thị trường;
(64) ‘khả năng tác động cao’ có nghĩa là khả năng phù hợp hoặc vượt quá khả năng được ghi nhận trong các mô hình AI mục đích chung tiên tiến nhất;
(65) ‘rủi ro hệ thống’ có nghĩa là rủi ro cụ thể đối với các khả năng tác động cao của các mô hình AI mục đích chung, có tác động đáng kể đến thị trường Liên minh do phạm vi của chúng hoặc do các tác động tiêu cực thực tế hoặc có thể thấy trước một cách hợp lý đối với sức khỏe cộng đồng, sự an toàn, an ninh công cộng, các quyền cơ bản hoặc toàn xã hội, có thể lan truyền ở quy mô lớn trên toàn bộ chuỗi giá trị;
(66) ‘hệ thống AI mục đích chung’ có nghĩa là hệ thống AI dựa trên mô hình AI mục đích chung và có khả năng phục vụ nhiều mục đích khác nhau, cả để sử dụng trực tiếp cũng như để tích hợp vào các hệ thống AI khác;
(67) ‘phép toán dấu phẩy động’ có nghĩa là bất kỳ phép toán hoặc phép gán nào liên quan đến số dấu phẩy động, là một tập hợp con của các số thực thường được biểu diễn trên máy tính bằng một số nguyên có độ chính xác cố định được chia theo số mũ nguyên của một cơ số cố định;
(68) ‘nhà cung cấp hạ nguồn’ có nghĩa là nhà cung cấp hệ thống AI, bao gồm hệ thống AI mục đích chung, tích hợp mô hình AI, bất kể mô hình AI có được cung cấp bởi chính họ và được tích hợp theo chiều dọc hay do một thực thể khác cung cấp dựa trên quan hệ hợp đồng.

II. Các hành vi AI bị cấm
1. Các hành vi AI sau đây bị cấm:
(a) việc đưa ra thị trường, đưa vào sử dụng hoặc sử dụng hệ thống AI triển khai các kỹ thuật tiềm ẩn vượt ra ngoài ý thức của một người hoặc các kỹ thuật cố ý thao túng hoặc lừa dối, với mục tiêu hoặc tác động làm méo mó đáng kể hành vi của một người hoặc một nhóm người bằng cách làm suy yếu đáng kể khả năng đưa ra quyết định sáng suốt của họ, do đó khiến họ đưa ra quyết định mà nếu không thì họ sẽ không đưa ra theo cách gây ra hoặc có khả năng gây ra thiệt hại đáng kể cho người đó, người khác hoặc nhóm người khác;
(b) việc đưa ra thị trường, đưa vào sử dụng hoặc sử dụng hệ thống AI khai thác bất kỳ điểm yếu nào của một cá nhân hoặc một nhóm người cụ thể do tuổi tác, khuyết tật hoặc hoàn cảnh xã hội hoặc kinh tế cụ thể, với mục tiêu hoặc tác động là làm méo mó đáng kể hành vi của người đó hoặc một người thuộc nhóm đó theo cách gây ra hoặc có khả năng gây ra thiệt hại đáng kể cho người đó hoặc một người khác;
(c) việc đưa ra thị trường, đưa vào sử dụng hoặc sử dụng các hệ thống AI để đánh giá hoặc phân loại các cá nhân hoặc nhóm người trong một khoảng thời gian nhất định dựa trên hành vi xã hội hoặc các đặc điểm cá nhân hoặc tính cách đã biết, suy ra hoặc dự đoán, với điểm xã hội dẫn đến một hoặc cả hai điều sau:
(i) đối xử bất lợi hoặc có hại đối với một số cá nhân hoặc nhóm người nhất định trong bối cảnh xã hội không liên quan đến bối cảnh mà dữ liệu ban đầu được tạo ra hoặc thu thập;
(ii) việc đối xử có hại hoặc bất lợi đối với một số cá nhân hoặc nhóm người nhất định là không có lý do chính đáng hoặc không tương xứng với hành vi xã hội của họ hoặc mức độ nghiêm trọng của hành vi đó;
(d) việc đưa ra thị trường, đưa vào sử dụng cho mục đích cụ thể này hoặc sử dụng hệ thống AI để đánh giá rủi ro của cá nhân nhằm đánh giá hoặc dự đoán rủi ro của cá nhân phạm tội hình sự, chỉ dựa trên việc lập hồ sơ cá nhân hoặc đánh giá các đặc điểm và tính cách của cá nhân đó; lệnh cấm này không áp dụng đối với các hệ thống AI được sử dụng để hỗ trợ việc đánh giá của con người về sự tham gia của một cá nhân vào hoạt động tội phạm, vốn đã dựa trên các sự kiện khách quan và có thể xác minh được liên quan trực tiếp đến hoạt động tội phạm;
(e) việc đưa ra thị trường, đưa vào sử dụng cho mục đích cụ thể này hoặc sử dụng các hệ thống AI tạo ra hoặc mở rộng cơ sở dữ liệu nhận dạng khuôn mặt thông qua việc thu thập hình ảnh khuôn mặt không có mục tiêu từ internet hoặc cảnh quay CCTV;
(f) việc đưa ra thị trường, đưa vào sử dụng cho mục đích cụ thể này hoặc việc sử dụng hệ thống AI để suy ra cảm xúc của một cá nhân tự nhiên trong các lĩnh vực nơi làm việc và cơ sở giáo dục, trừ trường hợp việc sử dụng hệ thống AI nhằm mục đích đưa vào sử dụng hoặc đưa ra thị trường vì lý do y tế hoặc an toàn;
(g) việc đưa ra thị trường, đưa vào sử dụng cho mục đích cụ thể này hoặc việc sử dụng các hệ thống phân loại sinh trắc học phân loại từng cá nhân dựa trên dữ liệu sinh trắc học của họ để suy ra hoặc suy ra chủng tộc, quan điểm chính trị, tư cách thành viên công đoàn, tín ngưỡng tôn giáo hoặc triết học, đời sống tình dục hoặc khuynh hướng tình dục của họ; lệnh cấm này không bao gồm bất kỳ việc dán nhãn hoặc lọc nào đối với các tập dữ liệu sinh trắc học được thu thập hợp pháp, chẳng hạn như hình ảnh, dựa trên dữ liệu sinh trắc học hoặc phân loại dữ liệu sinh trắc học trong lĩnh vực thực thi pháp luật;
(h) việc sử dụng các hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’ tại những không gian công cộng cho mục đích thực thi pháp luật, trừ khi và trong chừng mực việc sử dụng đó là hoàn toàn cần thiết cho một trong các mục tiêu sau:
(i) việc tìm kiếm có mục tiêu các nạn nhân cụ thể của nạn bắt cóc, buôn bán người hoặc bóc lột tình dục con người, cũng như việc tìm kiếm những người mất tích;
(ii) ngăn ngừa mối đe dọa cụ thể, đáng kể và sắp xảy ra đối với tính mạng hoặc sự an toàn về thể chất của cá nhân hoặc mối đe dọa thực sự và hiện tại hoặc thực sự và có thể lường trước được về một cuộc tấn công khủng bố;
(iii) việc xác định vị trí hoặc nhận dạng một người bị tình nghi đã phạm tội hình sự, nhằm mục đích tiến hành điều tra hình sự hoặc truy tố hoặc thi hành hình phạt hình sự đối với các tội được nêu trong Phụ lục II của Đạo luật và có thể bị phạt tù hoặc lệnh giam giữ tại Quốc gia thành viên có liên quan trong thời hạn tối đa ít nhất là bốn năm. Điểm (h) của tiểu đoạn đầu tiên không ảnh hưởng đến Điều 9 của Quy định (EU) 2016/679 về việc xử lý dữ liệu sinh trắc học cho các mục đích khác ngoài mục đích thực thi pháp luật.

2. Việc sử dụng hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’ tại những không gian công cộng cho mục đích thực thi pháp luật nhằm thực hiện bất kỳ mục đích nào được đề cập tại khoản 1, tiểu khoản đầu tiên, điểm (h), sẽ chỉ được triển khai cho các mục đích nêu tại điểm đó để xác nhận danh tính của cá nhân cụ thể được nhắm mục tiêu và sẽ tính đến các yếu tố sau:
(a) bản chất của tình huống dẫn đến việc sử dụng có thể xảy ra, đặc biệt là mức độ nghiêm trọng, khả năng xảy ra và quy mô của tác hại có thể xảy ra nếu hệ thống không được sử dụng;
(b) hậu quả của việc sử dụng hệ thống đối với quyền và tự do của tất cả những người liên quan, đặc biệt là mức độ nghiêm trọng, khả năng xảy ra và quy mô của những hậu quả đó. Ngoài ra, việc sử dụng các hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’ tại các không gian công cộng cho mục đích thực thi pháp luật cho bất kỳ mục tiêu nào được đề cập trong đoạn 1, tiểu đoạn đầu tiên, điểm (h), của Điều này phải tuân thủ các biện pháp bảo vệ và điều kiện cần thiết và tương xứng liên quan đến việc sử dụng theo luật quốc gia cho phép sử dụng hệ thống đó, đặc biệt là về các hạn chế về thời gian, địa lý và cá nhân. Việc sử dụng hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’ tại các không gian công cộng sẽ chỉ được phép nếu cơ quan thực thi pháp luật đã hoàn thành đánh giá tác động đến các quyền cơ bản theo quy định tại Điều 27 và đã đăng ký hệ thống đó trong cơ sở dữ liệu EU theo Điều 49. Tuy nhiên, trong những trường hợp cấp bách có lý do chính đáng, việc sử dụng các hệ thống đó có thể được bắt đầu mà không cần đăng ký trong cơ sở dữ liệu EU, với điều kiện là việc đăng ký đó được hoàn thành mà không có sự chậm trễ không đáng có.
3. Cho mục đích của đoạn 1, tiểu đoạn đầu tiên, điểm (h) và đoạn 2, mỗi lần sử dụng cho mục đích thực thi pháp luật hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’ tại các không gian công cộng phải tuân theo sự cho phép trước đó do cơ quan tư pháp hoặc cơ quan hành chính độc lập có quyết định ràng buộc đối với Quốc gia thành viên nơi diễn ra việc sử dụng, được cấp theo yêu cầu có lý do và theo các quy tắc chi tiết của luật quốc gia được đề cập trong đoạn 5. Tuy nhiên, trong tình huống cấp bách có lý do chính đáng, việc sử dụng hệ thống như vậy có thể được bắt đầu mà không cần sự cho phép với điều kiện là sự cho phép đó được yêu cầu mà không chậm trễ không đáng có, chậm nhất là trong vòng 24 giờ. Nếu sự cho phép đó bị từ chối, việc sử dụng sẽ bị dừng ngay lập tức và tất cả dữ liệu, cũng như kết quả và đầu ra của việc sử dụng đó sẽ bị loại bỏ và xóa ngay lập tức. Cơ quan tư pháp có thẩm quyền hoặc cơ quan hành chính độc lập có quyết định ràng buộc sẽ chỉ cấp phép khi cơ quan này thấy hài lòng, trên cơ sở bằng chứng khách quan hoặc các dấu hiệu rõ ràng được trình bày cho cơ quan này, rằng việc sử dụng hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’ có liên quan là cần thiết và tương xứng với việc đạt được một trong các mục tiêu được nêu trong đoạn 1, tiểu đoạn đầu tiên, điểm (h), như đã xác định trong yêu cầu và đặc biệt, vẫn giới hạn ở những gì hoàn toàn cần thiết liên quan đến khoảng thời gian cũng như phạm vi địa lý và cá nhân. Khi quyết định về yêu cầu, cơ quan đó sẽ xem xét các yếu tố được đề cập trong đoạn 2. Không được đưa ra bất kỳ quyết định nào tạo ra tác động pháp lý bất lợi đối với một người chỉ dựa trên đầu ra của hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’.
4. Không ảnh hưởng đến phần 3, mỗi lần sử dụng hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’ tại các không gian công cộng cho mục đích thực thi pháp luật phải được thông báo cho cơ quan giám sát thị trường có liên quan và cơ quan bảo vệ dữ liệu quốc gia theo các quy tắc quốc gia được đề cập trong đoạn 5. Thông báo phải, tối thiểu, chứa thông tin được chỉ định theo đoạn 6 và không bao gồm dữ liệu hoạt động nhạy cảm.
5. Một quốc gia thành viên có thể quyết định cung cấp khả năng cho phép toàn bộ hoặc một phần việc sử dụng các hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’ tại các không gian công cộng cho mục đích thực thi pháp luật trong phạm vi và theo các điều kiện được liệt kê trong đoạn 1, tiểu đoạn thứ nhất, điểm (h), và đoạn 2 và 3. Các quốc gia thành viên liên quan sẽ quy định trong luật quốc gia của mình các quy tắc chi tiết cần thiết cho việc yêu cầu, cấp và thực hiện, cũng như giám sát và báo cáo liên quan đến các quyền hạn được đề cập trong đoạn 3. Các quy tắc đó cũng sẽ chỉ rõ đối với mục tiêu nào được liệt kê trong đoạn 1, tiểu đoạn thứ nhất, điểm (h), bao gồm cả hành vi phạm tội nào được đề cập trong điểm (h)(iii) của mục đó, các cơ quan có thẩm quyền có thể được phép sử dụng các hệ thống đó cho mục đích thực thi pháp luật. Các quốc gia thành viên sẽ thông báo các quy tắc đó cho Ủy ban chậm nhất là 30 ngày sau khi thông qua các quy tắc đó. Các quốc gia thành viên có thể đưa ra, theo luật của Liên minh, các luật hạn chế hơn về việc sử dụng các hệ thống nhận dạng sinh trắc học từ xa.
6. Các cơ quan giám sát thị trường quốc gia và các cơ quan bảo vệ dữ liệu quốc gia của các Quốc gia thành viên đã được thông báo về việc sử dụng các hệ thống nhận dạng sinh trắc học từ xa ‘thời gian thực’ tại các không gian công cộng cho mục đích thực thi pháp luật theo khoản 4 phải nộp cho Ủy ban các báo cáo hàng năm về việc sử dụng đó. Vì mục đích đó, Ủy ban sẽ cung cấp cho các Quốc gia thành viên và các cơ quan giám sát thị trường quốc gia và bảo vệ dữ liệu một mẫu, bao gồm thông tin về số lượng các quyết định do các cơ quan tư pháp có thẩm quyền hoặc một cơ quan hành chính độc lập đưa ra có tính ràng buộc đối với các yêu cầu cấp phép theo khoản 3 và kết quả của chúng.
7. Ủy ban sẽ công bố các báo cáo hàng năm về việc sử dụng các hệ thống nhận dạng sinh trắc học từ xa theo thời gian thực tại các không gian công cộng cho mục đích thực thi pháp luật, dựa trên dữ liệu tổng hợp tại các Quốc gia thành viên trên cơ sở các báo cáo hàng năm được đề cập trong đoạn 6. Các báo cáo hàng năm đó sẽ không bao gồm dữ liệu hoạt động nhạy cảm của các hoạt động thực thi pháp luật có liên quan.
8. Điều này không ảnh hưởng đến các lệnh cấm áp dụng khi hoạt động AI vi phạm luật khác của Liên minh.
Nguồn; Trung tâm NC&PT hội nhập KH&CN quốc tế liên kết nguồn tin và Dịch Chương 1 ( Điều 3) và Chương 2 ( Điều 5), Đạo luật Trí tuệ Nhân tạo EU của Liên minh Châu ÂU https://artificialintelligenceact.eu/chapter/1/ và https://artificialintelligenceact.eu/chapter/2/