Một khung quản trị trong nước toàn diện cho an toàn AI yêu cầu ba cơ chế liên kết:
Tiêu chuẩn an toàn là nền tảng của quản trị AI bằng cách thiết lập các tiêu chí rõ ràng, có thể đo lường được cho việc phát triển, thử nghiệm và triển khai hệ thống AI trong phạm vi pháp lý quốc gia. Các tiêu chuẩn này phải chính xác về mặt kỹ thuật đồng thời đủ linh hoạt để thích ứng với sự phát triển công nghệ nhanh chóng. Các tiêu chuẩn hiệu quả đóng vai trò là công cụ tổ chức cho việc phối hợp và cung cấp cơ sở hạ tầng cần thiết để phát triển công nghệ AI mới một cách có kiểm soát trong phạm vi quy định của quốc gia (Cihon, 2019).
Những bài học nào mà quản trị AI quốc gia có thể học hỏi từ quy định an toàn hạt nhân? Cách tiếp cận quy định được sử dụng cho an toàn hạt nhân cung cấp một mô hình hướng dẫn cho việc tiêu chuẩn hóa an toàn AI quốc gia. Hệ thống phân cấp năm cấp độ được sử dụng trong tiêu chuẩn an toàn hạt nhân, từ các nguyên tắc cơ bản đến các hướng dẫn thực hiện cụ thể, cung cấp một khuôn mẫu cho việc phát triển các tiêu chuẩn an toàn AI toàn diện. Khung đa cấp này cho phép các nguyên tắc được thiết lập ở cấp độ cao hơn được tích hợp vào các hướng dẫn cụ thể hơn ở cấp độ thấp hơn, tạo ra một hệ thống quy định nhất quán và toàn diện có thể được triển khai trong phạm vi pháp lý quốc gia (Cha, 2024).
Các bài học quan trọng từ quy định hạt nhân áp dụng cho quản trị AI quốc gia bao gồm:
Liên minh Châu Âu đã thiết lập nền tảng pháp lý nào cho quản trị AI? Liên minh Châu Âu đã mở ra một hướng đi mới với Luật AI của EU, khung pháp lý toàn diện đầu tiên trên thế giới về trí tuệ nhân tạo. Được đề xuất lần đầu vào năm 2021 và chính thức thông qua vào tháng 3 năm 2024, luật này điều chỉnh các hệ thống AI dựa trên mức độ rủi ro tiềm ẩn và bảo vệ quyền lợi của công dân EU. Tại lõi của khung pháp lý này là tiếp cận dựa trên rủi ro, phân loại các hệ thống AI thành bốn loại riêng biệt: rủi ro không thể chấp nhận, rủi ro cao, rủi ro hạn chế và rủi ro tối thiểu. Các hệ thống AI có rủi ro không thể chấp nhận, chẳng hạn như những hệ thống thao túng hành vi con người hoặc khai thác điểm yếu, bị cấm hoàn toàn. Các hệ thống AI có rủi ro cao, bao gồm những hệ thống được sử dụng trong cơ sở hạ tầng quan trọng, giáo dục và việc làm, phải tuân thủ các yêu cầu nghiêm ngặt và giám sát chặt chẽ. Các hệ thống AI có rủi ro hạn chế yêu cầu các biện pháp minh bạch, trong khi các hệ thống AI có rủi ro tối thiểu hầu như không bị quy định.
Luật AI của EU được thực thi như thế nào? Luật này có hiệu lực từ tháng 8 năm 2024 và được thực thi theo từng giai đoạn. Từ ngày 2 tháng 2 năm 2025, lệnh cấm các thực hành AI bị cấm (đánh giá xã hội, một số hệ thống nhận dạng sinh trắc học) và yêu cầu về trình độ AI cho nhân viên có hiệu lực. Từ ngày 2 tháng 8 năm 2025, các nghĩa vụ đối với nhà cung cấp mô hình AI mục đích chung (GPAI) sẽ có hiệu lực, bao gồm tài liệu, tuân thủ bản quyền và minh bạch dữ liệu. Luật này thành lập Văn phòng AI Châu Âu để giám sát việc thực thi và thi hành, phối hợp tuân thủ, cung cấp hướng dẫn cho doanh nghiệp và thi hành các quy tắc. Cơ quan chuyên trách này đóng vai trò là cơ quan chính thi hành các quy tắc AI bắt buộc trên một liên minh đa quốc gia, có vị thế định hình quản trị AI toàn cầu tương tự cách GDPR tái cấu trúc tiêu chuẩn bảo mật quốc tế.
Các yêu cầu bổ sung nào áp dụng cho các hệ thống AI có rủi ro cao và rủi ro hệ thống? Đối với các mô hình GPAI gây ra rủi ro hệ thống, được xác định bằng cách vượt qua ngưỡng khả năng điện toán ($10^25$ FLOPs) hoặc dựa trên các tiêu chí tầm ảnh hưởng tiềm năng (như khả năng mở rộng quy mô và rủi ro gây hại quy mô lớn), các nghĩa vụ bổ sung sẽ được áp dụng. Các nhà cung cấp phải thực hiện kiểm tra đối kháng, theo dõi và báo cáo các sự cố nghiêm trọng, triển khai các biện pháp an ninh mạng mạnh mẽ và chủ động giảm thiểu rủi ro hệ thống. Văn phòng AI Châu Âu đã hỗ trợ soạn thảo Bộ Quy tắc Thực hành AI Mục đích Chung, hoàn thành vào tháng 4 năm 2025, cung cấp công cụ trung tâm cho các nhà cung cấp mô hình GPAI tuân thủ các yêu cầu của Luật. Mặc dù tuân thủ thông qua Bộ Quy tắc này là tự nguyện, nó cung cấp cho các nhà cung cấp một con đường thực tiễn rõ ràng để chứng minh sự tuân thủ.
EU tiếp cận việc thi hành và xử phạt như thế nào? Văn phòng AI của EU đóng vai trò là cơ quan thi hành, có quyền yêu cầu thông tin, tiến hành đánh giá, yêu cầu các biện pháp khắc phục và áp dụng phạt tiền lên đến 3% doanh thu hàng năm toàn cầu của nhà cung cấp hoặc €15 triệu, tùy theo mức nào cao hơn. Điều này thể hiện một cơ chế thi hành mạnh mẽ, mặc dù thấp hơn một chút so với mức tối đa 7% được đề cập trong các bản thảo trước đó của luật. Các mức phạt đối với vi phạm là rất cao, thể hiện cam kết mạnh mẽ của EU trong việc đảm bảo tuân thủ khung pháp lý của mình (Cheng et al., 2024).
Những giá trị và ưu tiên nào định hướng cho cách tiếp cận của EU? EU đã thể hiện sự ưu tiên rõ ràng trong việc bảo vệ quyền lợi của công dân. Phương pháp phân loại mức độ rủi ro của Luật Trí tuệ Nhân tạo (AI) của EU chủ yếu tập trung vào việc đo lường khả năng của các hệ thống AI xâm phạm quyền lợi của công dân EU. Điều này có thể thấy rõ trong danh sách các trường hợp sử dụng được coi là có rủi ro cao, chẳng hạn như giáo dục hoặc đào tạo nghề, việc làm, di cư và tị nạn, cũng như quản lý tư pháp hoặc các quá trình dân chủ. Hầu hết các yêu cầu được thiết kế với người dân bình thường làm trung tâm, bao gồm các yêu cầu về minh bạch và báo cáo, khả năng của bất kỳ công dân nào trong việc nộp đơn khiếu nại với cơ quan giám sát thị trường, cấm các hệ thống đánh giá xã hội, và các yêu cầu chống phân biệt đối xử. Phương pháp tiếp cận dựa trên quyền này đối lập rõ rệt với sự tập trung của Trung Quốc vào kiểm soát xã hội và sự nhấn mạnh của Mỹ vào cạnh tranh địa chính trị (Cheng et al., 2024).