Chương 4.8: Phụ lục: Quản trị quốc gia

Tác giả:
Charles Martinet, Markov Grey, Su Cizem
September 5, 2025
[?]
phút đc
Xuất bản gốc tại
AI Safety Atlas
Cẩm nang đang trong quá trình hoàn thiện. Bạn có thể góp ý tại team@antoan.ai

Trong chương này

Một khung quản trị trong nước toàn diện cho an toàn AI yêu cầu ba cơ chế liên kết: 

  • Phát triển tiêu chuẩn an toàn, 
  • Tính minh bạch trong quy định, và 
  • Thực thi tuân thủ (Anderljung et al., 2023)

Tiêu chuẩn an toàn là nền tảng của quản trị AI bằng cách thiết lập các tiêu chí rõ ràng, có thể đo lường được cho việc phát triển, thử nghiệm và triển khai hệ thống AI trong phạm vi pháp lý quốc gia. Các tiêu chuẩn này phải chính xác về mặt kỹ thuật đồng thời đủ linh hoạt để thích ứng với sự phát triển công nghệ nhanh chóng. Các tiêu chuẩn hiệu quả đóng vai trò là công cụ tổ chức cho việc phối hợp và cung cấp cơ sở hạ tầng cần thiết để phát triển công nghệ AI mới một cách có kiểm soát trong phạm vi quy định của quốc gia (Cihon, 2019).

Những bài học nào mà quản trị AI quốc gia có thể học hỏi từ quy định an toàn hạt nhân? Cách tiếp cận quy định được sử dụng cho an toàn hạt nhân cung cấp một mô hình hướng dẫn cho việc tiêu chuẩn hóa an toàn AI quốc gia. Hệ thống phân cấp năm cấp độ được sử dụng trong tiêu chuẩn an toàn hạt nhân, từ các nguyên tắc cơ bản đến các hướng dẫn thực hiện cụ thể, cung cấp một khuôn mẫu cho việc phát triển các tiêu chuẩn an toàn AI toàn diện. Khung đa cấp này cho phép các nguyên tắc được thiết lập ở cấp độ cao hơn được tích hợp vào các hướng dẫn cụ thể hơn ở cấp độ thấp hơn, tạo ra một hệ thống quy định nhất quán và toàn diện có thể được triển khai trong phạm vi pháp lý quốc gia (Cha, 2024).

Các bài học quan trọng từ quy định hạt nhân áp dụng cho quản trị AI quốc gia bao gồm:

  • Khung an toàn tiêu chuẩn hóa: Giống như quy định hạt nhân đã thiết lập các khung tiêu chuẩn hóa cho an toàn, quản trị AI quốc gia có thể tiêu chuẩn hóa hành vi, quá trình học tập và tiêu chí ra quyết định của các hệ thống AI để nâng cao an toàn công nghệ trong phạm vi lãnh thổ quốc gia.
  • Cơ chế giám sát độc lập: Các cơ quan quản lý hạt nhân đã thiết lập các hệ thống giám sát độc lập để theo dõi và đánh giá an toàn. Tương tự, quản trị AI quốc gia có thể thành lập các cơ quan trung lập để liên tục theo dõi và đánh giá hoạt động và hiệu suất của các hệ thống AI.
  • Các quy trình và bài tập định kỳ: Các cơ quan quản lý an toàn hạt nhân thực hiện các quy trình và bài tập định kỳ để ứng phó với các sự cố. Các tiếp cận tương tự có thể được phát triển ở cấp quốc gia để ứng phó kịp thời với các sự cố liên quan đến AI hoặc hành vi bất thường.
  • Cơ chế chia sẻ thông tin: Các hệ thống quản lý an toàn hạt nhân đã thiết lập các nền tảng để chia sẻ tiêu chuẩn an toàn, nghiên cứu và thông tin về sự cố giữa các ngành. Các nền tảng tương tự có thể được phát triển cho an toàn AI ở cấp quốc gia để chia sẻ nghiên cứu, công nghệ và thông tin về sự cố giữa các ngành (Cha, 2024).

Liên minh Châu Âu

Liên minh Châu Âu đã thiết lập nền tảng pháp lý nào cho quản trị AI? Liên minh Châu Âu đã mở ra một hướng đi mới với Luật AI của EU, khung pháp lý toàn diện đầu tiên trên thế giới về trí tuệ nhân tạo. Được đề xuất lần đầu vào năm 2021 và chính thức thông qua vào tháng 3 năm 2024, luật này điều chỉnh các hệ thống AI dựa trên mức độ rủi ro tiềm ẩn và bảo vệ quyền lợi của công dân EU. Tại lõi của khung pháp lý này là tiếp cận dựa trên rủi ro, phân loại các hệ thống AI thành bốn loại riêng biệt: rủi ro không thể chấp nhận, rủi ro cao, rủi ro hạn chế và rủi ro tối thiểu. Các hệ thống AI có rủi ro không thể chấp nhận, chẳng hạn như những hệ thống thao túng hành vi con người hoặc khai thác điểm yếu, bị cấm hoàn toàn. Các hệ thống AI có rủi ro cao, bao gồm những hệ thống được sử dụng trong cơ sở hạ tầng quan trọng, giáo dục và việc làm, phải tuân thủ các yêu cầu nghiêm ngặt và giám sát chặt chẽ. Các hệ thống AI có rủi ro hạn chế yêu cầu các biện pháp minh bạch, trong khi các hệ thống AI có rủi ro tối thiểu hầu như không bị quy định.

Luật AI của EU được thực thi như thế nào? Luật này có hiệu lực từ tháng 8 năm 2024 và được thực thi theo từng giai đoạn. Từ ngày 2 tháng 2 năm 2025, lệnh cấm các thực hành AI bị cấm (đánh giá xã hội, một số hệ thống nhận dạng sinh trắc học) và yêu cầu về trình độ AI cho nhân viên có hiệu lực. Từ ngày 2 tháng 8 năm 2025, các nghĩa vụ đối với nhà cung cấp mô hình AI mục đích chung (GPAI) sẽ có hiệu lực, bao gồm tài liệu, tuân thủ bản quyền và minh bạch dữ liệu. Luật này thành lập Văn phòng AI Châu Âu để giám sát việc thực thi và thi hành, phối hợp tuân thủ, cung cấp hướng dẫn cho doanh nghiệp và thi hành các quy tắc. Cơ quan chuyên trách này đóng vai trò là cơ quan chính thi hành các quy tắc AI bắt buộc trên một liên minh đa quốc gia, có vị thế định hình quản trị AI toàn cầu tương tự cách GDPR tái cấu trúc tiêu chuẩn bảo mật quốc tế.

Các yêu cầu bổ sung nào áp dụng cho các hệ thống AI có rủi ro cao và rủi ro hệ thống? Đối với các mô hình GPAI gây ra rủi ro hệ thống, được xác định bằng cách vượt qua ngưỡng khả năng điện toán ($10^25$ FLOPs) hoặc dựa trên các tiêu chí tầm ảnh hưởng tiềm năng (như khả năng mở rộng quy mô và rủi ro gây hại quy mô lớn), các nghĩa vụ bổ sung sẽ được áp dụng. Các nhà cung cấp phải thực hiện kiểm tra đối kháng, theo dõi và báo cáo các sự cố nghiêm trọng, triển khai các biện pháp an ninh mạng mạnh mẽ và chủ động giảm thiểu rủi ro hệ thống. Văn phòng AI Châu Âu đã hỗ trợ soạn thảo Bộ Quy tắc Thực hành AI Mục đích Chung, hoàn thành vào tháng 4 năm 2025, cung cấp công cụ trung tâm cho các nhà cung cấp mô hình GPAI tuân thủ các yêu cầu của Luật. Mặc dù tuân thủ thông qua Bộ Quy tắc này là tự nguyện, nó cung cấp cho các nhà cung cấp một con đường thực tiễn rõ ràng để chứng minh sự tuân thủ.

EU tiếp cận việc thi hành và xử phạt như thế nào? Văn phòng AI của EU đóng vai trò là cơ quan thi hành, có quyền yêu cầu thông tin, tiến hành đánh giá, yêu cầu các biện pháp khắc phục và áp dụng phạt tiền lên đến 3% doanh thu hàng năm toàn cầu của nhà cung cấp hoặc €15 triệu, tùy theo mức nào cao hơn. Điều này thể hiện một cơ chế thi hành mạnh mẽ, mặc dù thấp hơn một chút so với mức tối đa 7% được đề cập trong các bản thảo trước đó của luật. Các mức phạt đối với vi phạm là rất cao, thể hiện cam kết mạnh mẽ của EU trong việc đảm bảo tuân thủ khung pháp lý của mình (Cheng et al., 2024).

Những giá trị và ưu tiên nào định hướng cho cách tiếp cận của EU? EU đã thể hiện sự ưu tiên rõ ràng trong việc bảo vệ quyền lợi của công dân. Phương pháp phân loại mức độ rủi ro của Luật Trí tuệ Nhân tạo (AI) của EU chủ yếu tập trung vào việc đo lường khả năng của các hệ thống AI xâm phạm quyền lợi của công dân EU. Điều này có thể thấy rõ trong danh sách các trường hợp sử dụng được coi là có rủi ro cao, chẳng hạn như giáo dục hoặc đào tạo nghề, việc làm, di cư và tị nạn, cũng như quản lý tư pháp hoặc các quá trình dân chủ. Hầu hết các yêu cầu được thiết kế với người dân bình thường làm trung tâm, bao gồm các yêu cầu về minh bạch và báo cáo, khả năng của bất kỳ công dân nào trong việc nộp đơn khiếu nại với cơ quan giám sát thị trường, cấm các hệ thống đánh giá xã hội, và các yêu cầu chống phân biệt đối xử. Phương pháp tiếp cận dựa trên quyền này đối lập rõ rệt với sự tập trung của Trung Quốc vào kiểm soát xã hội và sự nhấn mạnh của Mỹ vào cạnh tranh địa chính trị (Cheng et al., 2024).