Xói mòn năng lực con người

Tác giả:
Cody Fenwick
04/2025
[?]
phút đc
Xuất bản gốc tại
80,000 Hours
Xói mòn năng lực con người

Tóm tắt

Sự phổ biến của các hệ thống AI tiên tiến có thể dẫn đến sự xói mòn năng lực của con người, ngay cả khi các biện pháp ngăn chặn chúng trở nên tham quyền hoặc mưu mô có thành công. Con người có thể được khuyến khích trao cho AI ngày càng nhiều quyền kiểm soát, bao gồm quyền lực trong kinh tế, chính trị, văn hóa và nhiều lĩnh vực khác. Theo thời gian, quyền lợi của con người có thể bị gạt sang một bên và khả năng kiểm soát tương lai của con người bị suy yếu, có thể dẫn đến một thảm họa tồn vong.

Có nhiều ý kiến trái chiều về mức độ nghiêm trọng của vấn đề này và mối liên hệ của nó với các lo ngại khác về căn chỉnh AI. Ngoài ra, nếu đây là một rủi ro thực sự, thì việc chúng ta có thể làm gì để đối phó cũng chưa rõ ràng. Tuy nhiên, chúng tôi cho rằng đây là một vấn đề rất quan trọng và cần có nhiều người hơn nữa tham gia làm rõ vấn đề này và tìm ra cách giải quyết.

Tại sao xói mòn năng lực lại là một vấn đề cấp bách?

Trong lịch sử, sự tiến bộ của công nghệ luôn mang lại lợi ích cho nhân loại. Sự phát minh của lửa, điều hòa không khí và thuốc kháng sinh đều có những bất lợi nhất định, nhưng nhìn chung, chúng đã giúp con người sống khỏe mạnh, hạnh phúc và thoải mái hơn.

Tuy nhiên, xu hướng này chưa chắc sẽ tiếp tục.

Chúng tôi đã viết về lý do tại sao sự phát triển của công nghệ AI tiên tiến lại gây ra những rủi ro tồn vong. Một mô hình đe dọa nổi bật và đặc biệt đáng lo ngại là khi hệ thống AI trở nên mạnh mẽ hơn, chúng sẽ phát triển những lợi ích mâu thuẫn với loài người. Chúng có thể, mà người tạo ra chúng không hay biết, trở nên tham quyền lực. Chúng có thể cố ý lừa dối chúng ta về ý định của mình và sử dụng trí thông minh vượt trội và năng lực lập kế hoạch tiên tiến để tước quyền lực của loài người hoặc đẩy chúng ta đến sự tuyệt chủng.

Tuy nhiên, có thể sự phát triển của hệ thống AI sẽ dẫn đến việc con người trở nên yếu thế và tuyệt chủng, ngay cả khi chúng ta thành công trong việc ngăn chặn hệ thống AI tìm kiếm quyền lực và âm mưu chống lại chúng ta.

Trong một bài báo gần đây, Jan Kulveit và các đồng tác giả gọi mối đe dọa này là xói mòn năng lực. Họ đưa ra sáu luận điểm sau:

  1. Các hệ thống xã hội lớn, như nền kinh tế và chính phủ, thường gần như tương thích với các lợi ích của con người.1
  2. Sự tương thích này của các hệ thống xã hội được duy trì bởi nhiều yếu tố, bao gồm hệ thống bỏ phiếu, nhu cầu của người tiêu dùng và sự phụ thuộc vào lao động và tư duy của con người.
  3. Các hệ thống xã hội ít phụ thuộc vào lao động và tư duy của con người — và phụ thuộc nhiều hơn vào các hệ thống AI ngày càng tiên tiến và mạnh mẽ — sẽ ít tương thích hơn với lợi ích của con người.
  4. Các hệ thống AI có thể thực sự cạnh tranh với lao động con người để giành các vai trò quan trọng trong các hệ thống xã hội, một phần chúng có thể theo đuổi các hướng đi được chỉ định một cách quyết liệt hơn. Và điều này có thể khiến các hệ thống càng ít tương thích với lợi ích của con người.
  5. Nếu một hệ thống xã hội mất căn chỉnh với lợi ích của con người, như nền kinh tế quốc gia, điều này có thể làm tăng khả năng các hệ thống khác cũng mất căn chỉnh. Ví dụ, các cá nhân có quyền lực kinh tế mạnh mẽ trong lịch sử đã luôn có ảnh hưởng đến các chính phủ quốc gia.
  6. Con người có thể dần mất quyền lực, có thể là vĩnh viễn, khi AI ngày càng kiểm soát các hệ thống xã hội và các hệ thống này ngày càng mất căn chỉnh với lợi ích của con người. Trong trường hợp cực đoan, điều này có thể dẫn đến sự tuyệt chủng của loài người.

Kulveit và các cộng sự đã thảo luận về lý do tại sao hệ thống AI có thể chi phối nền kinh tế, chính phủ các quốc gia và thậm chí cả văn hóa theo những cách đi ngược lại lợi ích của loài người.

Có thể khó tưởng tượng tại sao con người lại để điều này xảy ra, bởi vì trong kịch bản này, hệ thống AI không chủ động lừa dối. Thay vào đó, chúng chỉ làm theo chỉ dẫn của con người.

Điều đáng lo ngại là do áp lực cạnh tranh, chúng ta có thể thấy mình bị thúc đẩy phải trao ngày càng nhiều quyền kiểm soát cho chính các hệ thống AI. Một số cá nhân, tổ chức, chính phủ hoặc các cơ quan khác sẽ ban đầu giành được quyền lực đáng kể nhờ việc triển khai AI, sử dụng các hệ thống này để thúc đẩy lợi ích và sứ mệnh của mình.

Dưới đây là cách tình huống này có thể xảy ra:

  • Đầu tiên, các nhà lãnh đạo kinh tế và chính trị áp dụng các hệ thống AI để tăng cường lợi thế hiện có của mình. Một công ty tài chính triển khai hệ thống giao dịch AI để cạnh tranh với các nhà giao dịch con người. Các chính trị gia sử dụng cố vấn AI để giành chiến thắng trong các cuộc bầu cử và giữ cho cử tri hài lòng. Những người tiên phong áp dụng AI này không bị suy yếu mà ngược lại, họ gặt hái thành công, điều này khuyến khích các đối thủ cạnh tranh của họ cũng áp dụng AI.
  • Theo thời gian, con người mất dần quyền kiểm soát. Hội đồng quản trị của các công ty có thể cố gắng thay đổi hướng đi trái với lời khuyên của AI, nhưng cuối cùng giá cổ phiếu lại sụt giảm vì AI có chiến lược kinh doanh tốt hơn nhiều. Các quan chức chính phủ có thể nhận ra rằng họ không hiểu đủ về hệ thống AI điều hành các dịch vụ quan trọng để thay đổi những gì họ đang làm thành công.
  • Chỉ sau đó, khi hệ thống AI ngày càng trở nên mạnh mẽ, mới có thể có những dấu hiệu cho thấy hệ thống này đang đi chệch khỏi lợi ích của con người — không phải vì chúng cố ý làm vậy, mà vì chúng đang thúc đẩy những thành công không hoàn toàn phù hợp với những gì thực sự tốt cho con người.
  • Trong lĩnh vực văn hóa, ví dụ, các công ty truyền thông có thể sử dụng AI để tạo ra nội dung ngày càng gây nghiện, định hình lại sở thích của con người. Điều bắt đầu như giải trí có thể phát triển thành công nghệ thuyết phục có thể ảnh hưởng đến kết quả chính trị, làm suy yếu sự kiểm soát dân chủ.

Một khi con người bắt đầu mất quyền lực theo những cách này, họ có thể mất dần khả năng ảnh hưởng đến diễn biến tương lai một cách không thể đảo ngược. Cuối cùng, nhu cầu của họ có thể không được các cá nhân quyền lực nhất trên thế giới đáp ứng. Trong trường hợp cực đoan nhất, loài người như chúng ta biết có thể không tồn tại.

Nhiều kịch bản khác cũng có thể xảy ra.

Có một số phiên bản của sự "mất năng lực" mà có vẻ như là một xã hội lý tưởng: con người phát triển và hạnh phúc trong một xã hội được quản lý một cách chuyên nghiệp và kiểm soát cơ bản bởi các hệ thống AI thiện lành. Hoặc có thể một ngày nào đó, loài người sẽ quyết định rằng họ sẵn sàng nhường tương lai cho các hệ thống AI mà chúng ta coi là những người kế thừa xứng đáng.

Tuy nhiên, rủi ro là loài người có thể "trao quyền" một cách vô tình và theo cách mà ít ai trong chúng ta ủng hộ. Chúng ta có thể dần dần bị thay thế bởi các hệ thống AI không có ý thức, hoặc tương lai có thể bị chi phối bởi sự cạnh tranh Darwin khốc liệt giữa các thực thể ảo khác nhau. Điều đó có thể đồng nghĩa với việc tương lai bị mất đi hầu hết giá trị — một thảm họa.

Chúng tôi muốn hiểu rõ hơn về những động lực và rủi ro này để tăng cơ hội cho một tương lai tươi sáng.

Vấn đề này cấp bách đến mức nào?

Chúng tôi không chắc chắn về khả năng xảy ra các kịch bản xói mòn năng lực dần dần, cũng như khó phân biệt các khả năng này với các rủi ro liên quan đến hệ thống AI tìm kiếm quyền lực và các câu hỏi về tình trạng đạo đức của trí tuệ kỹ thuật số, vốn cũng khó xác định.

Do lĩnh vực này chứa đựng quá nhiều nghi vấn, nên hiện tại chúng ta vẫn chưa rõ đâu là các biện pháp can thiệp hiệu quả nhất. Chúng tôi cho rằng cần phải tiến hành nghiên cứu sâu hơn để hiểu rõ vấn đề này và các giải pháp tiềm năng — và có thể một số người nên tập trung vào việc này.

Các lập luận phản đối rằng đây là một vấn đề cấp bách là gì?

Có một số lý do khiến bạn có thể không nghĩ rằng vấn đề này là rất cấp bách:

  • Bạn có thể nghĩ rằng vấn đề này sẽ được giải quyết một cách tự nhiên, bởi vì nếu chúng ta tránh được các rủi ro khác từ AI, các hệ thống AI tiên tiến sẽ giúp chúng ta giải quyết các vấn đề này.
  • Bạn có thể nghĩ rằng rất khó có khả năng các hệ thống AI, nếu không chủ động âm mưu chống lại chúng ta, sẽ góp phần gây ra thảm họa tồn vong cho loài người — ngay cả khi có một số vấn đề về mất năng lực. Điều này có thể khiến bạn nghĩ rằng đây là một vấn đề, nhưng không lớn bằng các rủi ro tồn vong khác từ AI.
  • Bạn có thể nghĩ rằng không có giải pháp tốt cho vấn đề này.
  • Bạn có thể nghĩ rằng sự mất năng lực dần dần của loài người sẽ không dẫn đến thảm họa tồn vong. Ví dụ, có lẽ điều đó sẽ tốt hoặc gần như tốt bằng những tương lai khác.

Bạn có thể làm gì để giúp giải quyết vấn đề này?

Với kiến thức tương đối hạn chế về chủ đề này, chúng tôi cho rằng cách tốt nhất để giúp giải quyết vấn đề này là tiến hành thêm nghiên cứu để hiểu rõ hơn về nó. (Đọc thêm về kỹ năng nghiên cứu.)

Những người có kiến thức về triết học, lịch sử, kinh tế, xã hội học và khoa học chính trị — ngoài học máy và AI — có thể sẽ đặc biệt phù hợp với vấn đề này.

Bạn có thể muốn làm việc trong lĩnh vực học thuật, tổ chức tư vấn hoặc các tổ chức nghiên cứu phi lợi nhuận.

Tại một thời điểm nào đó, nếu chúng ta có hiểu biết tốt hơn về các mối đe dọa và các giải pháp tiềm năng, chúng ta sẽ cần những người làm việc trong lĩnh vực quản trị và chính sách AI, tập trung vào việc giảm thiểu những rủi ro này. Vì vậy, theo đuổi sự nghiệp trong lĩnh vực quản trị AI, đồng thời xây dựng hiểu biết về lĩnh vực nghiên cứu mới nổi này cũng như các rủi ro AI lớn khác, có thể là một chiến lược đầy hứa hẹn để cuối cùng giúp giảm thiểu rủi ro mất năng lực dần dần.

Kulveit et al. đề xuất một số cách tiếp cận để giảm thiểu rủi ro mất năng lực dần dần, bao gồm:

  • Đo lường và giám sát
    • Phát triển các chỉ số để theo dõi ảnh hưởng của con người và AI trong các hệ thống kinh tế, văn hóa và chính trị
    • Lập kế hoạch để xác định các dấu hiệu cảnh báo về khả năng mất năng lực
  • Ngăn chặn ảnh hưởng quá mức của AI
    • Thực hiện các khung pháp lý yêu cầu sự giám sát của con người
    • Áp dụng thuế lũy tiến đối với doanh thu do AI tạo ra
    • Thiết lập các chuẩn mực văn hóa hỗ trợ hành động của con người
  • Tăng cường kiểm soát của con người:
    • Tạo ra các quy trình dân chủ vững chắc hơn
    • Đảm bảo hệ thống AI vẫn dễ hiểu đối với con người
    • Phát triển các đại diện AI đại diện cho lợi ích của con người mà vẫn duy trì tính cạnh tranh
  • Căn chỉnh toàn hệ thống
    • Nghiên cứu “căn chỉnh hệ sinh thái” để duy trì các giá trị của con người trong các hệ thống xã hội-kỹ thuật phức tạp
    • Phát triển các khung để căn chỉnh các tương tác giữa con người và AI trên toàn nền văn minh

Các tổ chức chính trong lĩnh vực này

Một số tổ chức mà bạn có thể thực hiện nghiên cứu liên quan bao gồm:

Bạn cũng có thể tìm hiểu các vai trò tại các tổ chức khác hoạt động trong lĩnh vực an toàn và chính sách AI.