Sự phổ biến của các hệ thống AI tiên tiến có thể dẫn đến sự xói mòn năng lực của con người, ngay cả khi các biện pháp ngăn chặn chúng trở nên tham quyền hoặc mưu mô có thành công. Con người có thể được khuyến khích trao cho AI ngày càng nhiều quyền kiểm soát, bao gồm quyền lực trong kinh tế, chính trị, văn hóa và nhiều lĩnh vực khác. Theo thời gian, quyền lợi của con người có thể bị gạt sang một bên và khả năng kiểm soát tương lai của con người bị suy yếu, có thể dẫn đến một thảm họa tồn vong.
Có nhiều ý kiến trái chiều về mức độ nghiêm trọng của vấn đề này và mối liên hệ của nó với các lo ngại khác về căn chỉnh AI. Ngoài ra, nếu đây là một rủi ro thực sự, thì việc chúng ta có thể làm gì để đối phó cũng chưa rõ ràng. Tuy nhiên, chúng tôi cho rằng đây là một vấn đề rất quan trọng và cần có nhiều người hơn nữa tham gia làm rõ vấn đề này và tìm ra cách giải quyết.
Trong lịch sử, sự tiến bộ của công nghệ luôn mang lại lợi ích cho nhân loại. Sự phát minh của lửa, điều hòa không khí và thuốc kháng sinh đều có những bất lợi nhất định, nhưng nhìn chung, chúng đã giúp con người sống khỏe mạnh, hạnh phúc và thoải mái hơn.
Tuy nhiên, xu hướng này chưa chắc sẽ tiếp tục.
Chúng tôi đã viết về lý do tại sao sự phát triển của công nghệ AI tiên tiến lại gây ra những rủi ro tồn vong. Một mô hình đe dọa nổi bật và đặc biệt đáng lo ngại là khi hệ thống AI trở nên mạnh mẽ hơn, chúng sẽ phát triển những lợi ích mâu thuẫn với loài người. Chúng có thể, mà người tạo ra chúng không hay biết, trở nên tham quyền lực. Chúng có thể cố ý lừa dối chúng ta về ý định của mình và sử dụng trí thông minh vượt trội và năng lực lập kế hoạch tiên tiến để tước quyền lực của loài người hoặc đẩy chúng ta đến sự tuyệt chủng.
Tuy nhiên, có thể sự phát triển của hệ thống AI sẽ dẫn đến việc con người trở nên yếu thế và tuyệt chủng, ngay cả khi chúng ta thành công trong việc ngăn chặn hệ thống AI tìm kiếm quyền lực và âm mưu chống lại chúng ta.
Trong một bài báo gần đây, Jan Kulveit và các đồng tác giả gọi mối đe dọa này là xói mòn năng lực. Họ đưa ra sáu luận điểm sau:
Kulveit và các cộng sự đã thảo luận về lý do tại sao hệ thống AI có thể chi phối nền kinh tế, chính phủ các quốc gia và thậm chí cả văn hóa theo những cách đi ngược lại lợi ích của loài người.
Có thể khó tưởng tượng tại sao con người lại để điều này xảy ra, bởi vì trong kịch bản này, hệ thống AI không chủ động lừa dối. Thay vào đó, chúng chỉ làm theo chỉ dẫn của con người.
Điều đáng lo ngại là do áp lực cạnh tranh, chúng ta có thể thấy mình bị thúc đẩy phải trao ngày càng nhiều quyền kiểm soát cho chính các hệ thống AI. Một số cá nhân, tổ chức, chính phủ hoặc các cơ quan khác sẽ ban đầu giành được quyền lực đáng kể nhờ việc triển khai AI, sử dụng các hệ thống này để thúc đẩy lợi ích và sứ mệnh của mình.
Dưới đây là cách tình huống này có thể xảy ra:
Một khi con người bắt đầu mất quyền lực theo những cách này, họ có thể mất dần khả năng ảnh hưởng đến diễn biến tương lai một cách không thể đảo ngược. Cuối cùng, nhu cầu của họ có thể không được các cá nhân quyền lực nhất trên thế giới đáp ứng. Trong trường hợp cực đoan nhất, loài người như chúng ta biết có thể không tồn tại.
Nhiều kịch bản khác cũng có thể xảy ra.
Có một số phiên bản của sự "mất năng lực" mà có vẻ như là một xã hội lý tưởng: con người phát triển và hạnh phúc trong một xã hội được quản lý một cách chuyên nghiệp và kiểm soát cơ bản bởi các hệ thống AI thiện lành. Hoặc có thể một ngày nào đó, loài người sẽ quyết định rằng họ sẵn sàng nhường tương lai cho các hệ thống AI mà chúng ta coi là những người kế thừa xứng đáng.
Tuy nhiên, rủi ro là loài người có thể "trao quyền" một cách vô tình và theo cách mà ít ai trong chúng ta ủng hộ. Chúng ta có thể dần dần bị thay thế bởi các hệ thống AI không có ý thức, hoặc tương lai có thể bị chi phối bởi sự cạnh tranh Darwin khốc liệt giữa các thực thể ảo khác nhau. Điều đó có thể đồng nghĩa với việc tương lai bị mất đi hầu hết giá trị — một thảm họa.
Chúng tôi muốn hiểu rõ hơn về những động lực và rủi ro này để tăng cơ hội cho một tương lai tươi sáng.
Chúng tôi không chắc chắn về khả năng xảy ra các kịch bản xói mòn năng lực dần dần, cũng như khó phân biệt các khả năng này với các rủi ro liên quan đến hệ thống AI tìm kiếm quyền lực và các câu hỏi về tình trạng đạo đức của trí tuệ kỹ thuật số, vốn cũng khó xác định.
Do lĩnh vực này chứa đựng quá nhiều nghi vấn, nên hiện tại chúng ta vẫn chưa rõ đâu là các biện pháp can thiệp hiệu quả nhất. Chúng tôi cho rằng cần phải tiến hành nghiên cứu sâu hơn để hiểu rõ vấn đề này và các giải pháp tiềm năng — và có thể một số người nên tập trung vào việc này.
Có một số lý do khiến bạn có thể không nghĩ rằng vấn đề này là rất cấp bách:
Với kiến thức tương đối hạn chế về chủ đề này, chúng tôi cho rằng cách tốt nhất để giúp giải quyết vấn đề này là tiến hành thêm nghiên cứu để hiểu rõ hơn về nó. (Đọc thêm về kỹ năng nghiên cứu.)
Những người có kiến thức về triết học, lịch sử, kinh tế, xã hội học và khoa học chính trị — ngoài học máy và AI — có thể sẽ đặc biệt phù hợp với vấn đề này.
Bạn có thể muốn làm việc trong lĩnh vực học thuật, tổ chức tư vấn hoặc các tổ chức nghiên cứu phi lợi nhuận.
Tại một thời điểm nào đó, nếu chúng ta có hiểu biết tốt hơn về các mối đe dọa và các giải pháp tiềm năng, chúng ta sẽ cần những người làm việc trong lĩnh vực quản trị và chính sách AI, tập trung vào việc giảm thiểu những rủi ro này. Vì vậy, theo đuổi sự nghiệp trong lĩnh vực quản trị AI, đồng thời xây dựng hiểu biết về lĩnh vực nghiên cứu mới nổi này cũng như các rủi ro AI lớn khác, có thể là một chiến lược đầy hứa hẹn để cuối cùng giúp giảm thiểu rủi ro mất năng lực dần dần.
Kulveit et al. đề xuất một số cách tiếp cận để giảm thiểu rủi ro mất năng lực dần dần, bao gồm:
Một số tổ chức mà bạn có thể thực hiện nghiên cứu liên quan bao gồm:
Bạn cũng có thể tìm hiểu các vai trò tại các tổ chức khác hoạt động trong lĩnh vực an toàn và chính sách AI.