Kế hoạch sử dụng AI để củng cố nền dân chủ trong kỷ nguyên số

Công nghệ05 tháng 5, 2026·8 phút đọc

AI đang thay đổi cách chúng ta tiếp nhận thông tin và tham gia vào quản trị xã hội, mang đến cả cơ hội và thách thức to lớn. Bài viết phân tích các rủi ro về phân cực và quyền lực chưa được kiểm soát, đồng thời đề xuất các hướng thiết kế công nghệ để AI phục vụ lợi ích chung. Để tránh sự suy yếu của các thể chế dân chủ, chúng ta cần xây dựng hạ tầng kỹ thuật và chính sách mới ngay từ bây giờ.

Kế hoạch sử dụng AI để củng cố nền dân chủ trong kỷ nguyên số

Mỗi vài thế kỷ một lần, sự thay đổi trong cách thức lưu truyền thông tin sẽ định hình lại cách xã hội tự quản mình. Máy in đã phổ cập kiến thức bằng tiếng mẹ đẻ, góp phần vào sự trỗi dậy của Cải cách tôn giáo và sau đó là chính quyền đại diện. Điện tín cho phép quản lý các quốc gia rộng lớn như Mỹ, thúc đẩy sự phát triển của nhà nước quan liêu hiện đại. Truyền thông đại chúng tạo ra khán giả quốc gia chung, từ đó thúc đẩy nền dân chủ đại chúng.

Chúng ta hiện đang ở giai đoạn đầu của một sự chuyển dịch như vậy. Nhanh hơn nhiều người nhận thức, AI đang trở thành giao diện chính mà qua đó chúng ta hình thành niềm tin và tham gia vào sự tự quản của nền dân chủ. Nếu không được kiểm soát, sự chuyển dịch này có thể làm căng thẳng thêm các thể chế vốn đã mong manh của Mỹ. Tuy nhiên, nó cũng có thể giúp giải quyết các vấn đề tồn đọng lâu nay, như sự thờ ơ trong công việc công dân và sự phân cực sâu sắc. Điều sẽ xảy ra tiếp theo phụ thuộc vào các lựa chọn thiết kế đang được đưa ra, dù chúng ta có biết hay không.

Hãy bắt đầu với cái có thể gọi là lớp nhận thức (epistemic layer) — cách chúng ta biết về mọi thứ. Con người ngày càng phụ thuộc vào AI để biết điều gì là đúng, điều gì đang xảy ra và nên tin ai. Tìm kiếm hiện nay đã được trung gian hóa bởi AI ở mức độ lớn. Trợ lý AI thế hệ tiếp theo sẽ tổng hợp thông tin, định hình khung hình và trình bày nó với sự uy quyền. Với ngày càng nhiều người, hỏi AI sẽ trở thành cách mặc định để hình thành quan điểm về một ứng cử viên, một chính sách hoặc một nhân vật công khai. Do đó, bất kỳ ai kiểm soát những gì các mô hình này nói sẽ có ảnh hưởng ngày càng tăng đối với niềm tin của mọi người.

Công nghệ luôn định hình cách công dân tương tác với thông tin. Nhưng một vấn đề mới sẽ sớm xuất hiện dưới dạng các tác nhân AI cá nhân, vốn không chỉ thay đổi cách con người nhận thông tin mà còn cả cách họ hành động dựa trên đó. Các hệ thống này sẽ tiến hành nghiên cứu, soạn thảo thông tin liên lạc, làm nổi bật các vấn đề và vận động thay mặt người dùng. Chúng sẽ tư vấn cho các quyết định như cách bỏ phiếu cho một biện pháp, tổ chức nào đáng hỗ trợ, hoặc cách phản hồi với một thông báo của chính phủ. Theo một nghĩa quan trọng, chúng sẽ bắt đầu làm trung gian trong mối quan hệ giữa các cá nhân và các thể chế quản lý họ.

Chúng ta đã thấy với mạng xã hội điều gì sẽ xảy ra khi các thuật toán tối ưu hóa cho sự tương tác thay vì sự thấu hiểu. Các nền tảng không cần một chương trình nghị sự chính trị rõ ràng để tạo ra sự phân cực và cực đoan hóa. Một tác nhân biết rõ sở thích và nỗi lo âu của bạn — một thực thể được định hình để giữ bạn tương tác — cũng tạo ra những rủi ro tương tự. Và trong trường hợp này, các rủi ro có thể còn khó phát hiện hơn, bởi vì tác nhân tự nhận mình là người bảo vệ bạn. Nó nói thay bạn, hành động thay bạn và có thể giành được niềm tin chính qua sự thân mật đó.

Hãy mở rộng phạm vi ra tập thể. Tác nhân AI và con người có thể sớm tham gia vào cùng một diễn đàn, nơi có thể không thể phân biệt được ai là ai. Ngay cả khi mọi tác nhân AI cá nhân đều được thiết kế tốt và phù hợp với lợi ích của người dùng, sự tương tác của hàng triệu tác nhân có thể tạo ra những kết quả mà không một cá nhân nào mong muốn hoặc lựa chọn. Ví dụ, nghiên cứu cho thấy các tác nhân không thể hiện sự thiên kiến cá nhân vẫn có thể tạo ra sự thiên kiến tập thể ở quy mô lớn. Và bỏ qua việc các tác nhân làm gì với nhau, còn có việc chúng làm gì cho người dùng của mình. Một không gian công nơi mọi người đều có một tác nhân cá nhân điều chỉnh theo quan điểm hiện có của họ, xét trên tổng thể, không phải là một không gian công chút nào. Đó là một tập hợp các thế giới riêng tư, mỗi thế giới nội tại nhất quán nhưng tập thể lại không thân thiện với loại tranh luận chung mà nền dân chủ yêu cầu.

Tổng hợp lại, ba sự chuyển đổi này — trong cách chúng ta biết, cách chúng ta hành động và cách chúng ta tham gia vào quản trị tập thể — tương đương với một sự thay đổi cơ bản về bản chất của công dân. Trong tương lai gần, con người sẽ hình thành quan điểm chính trị thông qua bộ lọc AI, thực hiện quyền năng công dân thông qua các tác nhân AI và tham gia vào các thể chế cũng như thảo luận công cộng vốn bị định hình bởi sự tương tác của hàng triệu tác nhân như vậy.

Nền dân chủ ngày nay chưa sẵn sàng cho điều này. Các thể chế của chúng ta được thiết kế cho một thế giới nơi quyền lực được thực thi một cách hữu hình, thông tin di chuyển đủ chậm để có thể tranh luận và thực tế cảm thấy được chia sẻ nhiều hơn, dù chưa hoàn hảo. Tất cả những điều này đã bị mài mòn từ lâu trước khi AI tạo sinh xuất hiện. Tuy nhiên, điều này không nhất thiết phải là một câu chuyện về sự suy tàn. Để tránh kết quả đó, chúng ta cần thiết kế cho một điều gì đó tốt đẹp hơn.

Trên tầng lớp thông tin, các công ty AI cần tăng cường các nỗ lực hiện có để đảm bảo đầu ra của các mô hình là trung thực. Họ cũng nên khám phá một số phát hiện ban đầu đầy hứa hẹn cho thấy các mô hình AI có thể giúp giảm sự phân cực. Một đánh giá thực tế gần đây về các kiểm tra sự thật do AI tạo ra trên nền tảng X cho thấy những người có nhiều quan điểm chính trị khác nhau đánh giá các ghi chú do AI viết ra hữu ích hơn so với ghi chú do con người viết. Bài báo chưa được thẩm định đồng nghiệp, nhưng đó là một phát hiện mang tính cách mạng tiềm tàng: kiểm tra sự thật được hỗ trợ bởi AI có thể đạt được loại độ tin cậy vượt qua đảng phái mà hầu hết các nỗ lực thủ công của con người không đạt được. Sự hiểu biết tốt hơn và tính minh bạch về cách các mô hình đưa ra các khẳng định này và ưu tiên các nguồn trong quá trình đó có thể giúp xây dựng thêm niềm tin của công chúng.

Trên tầng lớp tác nhân, chúng ta cần các cách để đánh giá xem các tác nhân AI có đại diện trung thành cho người dùng của mình hay không. Một tác nhân không bao giờ được có chương trình nghị sự của riêng mình hoặc xuyên tạc quan điểm của người dùng — một yêu cầu kỹ thuật đầy thách thức trong các lĩnh vực mà người dùng có thể chưa nêu rõ bất kỳ sở thích nào. Tuy nhiên, sự đại diện trung thành cũng không thể trở thành công cụ phụ trợ cho tư duy có động cơ (motivated reasoning). Một tác nhân từ chối trình bày thông tin khó chịu, che chắn người dùng khỏi việc từng đặt câu hỏi về các niềm tin trước đây hoặc không điều chỉnh theo sự thay đổi trong tâm trí, không phải đang hành động vì lợi ích tốt nhất của người đó.

Cuối cùng, ở cấp độ thể chế, các nhà hoạch định chính sách cần nhanh chóng tận dụng tiềm năng của AI để làm cho việc quản trị trở nên nhạy bén và chính danh hơn. Một số bang và địa phương tại Mỹ đã đang sử dụng các nền tảng được trung gian bởi AI để tiến hành tranh luận dân chủ ở quy mô lớn, dựa trên nghiên cứu cho thấy các trung gian AI có thể giúp công dân tìm thấy điểm chung. Khi các tác nhân trở thành những người tham gia ngày càng phổ biến trong các quy trình đóng góp ý kiến công cộng — và đã có bằng chứng cho thấy bot đang làm sai lệch các quy trình này — việc xác minh danh tính cho cả con người và các đại lý ủy quyền của họ phải được tích hợp ngay từ đầu.

Những gì cần thiết là một thế hệ hạ tầng dân chủ mới, cả về công nghệ lẫn thể chế, được xây dựng cho thế giới thực tế hiện nay. Việc không thiết kế cho các kết quả dân chủ, trong một lĩnh vực quan trọng như thế này, đồng nghĩa với việc thiết kế cho một điều gì đó khác. Và lịch sử của quyền lực không chịu trách nhiệm không còn nhiều chỗ cho sự lạc quan về việc điều gì đó khác đó thường là gì.

Chia sẻ:FacebookX
Nội dung tổng hợp bằng AI, mang tính tham khảo. Xem bài gốc ↗