Sự Kết Thúc Của "Biên Giới" Công Nghệ: Khi AI Chỉ Dành Cho Giới Tinh Hoa
Bài viết phân tích sâu sắc về sự lo ngại khi các mô hình AI tiên tiến nhất đang bị giới hạn bởi một số ít công ty lớn, tạo ra khoảng cách sâu sắc giữa người giàu và người nghèo trong việc tiếp cận công nghệ. Tác giả so sánh hiện tượng này với sự kết thúc của 'biên giới' trong lịch sử, cảnh báo về nguy cơ bóp nghẹt sự đổi mới và tập trung quyền lực vào tay một nhóm nhỏ mà không có sự giám sát thích hợp.
Tuyên bố gần đây của Anthropic về mô hình Mythos là lần đầu tiên trong đời tôi cảm thấy thực sự nghèo khó. Có lẽ vì tôi lớn lên cùng với internet, nơi từng là vùng đất không cần giấy phép, nơi bất kỳ ai cũng có đòn bẩy và cơ hội để khám phá cũng như theo đuổi những tham vọng không giới hạn. Tuy nhiên, điều đó đang thay đổi khi khoảng cách giữa các mô hình AI được công bố rộng rãi và những mô hình dành riêng cho giới giàu có đã được thiết lập ngày càng lớn.
Vào năm 1893, Frederick Jackson Turner đã lập luận rằng nhiều nét đặc trưng của Mỹ được định hình bởi sự tồn tại của vùng đất tự do ở phía Tây, nơi bất kỳ ai cũng có thể bắt đầu lại. Điều này đã thổi vào Mỹ tinh thần tự do, bình đẳng, sự bác bỏ hệ thống cấp cấp phong kiến, tính tự chủ và tham vọng.
Chúng ta đang chứng kiến sự đóng cửa của một biên giới khác trong lịch sử. Mặc dù giấc mơ Mỹ gần như đã chết, nhưng lối thoát duy nhất còn lại mang lại sự di chuyển kinh tế và quyền tự chủ cá nhân được trân trọng chính là thế giới kỹ thuật số. Có lẽ bạn sẽ không bao giờ sở hữu một ngôi nhà, nhưng khi nói đến công nghệ, một người nghèo và người giàu nhất thế giới đều có quyền truy cập vào cùng một internet, cùng một chiếc điện thoại, và cùng các giao thức mã hóa.
Một thiếu niên 16 tuổi không có bằng cấp và không có vốn vẫn có thể làm được nhiều việc. Thế giới của các bit đã mang lại tự do để xây dựng mà không bị chìm nghỉm trong những ràng buộc tùy ý, không cần tập hợp vốn khổng lồ hay uy tín hay các mối quan hệ, nơi sự sáng tạo và công việc của bạn có thể tự lên tiếng, và bạn có quyền tự chủ. Đây là một điều quý giá và chúng ta nên tìm cách bảo tồn nó càng lâu càng tốt, vì vẫn còn rất nhiều khả năng phía trước. Chúng ta mới chỉ bắt đầu làm xước bề mặt của những gì có thể xây dựng và cách tốt nhất để khai thác trí tuệ của các mô hình mạnh mẽ.
Tôi cảm nhận thấy điều này rõ ràng nhất trong việc ngăn chặn tiếp cận các mô hình tiên tiến (frontier models) đối với công chúng, mặc dù logic này cũng áp dụng cho việc thay thế lao động và trí tuệ nói chung bằng vốn. Rudolf Laine đã diễn đạt rất rõ vấn đề này trong bài tiểu luận của ông, Capital, AGI and Ambition.
Những người có vốn đáng kể khi AI thay thế lao động bắt đầu sẽ có lợi thế vĩnh viễn. Những kẻ khởi nghiệp mới sẽ không đánh bại được họ, vì vốn giờ đây dễ dàng chuyển đổi thành lao động siêu phàm trong bất kỳ lĩnh vực nào. – Rudolf Laine, 2024
George Hotz còn gọi thẳng thắn đây là tân phong kiến (neofeudalism).
Điều này không giống như vũ khí hạt nhân, đây là bản thân trí tuệ. Vũ khí hạt nhân chỉ có thể phá hủy; trí tuệ là lực lượng sáng tạo vĩ đại nhất thế giới. Nếu một nhóm nhỏ người độc quyền nó, bạn sẽ là tầng lớp dưới cùng vĩnh viễn giống như cách động vật vậy. – George Hotz, 2026
Anthropic đã đề cập rằng họ không có kế hoạch cung cấp Mythos cho công chúng nói chung. Tuy nhiên, việc không phát hành mô hình altogether và giữ nó dưới sự kiểm soát hoàn toàn là một chuyện. Việc có thời gian cấm vận sau đó phát hành cho công chúng sử dụng với một số kiểm tra cũng là hợp lý.
Nhưng việc chỉ chia sẻ quyền truy cập với các đối tác doanh nghiệp như Crowdstrike, Cisco và Microsoft, những tổ chức được biết đến thường xuyên gặp các sự cố bảo mật lớn, là một chuyện hoàn toàn khác. Nguy hiểm đến mức nào từ góc độ an toàn nếu khoảng cách năng lực tư nhân tăng trưởng theo cấp số nhân (đang xảy ra với việc tự cải thiện đệ quy) trước khi thế giới có thời gian thích ứng, và xảy ra một vụ vi phạm bảo mật tại một trong các phòng thí nghiệm này hoặc đối tác của họ? Hoặc nếu một phòng thí nghiệm nước ngoài tung ra một mô hình tương đương với rất ít hạn chế truy cập thì sao?
Về mặt cấu trúc, một công ty tư nhân đã xây dựng mô hình AI mạnh mẽ nhất thế giới và đã quyết định đơn phương ai được truy cập và ai đáng được bảo vệ. Họ và các đối tác đã thiết lập của họ hiện đang nắm giữ một trình tạo lỗ hổng zero-day, tích lũy kiến thức tư nhân về các lỗ hổng khai thác trong cơ sở hạ tầng của mọi người khác: những khả năng từng thuộc về các quốc gia và giờ đây đang được tư nhân hóa cho một số ít tổ chức có quan hệ tốt. Đây là những khả năng ở tầm quốc gia nhưng không có trách nhiệm giải trình ở tầm quốc gia. Nếu bạn tin vào dân chủ, chúng ta đã xây dựng ba nhánh của chính phủ vì một lý do. Anthropic đồng thời là nhà sản xuất, cơ quan quản lý và tòa án phúc thẩm, không có con đường nào dành cho những người sẵn sàng trả tiền và trải qua quy trình KYC nghiêm ngặt.
Quyền truy cập API có thể không phải là quyền sở hữu đầy đủ, nhưng ít nhất nó là một bề mặt có thể lập trình không loại bỏ khả năng. Khóa chặt nó vì lý do an toàn và việc sử dụng "chưa được phê duyệt" chắc chắn giúp ngăn chặn lạm dụng, nhưng nó cũng làm nghẹt sự đổi mới. Quyền truy cập công cộng cũng buộc các khả năng tiềm ẩn phải lộ ra ngoài, điều này tốt hơn từ góc độ an toàn khi xét đến việc các mô hình hiện nay rất nhận thức về việc đánh giá (eval-aware). Thử nhanh và sửa chữa, thay vì tích lũy một sự dư thừa năng lực chưa bao giờ được kiểm tra trong thế giới thực.
Và những người thực sự sẽ thực hiện nghiên cứu an toàn nghiêm ngặt trên các mô hình này lại không thể truy cập chúng. Vài tuần trước, tôi đã tại hội nghị nghiên cứu MATS. MATS là một trong những chương trình an toàn AI nghiêm túc nhất, và khoảng hai phần ba các bài trình bày liên quan đến một mô hình mã nguồn mở của Trung Quốc. Nhiều thí nghiệm yêu cầu quyền truy cập white-box, và các nhà nghiên cứu này không thể tìm thấy nó ở nơi nào khác. Trong khi đó, quan điểm an toàn AI chính thống là các mô hình mã nguồn mở rất nguy hiểm. Cảm ơn trời vì các mô hình mã nguồn mở, bởi vì nếu nghiên cứu an toàn có ý nghĩa phụ thuộc vào lòng tốt của các phòng lab, hoặc việc được thuê bởi một trong số họ, thì đó thực sự là một sự thất vọng.
Bạn có thể tự tạo ra điện của mình bằng tấm pin mặt trời (tương tự như các mô hình cục bộ), nhưng hầu hết mọi người thích trả tiền hóa đơn điện. Và công ty điện lực không quyết định, dựa trên dòng dõi, ai xứng đáng được dùng điện. Trí tuệ nên hoạt động tương tự, nơi các khả năng bạn có thể truy cập có thể tăng theo quy trình kiểm tra và thẩm định, nhưng mặc định nên là quyền truy cập. Hãy thêm các rào chắn an toàn để hạn chế sử dụng nguy hiểm; bắt đầu bằng cách làm cho chúng quá nhạy cảm nếu cần, và hiệu chỉnh theo thời gian. Nhưng mặc định nên là cho phép truy cập.
Nếu bạn có khả năng ở mức chính phủ, đã đến lúc bắt đầu hành động như một chính phủ. Cần có quy trình due process, tiêu chí công khai cho ai được truy cập và tại sao, và cơ chế kháng cáo rõ ràng không phải là "gửi email cho đội ngũ tin cậy và an toàn và cầu nguyện". Và khi bạn cắt quyền truy cập của ai đó, bạn nên bắt buộc phải nói lý do, vì việc bị thu hồi quyền truy cập mô hình tiên tiến tương tự như bị chặn tài khoản ngân hàng. Từ góc độ kiểm toán, nên có các nghĩa vụ kiểu FOIA để hiển thị công việc của bạn trong các lĩnh vực quan trọng về an toàn.
Có điều gì đó đặc biệt khi đào tạo một mô hình trên dữ liệu của toàn nhân loại và sau đó khóa nó lại để phục vụ lợi ích của một số ít tổ chức có quan hệ. Có lẽ bạn sẽ nhận thấy một mô hình lịch sử khác ở đây. Trích xuất giá trị từ một dân số không thể đồng ý một cách có ý nghĩa, tập trung lợi nhuận trong một nhóm nhỏ nội bộ, và sau đó đưa ra một số dạng từ thiện cho những người bạn đã trích xuất như một lớp vỏ đạo đức cho sự sắp xếp này. Mô hình này lặp lại khi các phòng lab hứa hẹn thu nhập cơ bản toàn cầu (UBI) sau AGI hoặc khuyến khích từ thiện EA trong khi tiếp tục tập trung khả năng tiên phong.
Nếu chúng ta may mắn, không điều nào trong số này quan trọng. Có thể đây chỉ là thời đại mainframe của AI, một điểm dừng chân trên đường đến máy tính cá nhân. Khi Apple II ra mắt, nó yếu hơn nhiều so với mainframe, và việc áp dụng chủ yếu được thúc đẩy bởi những người đam mê và tính thẩm mỹ. So với khoảng cách đó, các mô hình mã nguồn mở hiện nay đã khá mạnh, chạy sau biên giới từ 3-12 tháng tùy theo khía cạnh. Vì vậy, có lẽ chuỗi cung ứng phần cứng sẽ mở rộng, sự dư thừa chip và năng lượng sẽ có sẵn, và trí tuệ sẽ quá rẻ để đo lường.
Thành phố đang chặt bỏ những cây cao su hai mươi năm tuổi ở khu phố của tôi vì chúng có thể ngã xuống ai đó trong trận bão và thành phố không muốn bị kiện. San Francisco chỉ có khoảng một cơn dông mỗi năm. Tôi hy vọng chúng ta sẽ không dập tắt thế giới kỹ thuật số theo một cách tương tự.



