Startup AI Mỹ Poolside ra mắt mô hình mã nguồn mở Laguna XS.2 hiệu năng cao cho lập trình tác tử

28 tháng 4, 2026·11 phút đọc

Poolside, một startup AI đến từ Mỹ, đã gây bất ngờ khi tung ra hai mô hình ngôn ngữ lớn mới là Laguna M.1 và Laguna XS.2. Điểm nhấn là phiên bản XS.2 được cấp phép nguồn mở Apache 2.0, cho phép các nhà phát triển chạy AI viết mã (coding agent) hiệu năng cao ngay trên máy cá nhân với quyền riêng tư tuyệt đối.

Startup AI Mỹ Poolside ra mắt mô hình mã nguồn mở Laguna XS.2 hiệu năng cao cho lập trình tác tử

Cuộc đua AI gần đây cảm giác hơi giống một trận tennis: trước hết Anthropic tung ra một mô hình độc quyền đắt tiền hàng đầu cho người dùng phổ thông (Claude Opus 4.7), sau đó một tuần sau, đối thủ OpenAI đáp trả với mô hình của riêng họ (GPT-5.5). Trong khi đó, các công ty Trung Quốc như DeepSeek và thậm chí cả Xiaomi đang cố gắng thu hút người dùng bằng một cách chơi khác: tiếp cận biên giới công nghệ nhưng với giấy phép mở và chi phí thấp hơn nhiều.

Vì vậy, thật đáng ngạc nhiên khi một đối thủ mã nguồn mở mới, giá cả phải chăng và có hiệu năng cao xuất phát từ nước Mỹ. Hôm nay, chúng ta đã có một ứng cử viên như vậy từ Poolside, một startup AI nhỏ và ít tên tuổi hơn của Mỹ, được thành lập tại San Francisco vào năm 2023.

Công ty đã ra mắt hai mô hình ngôn ngữ lớn (LLM) Laguna mới của mình. Cả hai đều cung cấp trí thông minh giá rẻ được tối ưu hóa cho quy trình làm việc của các tác tử AI (AI có thể làm nhiều việc hơn là chỉ trò chuyện hoặc tạo nội dung, mà ở đây là viết mã, sử dụng các công cụ bên thứ ba và hành động tự chủ). Ngoài ra, Poolside còn ra mắt một công cụ gọi tác tử viết mã tên là "pool" và một môi trường phát triển tương tác trên web, tối ưu cho di động tên là "shimmer", cho phép bạn viết mã với các mô hình Laguna mọi lúc mọi nơi.

Hai mô hình AI mới mà Poolside ra mắt hôm nay bao gồm:

  • Laguna M.1: Một mô hình Mixture of Experts (MoE) độc quyền với 225 tỷ tham số, trong đó có 23 tỷ tham số hoạt động. Đây là mô hình flagship được tối ưu hóa cho các môi trường doanh nghiệp và chính phủ có tầm quan trọng cao, được thiết kế để giải quyết các vấn đề kỹ thuật phần mềm phức tạp đòi hỏi khả năng lập luận và lập kế hoạch tối đa.
  • Laguna XS.2: Một mô hình MoE 33 tỷ tham số (3 tỷ tham số hoạt động) được cấp phép nguồn mở Apache 2.0. Được thiết kế để tối ưu hiệu suất và đổi mới cộng đồng, mô hình này dành cho các tác vụ viết mã tác tử tại địa phương (local). Nó cung cấp một nền tảng linh hoạt cho các nhà phát triển muốn tinh chỉnh (fine-tune), lượng tử hóa (quantize) hoặc chạy các tác tử mạnh mẽ trên một GPU duy nhất. Nói cách khác, các nhà phát triển có thể tải xuống và chạy Laguna XS.2 trên máy tính để bàn hoặc thậm chí là máy tính xách tay của họ mà không cần kết nối internet — hoàn toàn riêng tư và an toàn.

Đáng chú ý, chỉ có mô hình nhỏ hơn trong số hai mô hình, XS.2, hiện có sẵn theo giấy phép nguồn mở Apache 2.0 (trên Hugging Face). Tuy nhiên, Poolside cũng đang cung cấp mô hình lớn hơn M.1 miễn phí tạm thời thông qua API của họ và các đối tác phân phối bên thứ ba như OpenRouter, Ollama và Baseten.

Một điểm đáng kể khác là hai mô hình Laguna mới này được đào tạo từ đầu — không phải là các mô hình cơ sở được tinh chỉnh/sau đào tạo từ chuỗi Qwen của gã khổng lồ Trung Quốc Alibaba như một số phòng thí nghiệm Mỹ khác đã thực hiện gần đây.

Đào tạo mô hình với "Model Factory"

Poolside xây dựng các mô hình AI của mình trong một môi trường kỹ thuật số chuyên nghiệp gọi là "Model Factory".

Trọng tâm của quá trình này là Titan, phần mềm nội bộ mạnh mẽ của công ty đóng vai trò là "lò nung" để đào tạo. Để giúp AI học tập hiệu quả nhất có thể, Poolside sử dụng một công cụ độc đáo gọi là Muon optimizer.

Hãy tưởng tượng Muon như một gia sư tốc độ cao; nó giúp mô hình làm chủ thông tin mới nhanh hơn khoảng 15% so với các phương pháp tiêu chuẩn của ngành, một lợi ích quan trọng khi đào tạo ở quy mô 30 nghìn tỷ token. Nó đạt được điều này bằng cách đảm bảo mọi cập nhật cho "bộ não" của mô hình đều được cân bằng về mặt toán học và chỉ đúng hướng, ngăn ngừa AI bị bối rối hoặc bị kẹt trong các phiên huấn luyện cường độ cao.

Thông tin dùng để đào tạo các mô hình này — lên tới 30 nghìn tỷ "token" hoặc mẩu dữ liệu — được chọn lọc cẩn thận bằng hệ thống gọi là AutoMixer.

Thay vì chỉ cho AI ăn tất cả những gì nó tìm thấy trên internet, AutoMixer sử dụng một "đàn" gồm sáu mươi mô hình đại diện trên các hỗn hợp dữ liệu khác nhau để xác định khoa học sự kết hợp nào giữa mã, toán học và dữ liệu web chung sẽ tạo ra khả năng lập luận tốt nhất. Theo cách này, nó đóng vai trò như một đầu bếp bậc thầy, kiểm tra khoa học hàng nghìn "công thức" khác nhau để tìm sự cân bằng hoàn hảo giữa mã máy, toán học và kiến thức chung.

Mặc dù phần lớn dữ liệu này đến từ mạng web công cộng, khoảng 13% là "dữ liệu tổng hợp" (synthetic data). Đây là tài liệu thực hành tùy chỉnh chất lượng cao được tạo ra bởi các AI khác để dạy cho các mô hình những kỹ năng cụ thể khó tìm trong thế giới thực.

Sau khi mô hình hoàn thành việc "học tập" cơ bản, nó bước vào một phòng tập ảo cho Học tăng cường (Reinforcement Learning). Giai đoạn này, AI thực hành giải quyết các vấn đề kỹ thuật phần mềm thực tế trong một sân chơi kỹ thuật số an toàn và cô lập. Nó học thông qua thử và sai, nhận được "phần thưởng" mỗi khi sửa thành công một lỗi hoặc viết được một đoạn mã hoạt động. Chu trình thực hành và phản hồi liên tục này biến AI từ một trình tạo văn bản đơn thuần thành một "tác tử" có khả năng lập kế hoạch và thực hiện các dự án đa bước phức tạp giống như một kỹ sư phần mềm con người.

Hiệu năng vượt trội so với "tấm vé"

Hiệu suất của Laguna M.1 trên SWE-bench Pro — một điểm chuẩn được thiết kế để kiểm tra khả năng giải quyết vấn đề phần mềm thực tế của AI — đã đạt 46,9%, gần ngang bằng với các mô hình lớn hơn nhiều như Qwen-3.5 và DeepSeek V4-Flash.

Mặc dù chỉ là một phần kích thước, Laguna XS.2 đạt điểm số 44,5% trên SWE-bench Pro, gần bằng so với người anh em lớn hơn của nó.

Trên bảng SWE-bench Verified, M.1 ghi được 72,5%, vượt qua mô hình dày đặc Devstral 2 (72,2%) nhưng xếp sau Claude Sonnet 4.6, dẫn đầu phân khúc này với 79,6%.

Mô hình nhỏ hơn Laguna XS.2 cho thấy hiệu quả đáng kinh ngạc, gần khớp với hiệu suất của người anh em lớn hơn nhiều trên các tác vụ quan trọng. Mặc dù chỉ có 3B tham số hoạt động, XS.2 vượt qua Claude Haiku 4.5 (39,5%) và mô hình dày đặc Gemma 4 31B lớn hơn nhiều (35,7%) trên SWE-bench Pro.

Trong lập luận dựa trên terminal, điểm số 30,1% của XS.2 trên Terminal-Bench 2.0 cũng vượt qua Haiku 4.5 (29,8%). Những kết quả này cho thấy sự tập trung của Poolside vào RL dữ liệu tổng hợp đã cho phép các mô hình nhỏ hơn của họ "đánh trên tầm" với các đối thủ nặng ký hơn.

Cấu hình phần cứng để chạy Laguna XS.2 tại chỗ

Để chạy mô hình Laguna XS.2 (33B) tại chỗ, phần cứng của bạn phải đủ sức chứa 33 tỷ tham số. Trên Apple Silicon, yêu cầu cơ bản là 36 GB bộ nhớ hợp nhất (unified memory).

Đối với người dùng PC và Linux, trong khi các trọng số tiêu chuẩn thường yêu cầu hơn 60 GB VRAM, việc hỗ trợ lượng tử hóa 4-bit (Q4) của mô hình cho phép nó chạy trên GPU cấp người dùng có ít nhất 24 GB đến 32 GB VRAM, chẳng hạn như RTX 5090 mới ra mắt.

Về lưu trữ, bạn nên dành ít nhất 70 GB cho mô hình đầy đủ hoặc khoảng 20–35 GB cho phiên bản nén phù hợp cho các tác vụ "tác tử" tại chỗ.

Để có trải nghiệm mượt mà nhất, Poolside khuyến nghị sử dụng Ollama hoặc tác tử dựa trên terminal của riêng họ, pool, được thiết kế để quản lý các khả năng lập luận và gọi công cụ gốc của mô hình trên phần cứng người dùng.

Một số gợi ý phần cứng:

Mac

  • MacBook Pro (14-inch hoặc 16-inch): Nên tìm các mẫu được trang bị chip M5 Max, hỗ trợ cấu hình khởi điểm 36 GB bộ nhớ hợp nhất.
  • Mac Studio / Mac Mini: Mac Mini (M4 hoặc M5 Pro) cấu hình tối thiểu 48 GB hoặc 64 GB RAM là lựa chọn thay thế máy tính để bàn tuyệt vời.

PC

  • Cấu hình Single-GPU: NVIDIA GeForce RTX 5090 là lựa chọn hàng đầu cho năm 2026, cung cấp 32 GB GDDR7 VRAM.
  • Cấu hình Chuyên nghiệp: RTX PRO 6000 Blackwell (96 GB VRAM) hoặc cấu hình dual RTX 5090 cho phép mô hình chạy mà không mất dữ liệu nén.
  • Cấu hình PC Tối thiểu: RTX 4090 (24 GB) có thể chạy mô hình với lượng tử hóa nặng hơn, nhưng hiệu suất có thể chậm hơn.

Công cụ pool (tác tử) và shimmer (IDE)

Các mô hình chỉ hữu ích trong môi trường chúng tồn tại, và Poolside đã phát hành hai sản phẩm "xem trước" để chứa chuỗi Laguna: poolshimmer.

pool là một tác tử viết mã dựa trên terminal được thiết kế cho môi trường cục bộ của nhà phát triển. Nó hoạt động như một máy chủ Agent Client Protocol (ACP), cùng bộ dụng cụ mà nhóm sử dụng nội bộ cho đào tạo RL.

Shimmer đại diện cho tầm nhìn về tương la phát triển đám mây (cloud-native). Nó là một sandbox Máy ảo (VM) khởi động tức thì nơi các nhà phát triển có thể lặp lại các ứng dụng web, API và CLI trong vài giây. Điểm đáng ngạc nhiên nhất của shimmer là tính di động. Một bản demo cho thấy shimmer chạy hoàn toàn trên một chiếc điện thoại thông minh, với giao diện màn hình chia cho phép lập trình ngay trên di động.

Tại sao lại phát hành Laguna XS.2 với giấy pháp Apache 2.0?

Động thái chiến lược quan trọng nhất trong bản phát hành này là cấp phép cho Laguna XS.2. Poolside đã phát hành các trọng số của XS.2 theo giấy phép Apache 2.0.

Đây là giấy phép rất cho phép, cho phép người dùng sử dụng, phân phối và sửa đổi phần mềm cho bất kỳ mục đích nào, bao gồm cả thương mại, không cần bản quyền. Điều này tạo sự tương phản rõ rệt với các mô hình "đóng" của nhiều đối thủ hoặc các giấy phép "một phần mở" hạn chế hơn.

Lãnh đạo của Poolside rất rõ ràng về lý do họ chọn con đường này. Họ tin rằng "Phương Tây cần các mô hình trọng số mở mạnh mẽ" và việc phát hành các trọng số là cách nhanh nhất để nhóm cải thiện công việc của mình thông qua đánh giá và tinh chỉnh của cộng đồng.

Triết lý của Poolside

Luận điểm cốt lõi đằng sau công việc của Poolside là phát triển phần mềm đóng vai trò là đại diện cuối cùng cho trí thông minh chung. Việc tạo phần mềm đòi hỏi lập kế hoạch tầm xa, lập luận phức tạp và khả năng thao tác các hệ thống trừu tượng — tất cả đều là những đặc điểm trung tâm của nhận thức con người.

Hành trình của Poolside mới chỉ bắt đầu, nhưng bản phát hành Laguna đặt ra một tiêu chuẩn cao cho việc AI "tác tử" sẽ trông như thế nào vào năm 2026. Bằng cách kết hợp hiệu suất cấp biên giới với cam kết về các trọng số mở và các bề mặt phát triển mới lạ, họ đang vạch ra một con đường tới AGI quan trọng không kém về cách chúng ta xây dựng so với những gì chúng ta xây dựng.

Bài viết được tổng hợp và biên soạn bằng AI từ các nguồn tin tức công nghệ. Nội dung mang tính tham khảo. Xem bài gốc ↗