Tương lai của AI: Những cỗ máy "nói dối" và biên giới năng lực gai góc
Bài viết phân tích sâu sắc về bản chất của các Mô hình Ngôn ngữ Lớn (LLM) hiện nay, lập luận rằng chúng là những cỗ máy "nói dối" với năng lực không đồng đều. Dù có khả năng xử lý ngôn ngữ và lập trình ấn tượng, LLM thường xuyên ảo giác và thất bại trong những tác vụ đơn giản, tạo ra một tương lai công nghệ đầy rẫy sự bất ổn và khó lường.
Tương lai của AI: Những cỗ máy "nói dối" và biên giới năng lực gai góc
Đây là một thời điểm kỳ lạ để sống. Tôi lớn lên với những tác phẩm khoa học viễn tưởng của Asimov và Clarke, mơ ước về những cỗ máy thông minh. Tôi chưa bao giờ tưởng tượng được rằng bài kiểm tra Turing sẽ bị phá vỡ trong vòng đời của mình, và càng không ngờ rằng khi nó xảy ra, tôi lại cảm thấy thất vọng đến vậy.
Khoảng năm 2019, tôi đã tham dự một buổi thuyết trình của một trong những ông lớn về phần cứng đám mây mới để huấn luyện các Mô hình Ngôn ngữ Lớn (LLM). Trong phần hỏi đáp, tôi đã hỏi liệu việc làm cho học sâu (deep learning) rẻ hơn và dễ tiếp cận hơn có đạo đức không, bởi nó sẽ cho phép các hình thức spam và tuyên truyền mới xuất hiện. Kể từ đó, bạn bè cứ hỏi tôi nghĩ gì về tất cả những thứ "AI" này. Đây là bài viết về những sự vô nghĩa được tạo ra bởi những cỗ máy vô nghĩa.
"AI" thực sự là gì?
Những gì mọi người hiện nay gọi là "AI" thực chất là một họ các công nghệ Học máy (ML) tinh vi có khả năng nhận diện, chuyển đổi và tạo ra các vectơ token lớn: chuỗi văn bản, hình ảnh, âm thanh, video, v.v. Một mô hình là một khối đại số tuyến tính khổng lồ hoạt động trên các vectơ này. Các Mô hình Ngôn ngữ Lớn (LLM) hoạt động trên ngôn ngữ tự nhiên: chúng hoạt động bằng cách dự đoán các phần hoàn tất có khả năng xuất hiện về mặt thống kê của một chuỗi đầu vào, giống như tính năng tự động điền trên điện thoại.
Các mô hình được huấn luyện một lần, với chi phí cực lớn, bằng cách cho chúng "đọc" một kho dữ liệu khổng lồ gồm các trang web, sách lậu, bài hát, v.v. Sau khi được huấn luyện, mô hình có thể chạy đi chạy lại nhiều lần với chi phí rẻ. Quá trình này được gọi là suy luận (inference).
Các mô hình không (nói chung) học hỏi theo thời gian. Chúng có thể được tinh chỉnh bởi người vận hành, hoặc xây dựng lại định kỳ với các đầu vào mới. Các mô hình cũng không ghi nhớ mọi thứ một cách nội tại: khi một chatbot đề cập đến điều bạn nói một giờ trước, đó là vì toàn bộ lịch sử trò chuyện được đưa vào mô hình ở mỗi lượt.
Fanfic về thực tại
Một cách để hiểu LLM là coi nó như một cỗ máy tấu hài (improv). Nó nhận một luồng token, như một cuộc trò chuyện, và nói "đúng, và rồi thì..." Hành vi "đúng, và rồi" này là lý do tại sao một số người gọi LLM là những cỗ máy nói dối (bullshit machines). Chúng dễ bị ảo giác (confabulation), phát ra những câu nghe có vẻ hợp lý nhưng không liên quan gì đến thực tế.
Nếu một cuộc trò chuyện LLM đề cập đến những con voi màu hồng, nó có khả năng sẽ tạo ra các câu về những con voi màu hồng. Nếu đầu vào hỏi liệu LLM có sống không, đầu ra sẽ giống với những câu mà con người viết về việc "AI" có sự sống. Con người, hóa ra, không giỏi trong việc phân biệt giữa câu trả lời có khả năng xuất hiện về mặt thống kê và một tâm trí thực sự có ý thức.
LLM được huấn luyện để hoàn thành nhiệm vụ. Theo một nghĩa nào đó, chúng chỉ có thể hoàn thành nhiệm vụ: mọi đầu vào có thể đều tạo ra một số đầu ra. Điều này có nghĩa là LLM có xu hướng hoàn thành nhiệm vụ ngay cả khi chúng không nên làm vậy. Một vấn đề ongoing trong nghiên cứu LLM là làm sao để những cỗ máy này nói "tôi không biết", thay vì bịa ra một cái gì đó.
Và chúng thực sự bịa ra những thứ đó! LLM nói dối liên tục. Chúng nói dối về hệ điều hành, an toàn bức xạ, và tin tức. Tại một hội nghị, tôi đã thấy một diễn giả trình bày một câu trích dẫn và bài viết được cho là của tôi nhưng chưa bao giờ tồn tại; hóa ra một LLM đã nói dối với diễn giả về nguồn gốc của câu trích dẫn đó.
Người kể chuyện không đáng tin
Mọi người cứ hỏi LLM giải thích hành vi của chính chúng. "Tại sao cậu lại xóa tập tin đó?", bạn có thể hỏi Claude. Hoặc, "ChatGPT, hãy kể cho tớ nghe về lập trình của cậu". Điều này thật ngớ ngẩn. LLM không có khả năng siêu nhận thức đặc biệt nào cả. Chúng phản hồi các đầu vào này theo cách giống hệt như mọi đoạn văn bản khác: bằng cách bịa ra một phần hoàn tất có khả năng xảy ra của cuộc trò chuyện dựa trên kho dữ liệu của chúng.
Điều tương tự cũng xảy ra với các mô hình "lý luận" (reasoning), hoạt động bằng cách để LLM phát ra một câu chuyện theo phong cách dòng ý thức về cách nó sẽ giải quyết vấn đề. Những "chuỗi suy nghĩ" này về cơ bản là LLM viết fanfic về chính mình. Anthropic phát hiện ra rằng các vết lý luận của Claude chủ yếu không chính xác. Walden đã nói rằng "các mô hình lý luận sẽ nói dối trắng trợn về lý luận của chúng".
Mô hình thông minh
Các kỹ sư phần mềm đang phát điên lên vì LLM. Dựa trên kinh nghiệm, có vẻ như trong ba tháng qua, khả năng của LLM đã tiến bộ vượt bậc. Các kỹ sư có kinh nghiệm mà tôi tin tưởng nói rằng Claude và Codex đôi khi có thể giải quyết các nhiệm vụ lập trình phức tạp, cấp cao chỉ trong một lần thử. Những người khác nói rằng họ hoặc công ty của họ không còn viết code theo bất kỳ khả năng nào nữa — LLM tạo ra mọi thứ.
Bạn bè tôi trong các lĩnh vực khác cũng báo cáo những tiến bộ đáng kinh ngạc. Một huấn luyện viên cá nhân dùng nó để chuẩn bị bữa ăn và lập kế hoạch tập luyện. Các quản lý xây dựng dùng LLM để đọc qua các bảng thông số sản phẩm. Một nhà thiết kế dùng mô hình ML để trực quan hóa 3D công việc của mình.
AlphaFold đáng ngạc nhiên là tốt trong việc dự đoán cách gấp protein. Các hệ thống ML giỏi trong các điểm chuẩn về X quang, mặc dù điều đó có thể là ảo giác. Nói chung, hiện nay không còn có thể phân biệt một cách đáng tin cậy liệu văn bản tiếng Anh có được tạo ra bởi máy hay không.
Mô hình ngốc nghếch
Tuy nhiên, cùng lúc đó, các mô hình ML lại rất ngốc. Thỉnh thoảng tôi thử nghiệm một mô hình tiên phong như ChatGPT, Gemini hoặc Claude, và nhờ nó giúp đỡ một nhiệm vụ mà tôi nghĩ nó có thể giỏi. Tôi chưa bao giờ nhận được điều tôi sẽ gọi là "thành công": mọi nhiệm vụ đều liên quan đến việc tranh cãi kéo dài với mô hình trong khi nó mắc những lỗi sai ngớ ngẩn.
Ví dụ, vào tháng 1, tôi nhờ Gemini giúp áp dụng một số vật liệu vào bản kết xuất thang độ xám của mô hình 3D một phòng tắm. nó vui vẻ làm theo, tạo ra một phòng tắm hoàn toàn khác. Tôi thuyết phục nó tạo ra một cái có hình học giống hệt. Nó làm vậy, nhưng lại quên mất vật liệu. Sau hàng giờ chơi đùa mèo vờ chuột, tôi lừa nó làm đúng khoảng ba phần tư vật liệu, nhưng trong quá trình đó nó đã xóa bồn cầu, tạo ra một bức tường và thay đổi hình dạng căn phòng. Tất nhiên, nó đã nói dối với tôi suốt quá trình.
Trong khi đó, các kỹ sư phần mềm cứ chỉ cho tôi những đầu ra của Claude ngớ ngẩn đến mức kinh ngạc. Một đồng nghiệp kể lại việc nhờ LLM phân tích một số dữ liệu cổ phiếu. nó liệt kê các cổ phiếu cụ thể, nói là đang tải dữ liệu giá, và tạo ra một biểu đồ. Chỉ khi nhìn kỹ hơn họ mới nhận ra LLM đã nói dối: dữ liệu biểu đồ được tạo ngẫu nhiên.
Biên giới gai góc
Với hầu hết con người, bạn có thể có một ý tưởng chung về khả năng của họ bằng cách nói chuyện với họ, hoặc nhìn vào công việc họ đã làm. Các hệ thống ML thì khác. LLM sẽ tuôn ra giải tích đa biến, nhưng lại vấp ngã ở các bài toán từ đơn giản.
Mollick và cộng sự gọi ranh giới bất thường giữa năng lực và sự ngốc nghếch này là biên giới công nghệ gai góc (jagged frontier). Nếu bạn tưởng tượng việc liệt kê tất cả các nhiệm vụ con người có thể làm trong một lĩnh vực, sao cho các nhiệm vụ dễ ở trung tâm và các nhiệm vụ khó ở rìa, hầu hết con người sẽ có thể giải quyết một vùng nhiệm vụ trơn tru, hình khối gần giữa. Hình dạng của những việc LLM giỏi dường như là gai góc — nhiều góc cạnh hơn là tròn trịa.
Những người lạc quan về AI nghĩ rằng vấn đề này cuối cùng sẽ biến mất: các hệ thống ML, thông qua công việc của con người hoặc tự cải thiện đệ quy, sẽ lấp đầy các khoảng trống và trở nên có khả năng ở hầu hết các nhiệm vụ của con người. Helen Toner lập luận rằng ngay cả khi điều đó đúng, chúng ta vẫn có thể mong đợi nhiều hành vi gai góc trong lúc chờ đợi.
Tôi không nghĩ mọi người được trang bị tốt để lý luận về loại "nhận thức" gai góc này. Một phép so sánh có thể là hội chứng nhà bác học (savant syndrome), nhưng tôi không nghĩ nó bắt trọn được sự bất thường của ranh giới này. Ngay cả các mô hình tiên phong cũng gặp khó khăn với những thay đổi nhỏ trong cách diễn đạt mà ít người nào gặp phải. Điều này làm cho việc dự đoán liệu LLM có thực sự phù hợp cho một nhiệm vụ hay không trở nên khó khăn, trừ khi bạn có điểm chuẩn thống kê nghiêm ngặt cho lĩnh vực đó.
Cải thiện, hay có thể không
Tôi thường ở bên ngoài lĩnh vực ML, nhưng tôi có nói chuyện với những người trong lĩnh vực này. Một trong những điều họ nói với tôi là chúng ta thực sự không biết tại sao các mô hình transformer lại thành công đến vậy, hay cách làm cho chúng tốt hơn. Kể từ năm 2017 với bài báo "Attention is All You Need", các nhà nghiên cứu ML đã cố gắng đưa ra các kiến trúc mới, và các công ty đã ném hàng tỷ đô la cho những người thông minh để xem họ có thể tạo ra một loại mô hình tốt hơn hay không. Tuy nhiên, các kiến trúc tinh vi hơn dường như không hoạt động tốt bằng việc "Ném Thêm Tham Số Vào Vấn Đề".
Hiện vẫn chưa rõ việc tiếp tục ném lượng lớn silicon và các kho dữ liệu ngày càng lớn vào thế hệ mô hình hiện tại có dẫn đến khả năng tương đương con người hay không. Những tăng vọt lớn về chi phí huấn luyện và số lượng tham số dường như đang mang lại lợi tức giảm dần.
Kết luận
Ngay cả khi ML ngừng cải thiện hôm nay, các công nghệ này đã có thể làm cuộc sống của chúng ta khổ sở. Thực tế, tôi nghĩ phần lớn thế giới vẫn chưa bắt kịp với các hệ thống ML hiện đại — như Gibson đã nói, "tương lai đã ở đây, chỉ chưa được phân phối đều thôi". Khi LLM v.v. được triển khai trong các tình huống mới và ở quy mô mới, sẽ có mọi loại thay đổi trong công việc, chính trị, nghệ thuật, tình dục, giao tiếp và kinh tế. Một số hiệu ứng này sẽ tốt. Nhiều hiệu ứng sẽ xấu. Nói chung, ML hứa hẹn sẽ cực kỳ kỳ lạ.
Hãy chuẩn bị tinh thần đi.



