Cách để có siêu AI khi mô hình ngôn ngữ lớn bộc lộ hạn chế
Nhiều công ty trí tuệ nhân tạo (AI) hàng đầu đang chạy đua để phát triển AI tổng quát (AGI). Tuy nhiên, các mô hình ngôn ngữ lớn (LLM), nền tảng cho chatbot AI, đang bộc lộ hạn chế.
Một số nhà nghiên cứu cho rằng “mô hình thế giới” hoặc những chiến lược khác có thể là con đường rõ ràng hơn đạt được AGI - vốn được coi là siêu AI có khả năng hiểu, học hỏi và thực hiện các nhiệm vụ đa dạng một cách linh hoạt giống hay vượt trội con người.
Các công ty tham gia cuộc đua xây dựng AGI đang đối mặt một thực tế khắc nghiệt: LLM có thể đã đạt đến giới hạn.
Vài năm qua, những công ty AI hàng đầu thế giới đã đổ hàng tỉ USD để phát triển LLM, công nghệ làm nền tảng cho một số chatbot AI được dùng rộng rãi nhất hiện nay, như ChatGPT, Google Gemini, Claude, Grok, Meta AI...
Mục tiêu tối thượng của nhiều hãng đứng sau các LLM là phát triển AGI. Ngày càng có nhiều lo ngại rằng LLM đang tiến gần đến điểm bão hòa và còn rất xa mới có thể tiến hóa thành AGI.
Những chuyên gia vốn từ lâu tin vào điều này từng bị xem là bi quan và cứng nhắc. Song kể từ khi OpenAI ra mắt GPT-5, LLM dù được cải tiến nhưng không đạt đến mức “quảng bá rầm rộ” mà chính công ty khởi nghiệp Mỹ này hứa hẹn, những người bi quan về AI đã lên tiếng kiểu: “Tôi đã nói rồi mà”.
Nổi bật trong số đó là Gary Marcus, nhà nghiên cứu AI và là doanh nhân nổi tiếng người Mỹ. Kể từ khi GPT-5 trình làng hôm 8.8, ông càng đẩy mạnh sự chỉ trích của mình.
“Không ai có tư duy trung thực mà vẫn tin rằng chỉ cần mở rộng quy mô là có thể đạt tới AGI. Ngay cả một số dân công nghệ cũng đang thức tỉnh trước thực tế rằng: AGI vào năm 2027 chỉ là chiêu tiếp thị, không phải sự thật”, ông viết trong một bài blog đầu tháng 8, nhắc tới chiến lược tốn kém khi tích lũy dữ liệu và trung tâm dữ liệu để có AGI.

Gary Marcus: AGI vào năm 2027 chỉ là chiêu tiếp thị, không phải sự thật - Ảnh: Internet
Dưới đây là lý do vì sao một số người nghĩ LLM không tuyệt vời như quảng cáo và những hướng đi thay thế mà các nhà nghiên cứu AI tin rằng có thể là con đường đúng hơn hướng tới AGI.
Nỗi lo bong bóng AI
OpenAI hiện là công ty khởi nghiệp giá trị nhất hành tinh, đã huy động khoảng 60 tỉ USD và một đợt bán cổ phiếu thứ cấp sắp tới có thể nâng định giá công ty lên trên 500 tỉ USD. Điều đó sẽ biến OpenAI thành công ty tư nhân giá trị nhất thế giới.
Theo OpenAI, ChatGPT có hơn 700 triệu người dùng hàng tuần và các sản phẩm của OpenAI phần lớn đã định hình nhịp điệu cuộc đua AI.
Song có hai vấn đề. Thứ nhất và có lẽ quan trọng nhất với các nhà đầu tư: OpenAI chưa có lợi nhuận và chưa cho thấy dấu hiệu sớm có lãi. Thứ hai, sứ mệnh khi sáng lập công ty này là phát triển AGI vì lợi ích của toàn nhân loại. Song nhiều người ngày càng có cảm giác rằng còn rất xa mới đạt được AGI (vốn tạo ra phần lớn sự thổi phồng xung quanh AI), xa hơn nhiều so với kỳ vọng ban đầu của các kỹ sư và nhà đầu tư.
Những công ty khác cũng đang cưỡi trên làn sóng thổi phồng này. Google, Meta Platforms, xAI và Anthropic đều chi hàng tỉ USD để mở rộng LLM, tranh giành nhân tài, mua dữ liệu và xây dựng các cụm trung tâm dữ liệu khổng lồ.
Sự lệch pha giữa chi tiêu và doanh thu, giữa cường điệu và thực tế, đang khiến nhiều người lo ngại rằng ngành AI là bong bóng sắp vỡ. Chính Giám đốc điều hành Sam Altman của OpenAI cũng nghĩ vậy.
“Khi bong bóng xảy ra, những người thông minh thường quá phấn khích trước một công nghệ mới. Nếu bạn nhìn lại hầu hết các bong bóng trong lịch sử, như bong bóng dot-com, thì đều có một thứ gì đó thật sự tồn tại. Công nghệ đó thực sự quan trọng, nhưng nhiều người đã quá hưng phấn.
Liệu chúng ta đang ở giai đoạn mà nhà đầu tư nói chung đang quá phấn khích về AI không? Theo ý kiến của tôi là có. AI có phải là điều quan trọng nhất xảy ra trong một thời gian rất dài không? Ý kiến của tôi cũng là có”, Sam Altman nói với nhóm phóng viên hôm 15.8 vừa qua.

Sam Altman cảnh báo về bong bóng AI - Ảnh: Getty Images
Trong khi các doanh nhân công nghệ khác, chẳng hạn Eric Schmidt (cựu giám đốc điều hành Google), còn chưa chắc chắn về bong bóng AI, đợt bán tháo cổ phiếu công nghệ trị giá 1.000 tỉ USD tuần trước cho thấy mối lo ngại là rộng khắp. Thị trường đã hồi phục hôm 22.8 sau khi Jerome Powell, Chủ tịch Cục Dữ trữ Liên bang (Fed), cho biết ông đang cân nhắc cắt giảm lãi suất vào tháng 9.
Hiện nhiều ánh mắt đang hướng về báo cáo tài chính quý 2/2025 vào ngày 27.8 của Nvidia - hãng chip AI cung cấp sức mạnh cho LLM và được hưởng lợi nhất trong cơn sốt AI.
Nếu lợi nhuận của Nvidia chững lại và công ty Mỹ đưa ra triển vọng thận trọng hơn, sẽ có thêm làn sóng lo lắng mới và những người bi quan về AI lại nhắc lại điều họ nói từ nhiều năm qua: LLM không phải là con đường để đạt tới AGI.
Vấn đề với LLM
Tháng 6, các nhà nghiên cứu Apple công bố bài báo có tựa “Ảo tưởng về suy luận”, trong đó cho biết các mô hình AI suy luận tiên tiến bỏ cuộc khi đối mặt với những nhiệm vụ phức tạp hơn.
Kết luận của họ là các mô hình suy luận này dựa vào nhận dạng mẫu hơn là tư duy logic. Các nhà nghiên cứu Apple cảnh báo không nên tin rằng những mô hình này có thể dẫn tới AGI. “Những tuyên bố việc mở rộng các kiến trúc hiện tại sẽ tự nhiên mang lại AGI dường như là quá sớm”, họ viết.
Bài báo bị chế giễu rộng rãi trên mạng, phần lớn vì Apple dù có quy mô và nguồn lực khổng lồ nhưng bị coi là tụt lại phía sau trong cuộc đua AI. Song với những người hoài nghi về AI, đây là sự xác nhận.
Andrew Gelman, giáo sư thống kê và khoa học chính trị tại Đại học Columbia (Mỹ), cho rằng mức độ hiểu văn bản của LLM không đạt kỳ vọng. Ông ví sự khác biệt giữa LLM với con người giống “đi bộ chậm và chạy”.
“Tôi có thể đi bộ chậm mãi, nghĩ đủ thứ chuyện mà không thấy tốn nhiều công sức, đôi chân cứ thế chuyển động. Nhưng nếu tôi cần chạy, điều đó đòi hỏi sự tập trung”, Andrew Gelman viết trong một bài blog năm 2023.
Geoffrey Hinton, người đoạt giải Nobel Vật lý 2024 và được coi là “cha đẻ AI”, không đồng tình với Andrew Gelman.
“Khi huấn luyện một mô hình AI thực sự giỏi trong việc dự đoán từ tiếp theo, thực ra bạn đang buộc nó phải hiểu”, ông chia sẻ với tờ The New Yorker từ năm 2013.
Một vấn đề tiềm ẩn khác của LLM là xu hướng hiểu sai nghĩa từ ngữ, “ảo giác” (trả lời sai y như thật) và lan truyền thông tin sai lệch. Đây là lý do hiện tại hầu hết công ty áp dụng AI đều cần con người giám sát.
Trong một báo cáo đầu năm nay, nhóm nhà nghiên cứu ngôn ngữ học tính toán tại Đức đã khảo sát tỷ lệ “ảo giác” của 11 LLM trên 30 ngôn ngữ ở môi trường thực tế. Họ phát hiện tỷ lệ “ảo giác” trung bình dao động từ 7% đến 12%.
Những công ty AI hàng đầu như OpenAI nhiều năm qua đặt niềm tin rằng có thể khắc phục các vấn đề này bằng cách cung cấp thêm thông tin cho LLM. Các quy tắc mở rộng quy mô, được nhóm nghiên cứu OpenAI công bố năm 2020, cho rằng “hiệu suất mô hình phụ thuộc mạnh nhất vào quy mô”.
Tuy nhiên gần đây, các nhà nghiên cứu bắt đầu nghi ngờ rằng LLM đã chạm ngưỡng và lợi ích gia tăng khi mở rộng quy mô đang giảm dần. Yann LeCun, nhà khoa học AI trưởng của Meta Platforms, hiện tập trung nhiều vào các hướng tiếp cận AI thế hệ tiếp theo thay vì LLM.
“Hầu hết vấn đề thú vị đều mở rộng quy mô cực kỳ kém. Bạn không thể cứ cho rằng nhiều dữ liệu và nhiều năng lực điện toán hơn thì sẽ có AI thông minh hơn”, ông nói tại Đại học Quốc gia Singapore hồi tháng 4.
Alexandr Wang, Giám đốc AI và lãnh đạo bộ phận Superintelligence Labs (tập trung phát triển siêu trí tuệ cá nhân cho mọi người) của Meta Platforms, cũng tỏ ra không chắc chắn. Anh gọi mở rộng quy mô là “câu hỏi lớn nhất trong ngành” tại hội nghị Cerebral Valley năm ngoái.
Ngay cả nếu mở rộng có tác dụng, dữ liệu chất lượng cao vẫn rất hạn chế.
Cuộc săn dữ liệu độc quyền khốc liệt đến mức các công ty AI hàng đầu phải vượt rào, đôi khi có nguy cơ vi phạm bản quyền. Meta Platforms từng cân nhắc mua lại nhà xuất bản Simon & Schuster để giải quyết vấn đề. Anthropic thu thập và quét hàng triệu cuốn sách lậu (vi phạm bản quyền) để huấn luyện mô hình AI Claude và một thẩm phán liên bang hồi tháng 6 phán quyết rằng điều này không cấu thành “sử dụng hợp lý”.
"Sử dụng hợp lý" là một khái niệm pháp lý trong luật bản quyền của Mỹ, cho phép sử dụng tác phẩm có bản quyền trong một số trường hợp nhất định (ví dụ nghiên cứu, giáo dục, bình luận…) mà không cần xin phép chủ sở hữu. Việc thẩm phán tuyên “không phải sử dụng hợp lý” đồng nghĩa Anthropic có thể đối mặt với rủi ro pháp lý vì đã dùng hàng triệu sách lậu để huấn luyện mô hình AI.
Cuối cùng, một số nhà nghiên cứu AI hàng đầu cho rằng chính ngôn ngữ là yếu tố giới hạn và là lý do LLM không phải con đường đạt đến AGI.
“Ngôn ngữ không tồn tại trong tự nhiên. Con người không chỉ sống sót, tồn tại và làm việc, mà còn xây dựng nền văn minh vượt xa ngoài ngôn ngữ”, bà Fei-Fei Li, giáo sư Đại học Stanford nổi tiếng vì phát minh ImageNet, nói trong một podcast hồi tháng 6.
ImageNet là cơ sở dữ liệu hình ảnh khổng lồ được xây dựng nhằm phục vụ nghiên cứu trong lĩnh vực thị giác máy tính và học sâu.
Yann LeCun có cùng quan điểm. “Chúng ta cần các hệ thống AI có thể học nhanh nhiệm vụ mới. Chúng cần hiểu thế giới vật chất, không chỉ văn bản và ngôn ngữ mà là thế giới thực, có một mức độ hiểu biết thông thường nhất định, khả năng suy luận và lập kế hoạch, bộ nhớ dai dẳng - tất cả những thứ mà chúng ta mong đợi từ các thực thể thông minh”, ông nói trong bài thuyết trình hồi tháng 4.
Những cách mới để đạt được AGI
Các nhà nghiên cứu như Fei-Fei Li và Yann LeCun đang theo đuổi một hướng thay thế cho LLM, gọi là mô hình thế giới, mà họ tin rằng là con đường tốt hơn vươn tới AGI.
Khác với LLM, mô hình thế giới đưa ra dự đoán bằng cách mô phỏng và học từ thế giới xung quanh. Những mô hình thế giới giống cách con người học hơn, trong khi LLM phụ thuộc vào kho dữ liệu khổng lồ có sẵn.
Jay Wright Forrester, nhà khoa học máy tính kiêm giáo sư Học viện Công nghệ Massachusetts (Mỹ), đã nêu rõ giá trị của dạng mô hình này từ một bài báo năm 1971.
“Mỗi người chúng ta liên tục sử dụng mô hình. Trong đời sống riêng tư cũng như trong kinh doanh, nhiều người đều dùng mô hình theo bản năng để ra quyết định. Những hình ảnh trong đầu về môi trường xung quanh chính là mô hình. Mọi quyết định đều được đưa ra dựa trên mô hình. Mọi luật đều được thông qua dựa trên mô hình. Mọi hành động điều hành đều dựa trên mô hình”, Jay Wright Forrester viết.

Theo một số chuyên gia, mô hình thế giới là con đường tốt hơn vươn tới AGI - Ảnh: Internet
Các nghiên cứu gần đây cho thấy mô hình thế giới không chỉ nắm bắt thực tại mà còn có thể mô phỏng môi trường và kịch bản mới.
Trong một bài báo năm 2018, các nhà nghiên cứu David Ha và Jürgen Schmidhuber cho biết đã xây dựng một mô hình thế giới đơn giản lấy cảm hứng từ hệ thống nhận thức của con người. Mô hình này không chỉ giả lập các tình huống giả định, mà còn để huấn luyện các tác tử (AI có khả năng tự động nhận thông tin từ môi trường, ra quyết định và thực hiện hành động để đạt mục tiêu).
Tháng 8 này, Google DeepMind đã phát hành Genie 3 với khả năng “mở rộng ranh giới của những gì mô hình thế giới có thể làm được”. Genie 3 có thể mô phỏng các thuộc tính vật lý của thế giới thực, như địa hình núi lửa hoặc đại dương thiếu sáng. Điều đó cho phép AI đưa ra dự đoán dựa trên những gì học được từ các mô phỏng thực tế này.
Ngoài ra, còn có những ý tưởng khác đang được triển khai. Các mô hình khoa học thần kinh cố gắng bắt chước quá trình của não bộ. Các mô hình đa tác tử hoạt động dựa trên lý thuyết rằng nhiều AI tương tác với nhau sẽ giống cách con người vận hành trong đời sống hơn. Những nhà nghiên cứu theo đuổi mô hình đa tác tử tin rằng AGI có nhiều khả năng xuất hiện thông qua dạng trao đổi xã hội này.
Rồi còn có AI hiện thân, vốn đưa mô hình thế giới vào dạng vật lý, cho phép robot diễn giải và học hỏi từ thế giới xung quanh. “Robot có đủ hình dạng và kích thước khác nhau”, Fei-Fei Li nói trong podcast No Priors hồi tháng 6.
Tiềm năng của những hướng thay thế này, đặc biệt là mô hình thế giới, mang lại hy vọng cho cả Gary Marcus - nhà nghiên cứu AI bi quan về LLM. Gary Marcus gọi mô hình thế giới là mô hình nhận thức và thúc giục các công ty AI chuyển hướng khỏi LLM để tập trung vào các giải pháp thay thế này.
“Ở một số khía cạnh, LLM vượt xa con người, nhưng ở những mặt khác, chúng còn kém cả một con kiến. Nếu không có những mô hình nhận thức vững chắc về thế giới, AI không bao giờ nên được tin tưởng hoàn toàn”, Gary Marcus viết trong một bài blog tháng 6.