Jensen Huang: Chip mới Nvidia có hiệu năng xử lý AI cao gấp 5 lần
Jensen Huang, Giám đốc điều hành Nvidia, cho biết thế hệ chip tiếp theo của công ty mang tên Rubin hiện đã ở trạng thái 'sản xuất hàng loạt'.
Ông nói các chip này có hiệu năng xử lý AI (trí tuệ nhân tạo) cao gấp 5 lần so với thế hệ trước, khi vận hành chatbot và các ứng dụng AI khác.
Trong bài phát biểu tại CES 2026 ở thành phố Las Vegas (Mỹ), người đứng đầu Nvidia, công ty có giá trị nhất thế giới, đã tiết lộ những chi tiết mới về Rubin, dự kiến sẽ ra mắt cuối năm nay.
CES là triển lãm điện tử tiêu dùng lớn nhất thế giới, được tổ chức hằng năm tại thành phố Las Vegas, Mỹ. Diễn ra từ ngày 6.1 đến 9.1, CES 2026 sẽ mở cửa đón hàng nghìn nhà báo, nhà phân tích, chuyên gia và cả người tiêu dùng thông thường.
Các lãnh đạo Nvidia tiết lộ với Reuters rằng những chip này đã có mặt trong phòng thí nghiệm của công ty và đang được các hãng AI thử nghiệm. Động thái này diễn ra trong bối cảnh Nvidia phải đối mặt với cạnh tranh ngày càng gia tăng từ các đối thủ cũng như chính khách hàng của mình, vốn đang tạo ra chip AI tùy chỉnh riêng.
Nền tảng Vera Rubin, bao gồm 6 loại chip khác nhau của Nvidia, dự kiến sẽ trình làng cuối năm 2026. Thiết bị chủ lực của Vera Rubin sẽ tích hợp 72 bộ xử lý đồ họa (GPU) hàng đầu Nvidia và 36 bộ xử lý trung tâm (CPU) thế hệ mới. Jensen Huang cho biết Nvidia có thể ghép nối Rubin thành các cụm, mỗi cụm hơn 1.000 chip.
Rubin là tên kiến trúc GPU (hay chip AI) thế hệ mới của Nvidia.
Vera là tên kiến trúc CPU mới của Nvidia.
Vera Rubin là tên toàn bộ nền tảng (kết hợp cả CPU Vera và GPU Rubin cùng các thành phần khác).
Để đạt được mức hiệu năng mới này, các chip Rubin sử dụng loại dữ liệu độc quyền mà Nvidia hy vọng toàn ngành công nghiệp sẽ chấp nhận và áp dụng cách làm đó, theo Jensen Huang.
“Đó là cách chúng tôi có thể tạo ra bước nhảy vọt khổng lồ về hiệu năng, dù số lượng transistor (bóng bán dẫn) chỉ nhiều hơn 1,6 lần”, Giám đốc điều hành Nvidia nói.
Jensen Huang phát biểu trên sân khấu CES 2026 về chip AI mới của Nvidia - Ảnh chụp màn hình
Dù vẫn thống trị thị trường chip dùng để huấn luyện mô hình AI, Nvidia đang phải đối mặt với cạnh tranh gay gắt hơn nhiều ở khâu triển khai AI cho hàng trăm triệu người dùng chatbot và các dịch vụ khác
Các đối thủ của Nvidia không chỉ là hãng truyền thống như AMD, mà còn có cả khách hàng của Nvidia như Google.
Nvidia đang rất muốn chứng minh rằng Rubin có thể vượt trội hơn H200, loại chip AI mà Tổng thống Mỹ Donald Trump đã cho phép xuất khẩu sang Trung Quốc.
Reuters đưa tin H200, tiền thân của chip AI chủ lực hiện nay của Nvidia là Blackwell, đang có nhu cầu rất cao ở Trung Quốc. Điều này đã khiến nhiều chính trị gia Mỹ theo đường lối cứng rắn với Trung Quốc lo ngại.
Phần lớn bài phát biểu tại CES 2026 của Jensen Huang tập trung vào việc các chip AI mới sẽ hoạt động hiệu quả ra sao cho nhiệm vụ này, gồm cả việc bổ sung một lớp công nghệ lưu trữ mới mang tên context memory storage (lưu trữ bộ nhớ ngữ cảnh), nhằm giúp chatbot phản hồi nhanh hơn với các câu hỏi và cuộc hội thoại dài khi phục vụ cùng lúc hàng triệu người dùng.
Ngoài ra, Nvidia còn giới thiệu thế hệ thiết bị chuyển mạch mạng mới, sử dụng một kiểu kết nối mới gọi là co-packaged optics. Công nghệ này đóng vai trò then chốt trong việc kết nối hàng nghìn máy tính thành một hệ thống thống nhất, cạnh tranh trực tiếp với các sản phẩm của Broadcom và Cisco Systems.
Phần mềm Alpamayo
Trong các thông báo khác, Jensen Huang đã nhấn mạnh phần mềm mới Alpamayo có thể giúp xe tự lái đưa ra quyết định về tuyến đường cần đi và tạo ra nhật ký để các kỹ sư sử dụng sau đó. Nvidia đã trình bày nghiên cứu về Alpamayo vào cuối năm 2025.
Tại CES 2026, Jensen Huang cho biết Alpamayo sẽ được phát hành rộng rãi hơn, cùng với dữ liệu được sử dụng để huấn luyện nó để các nhà sản xuất ô tô có thể đánh giá.
"Chúng tôi không chỉ công khai mã nguồn các mô hình, mà còn công khai mã nguồn dữ liệu mà Nvidia sử dụng để huấn luyện các mô hình đó. Chỉ bằng cách đó, bạn mới có thể thực sự tin tưởng vào cách các mô hình được tạo ra", Jensen Huang nói từ trên sân khấu CES 2026 ở thành phố Las Vegas (Mỹ).
Tháng trước, Nvidia đã thu hút nhân tài và sở hữu công nghệ chip từ công ty khởi nghiệp Groq, gồm cả các lãnh đạo đóng vai trò quan trọng trong việc giúp Google thiết kế chip AI riêng. Google là một khách hàng lớn của Nvidia. Thế nhưng, chính các chip AI của Google lại đang nổi lên như một trong những mối đe dọa lớn nhất với Nvidia, khi gã khổng lồ tìm kiếm hợp tác chặt chẽ với Meta Platforms và các công ty khác để từng bước làm suy yếu vị thế thống trị về AI của Nvidia.
Theo hãng tin CNBC, Nvidia đã đồng ý mua lại tài sản Groq - công ty khởi nghiệp thiết kế chip tăng tốc AI hiệu năng cao - với giá 20 tỉ USD bằng tiền mặt. Trong một bài đăng trên blog hôm 24.12.2025, Groq cho biết đã “ký kết thỏa thuận cấp phép không độc quyền với Nvidia cho công nghệ suy luận của Groq” nhưng không tiết lộ giá trị thỏa thuận. Theo thông báo, Jonathan Ross (người sáng lập kiêm Giám đốc điều hành Groq) cùng Chủ tịch Sunny Madra và các lãnh đạo cấp cao khác “sẽ gia nhập Nvidia để giúp phát triển và mở rộng công nghệ được cấp phép”.
Groq sẽ tiếp tục hoạt động như một “công ty độc lập”, với Giám đốc tài chính Simon Edwards được bổ nhiệm giám đốc điều hành.











