Chuyên gia đánh giá cao gpt-oss, Nvidia hào hứng hợp tác với OpenAI

Hai mô hình trọng số mở đầu tiên của OpenAI kể từ GPT-2 vào năm 2019, với tên gọi gpt-oss-120b và gpt-oss-20b được đón chào hào hứng.

Theo OpenAI ("cha đẻ ChatGPT"), đây là hai mô hình suy luận trọng số mở tiên tiến có hiệu năng cao với chi phí vận hành thấp, được cấp theo giấy phép Apache 2.0 linh hoạt, cho phép mọi người tải về, tùy chỉnh và vận hành trên hạ tầng của mình.

Trong đó, gpt-oss-120b (117 tỉ tham số) đạt hiệu năng gần tương đươngo4-mini của OpenAI và có thể chạy trên một GPU 80GB tiêu chuẩn, còn gpt-oss-20b (21 tỉ tham số) cho kết quả tương đương o3-mini và chỉ cần GPU 16GB để vận hành, phù hợp cho các thiết bị cục bộ.

Apache 2.0 là loại giấy phép mã nguồn mở do Quỹ Apache Software Foundation phát hành. Đây là một trong những giấy phép được sử dụng phổ biến nhất trong giới lập trình và công nghệ, đặc biệt phù hợp với các doanh nghiệp, tổ chức lớn.

Tham số là các giá trị số mà mô hình AI học được và điều chỉnh trong suốt quá trình huấn luyện trên lượng lớn dữ liệu. Tham số là các biến nội bộ của mô hình AI, quyết định cách nó xử lý thông tin đầu vào và tạo kết quả đầu ra. Mục tiêu của quá trình huấn luyện là tìm ra bộ tham số tối ưu nhất để mô hình AI có thể thực hiện nhiệm vụ (dự đoán từ tiếp theo trong câu, dịch ngôn ngữ, trả lời câu hỏi...) chính xác nhất có thể dựa trên dữ liệu đã học.

Cả hai hỗ trợ xử lý ngữ cảnh dài lên đến 128.000 token và được thiết kế để hoạt động tốt với suy luận dạng chuỗi tư duy, tích hợp công cụ tìm kiếm trên web, gọi hàm cùng nhiều tác vụ lập trình, toán học, phân tích khoa học.

Trong AI, token là đơn vị nhỏ nhất của văn bản, như một từ, dấu câu hoặc thậm chí là một phần của từ (tùy theo cách xử lý).

Gọi hàm là tính năng cho phép mô hình gọi đến các hàm hoặc API (giao diện lập trình ứng dụng) bên ngoài để thực hiện một hành động cụ thể hoặc lấy thông tin mà mô hình không tự sinh ra được.

OpenAI nhấn mạnh đây là bước tiến quan trọng nhằm “trao quyền cho các lập trình viên và doanh nghiệp được chạy và tùy chỉnh AI trên chính hệ thống của mình” mà không phụ thuộc hoàn toàn vào đám mây.

Trên mạng xã hội X, Sam Altman (Giám đốc điều hành OpenAI) gọi gpt-oss “là một bước tiến lớn vì đây là mô hình suy luận trọng số mở hàng đầu, có hiệu năng thực tế mạnh mẽ tương đương o4-mini”.

Ông cho hay: “gpt-oss là bước ngoặt lớn. Đây là mô hình suy luận với trọng số mở tiên tiến, có hiệu năng thực tế mạnh mẽ, tương đương o4-mini. Bạn hoàn toàn có thể chạy nó cục bộ trên máy tính cá nhân (hoặc thậm chí trên điện thoại nếu dùng phiên bản nhỏ hơn). Chúng tôi tin rằng đây là mô hình mã mở tốt nhất và dễ sử dụng nhất trên thế giới hiện nay.

Chúng tôi rất háo hức khi mang mô hình này - kết quả của hàng tỉ đô la đầu tư nghiên cứu - đến với thế giới, với mục tiêu đưa AI vào tay được nhiều người nhất có thể. Chúng tôi tin rằng lợi ích mà mô hình này mang lại sẽ vượt xa rủi ro. Ví dụ, gpt-oss-120b có hiệu năng tương đương o3 trong việc xử lý các vấn đề sức khỏe phức tạp. Chúng tôi đã nỗ lực nghiêm túc để giảm thiểu các rủi ro an toàn nghiêm trọng nhất, đặc biệt là liên quan đến an ninh sinh học. Hai mô hình gpt-oss có hiệu suất gần như tương đương các mô hình tiên phong của chúng tôi trong các bài đánh giá an toàn nội bộ.

Chúng tôi tin vào việc trao quyền cho cá nhân. Dù phần lớn người dùng có thể chọn sử dụng một dịch vụ tiện lợi như ChatGPT, nhưng mọi người cũng nên có khả năng tự kiểm soát và điều chỉnh AI của riêng mình khi cần thiết. Lợi ích về quyền riêng tư trong trường hợp này là điều hiển nhiên.

Trong tinh thần đó, chúng tôi rất kỳ vọng rằng việc phát hành này sẽ thúc đẩy những dạng nghiên cứu mới và các sản phẩm mới chưa từng có trước đây. Chúng tôi tin rằng tốc độ đổi mới trong lĩnh vực này sẽ tăng đáng kể và sẽ có nhiều người hơn trước có thể thực hiện những công việc quan trọng.

Sứ mệnh của OpenAI là đảm bảo rằng trí tuệ nhân tạo tổng quát (AGI) mang lại lợi ích cho toàn nhân loại. Vì vậy, chúng tôi rất phấn khởi khi thế giới đang bắt đầu xây dựng trên nền tảng AI mã mở, được tạo ra tại Mỹ, dựa trên các giá trị dân chủ, miễn phí cho mọi người và hướng tới lợi ích rộng khắp”.

Sam Altman lưu ý rằng hai mô hình này có thể chạy cục bộ trên máy tính cá nhân (mẫu nhỏ có thể chạy cả trên điện thoại cao cấp), mở ra rất nhiều ứng dụng mới.

gpt-oss-120b và gpt-oss-20b là hai mô hình trọng số mở đầu tiên của OpenAI từ GPT-2 vào năm 2019

gpt-oss-120b và gpt-oss-20b là hai mô hình trọng số mở đầu tiên của OpenAI từ GPT-2 vào năm 2019

Greg Brockman, đồng sáng lập và Chủ tịch OpenAI, cho biết đây là lần đầu tiên công ty “phát hành mô hình trọng số mở sau một thời gian dài” và xác nhận tầm quan trọng của chúng trong hệ sinh thái của OpenAI. Hai mô hình này được xem là bổ trợ cho các sản phẩm trả phí hiện tại.

Các chuyên gia phản hồi tích cực

Một số chuyên gia độc lập cũng bày tỏ sự hào hứng, đồng thời có phản ứng tích cực với gpt-oss-120b và gpt-oss-20b.

Giáo sư Andrew Ng (nhà khoa học máy tính người Mỹ nổi tiếng với những đóng góp trong lĩnh vực AI và học sâu) nhận xét rằng các thử nghiệm ban đầu cho thấy gpt-oss-120b “rất mạnh mẽ”. Tuy vậy, đồng sáng lập nền tảng học trực tuyến Coursera nhấn mạnh rằng cần có thêm các đánh giá độc lập nghiêm ngặt để xác nhận đầy đủ năng lực của hai mô hình trọng số mở của OpenAI.

Andrew Ng phản hồi tích cực về gpt-oss-120b - Ảnh: Internet

Andrew Ng phản hồi tích cực về gpt-oss-120b - Ảnh: Internet

Paul Couvert viết trên X: “gpt-oss-20b có lẽ là mô hình mạnh mẽ nhất bạn có thể chạy cục bộ (offline) trên laptop, hoạt động với RAM 16GB. Các bước cài đặt nhanh để sử dụng hoàn toàn miễn phí và ngoại tuyến”.

Paul Couvert là doanh nhân trẻ người Pháp được biết đến với việc áp dụng AI để tạo ra các sản phẩm kỹ thuật số và bán trên mạng. Anh nổi bật trên X và các mạng xã hội khác nhờ chia sẻ các chiến lược khởi nghiệp tinh gọn, cách tận dụng AI để tạo thu nhập thụ động và xây dựng các công cụ/sản phẩm số mà không cần lập trình.

Nvidia, AMD, Qualcomm và Amazon hào hứng vì hợp tác với OpenAI triển khai gpt-oss

Các hãng công nghệ nổi tiếng nhanh chóng tích hợp và tối ưu GPT-oss cho phần cứng của mình.

Theo trang The Verge, Nvidia, AMD, Qualcomm và Amazon hào hứng quảng bá mối hợp tác với OpenAI để gpt-oss chạy trực tiếp trên phần cứng của họ.

Nvidia và OpenAI hợp tác chặt chẽ để tối ưu hóa GPT-oss cho dòng GPU (bộ xử lý đồ họa) GeForce RTX.

Nvidia, hãng chip AI số 1 thế giới, viết trên X: “Xin chúc mừng OpenAI đã ra mắt hai mô hình suy luận mã nguồn mở tiên tiến mới, được tối ưu hóa cho hạ tầng AI lớn nhất thế giới. Những mô hình xuất sắc này sẽ giúp các nhà phát triển thúc đẩy đổi mới sáng tạo trên toàn cầu. Hai mô hình gpt-oss được huấn luyện trên GPU Nvidia, được tối ưu toàn diện trên toàn bộ nền tảng công nghệ của chúng tôi và đạt hiệu suất suy luận tốt nhất trên các GPU Nvidia Blackwell lẫn RTX. Hai mô hình này có thể chạy trên nền tảng phần cứng AI phổ biến nhất thế giới - hàng trăm triệu GPU CUDA - từ laptop đến trung tâm dữ liệu và các nền tảng đám mây”.

CUDA là nền tảng điện toán song song và mô hình lập trình được phát triển bởi Nvidia, cho phép các lập trình viên sử dụng GPU để xử lý các tác vụ tính toán tổng quát, không chỉ đồ họa, mà cả AI, mô phỏng vật lý, xử lý dữ liệu lớn...

Trong khi Jensen Huang, Giám đốc điều hành Nvidia, cho hay: "OpenAI đã cho thế giới thấy những gì có thể được xây dựng trên nền tảng AI của Nvidia. Hai mô hình gpt-oss cho phép các nhà phát triển ở khắp nơi xây dựng trên nền tảng mở tiên tiến này, từ đó củng cố vị thế dẫn đầu công nghệ AI của Mỹ".

Nvidia tối ưu hóa gpt-oss cho GPU của mình, mang lại khả năng suy luận thông minh và nhanh chóng từ đám mây đến PC - Ảnh: X

Nvidia tối ưu hóa gpt-oss cho GPU của mình, mang lại khả năng suy luận thông minh và nhanh chóng từ đám mây đến PC - Ảnh: X

Lisa Su, Giám đốc điều hành AMD, viết trên X: “Chúc mừng OpenAI với sự ra mắt của gpt-oss hôm nay! AMD tự hào là đối tác từ ngày đầu, hỗ trợ hai mô hình này có thể chạy ở mọi nơi, từ đám mây, thiết bị biên đến máy khách. Sức mạnh của các mô hình mở là điều rõ ràng và đây là một bước tiến lớn”.

Thiết bị biên là các thiết bị tính toán nằm ở "rìa" của mạng, tức gần người dùng cuối, nơi dữ liệu được tạo ra và sử dụng. Chúng thường được dùng trong mô hình tính toán biên, nơi việc xử lý dữ liệu diễn ra trực tiếp trên thiết bị, thay vì gửi hết lên đám mây.

Ví dụ về thiết bị biên là smartphone, máy tính bảng, laptop, camera giám sát có AI, xe tự lái, loa thông minh, thiết bị IoT (internet vạn vật) trong nhà máy, nhà thông minh.

AMD thông báo Ryzen AI Max+ 395 là “bộ xử lý PC AI tiêu dùng đầu tiên trên thế giới có thể chạy mô hình gpt-oss-120b của OpenAI”. Theo hãng chip AI Mỹ này, động thái này đánh dấu việc “trước đây các mô hình AI của OpenAI chỉ có thể vận hành trên phần cứng trung tâm dữ liệu thì giờ đã có mặt trên máy tính mỏng nhẹ”.

Qualcomm cho phép gpt-oss-20b chạy trên các thiết bị dùng chip Snapdragon (thường là PC cao cấp), với mục tiêu mở ra trải nghiệm AI riêng tư, độ trễ thấp ngay trên thiết bị của người dùng.

Amazon thông báo hai mô hình trọng số mở của OpenAI hiện đã có mặt trên nền tảng thị trường AI tạo sinh Bedrock thuộc Amazon Web Services. Đây là lần đầu tiên một mô hình của OpenAI xuất hiện trên Bedrock, theo Atul Deo - Giám đốc sản phẩm của Bedrock.

“OpenAI đã phát triển những mô hình tuyệt vời và chúng tôi tin rằng đây sẽ là những lựa chọn mã nguồn mở hoặc trọng số mở tuyệt vời cho khách hàng”, Atul Deo nói trong một cuộc phỏng vấn. Ông từ chối tiết lộ các thỏa thuận hợp đồng giữa Amazon Web Services và OpenAI.

Amazon Web Services là nhà cung dịch vụ điện toán đám mây hàng đầu thế giới.

Theo thông báo chính thức của Amazon Web Services, hai mô hình trọng số mở của OpenAI “xuất sắc trong các nhiệm vụ lập trình, phân tích khoa học, suy luận toán học" và giờ đây khách hàng có thể triển khai trên hạ tầng này dễ dàng.

Hiệu năng, ứng dụng và ý nghĩa

Nhìn chung, các đánh giá ban đầu cho thấy gpt-oss đạt hiệu năng ấn tượng so với kỳ vọng của mô hình trọng số mở. Sự kết hợp của kiến trúc MoE (tổ hợp các chuyên gia) và kỹ thuật lượng tử hóa 4-bit giúp gpt-oss-120b cùng 20b vừa mạnh mẽ vừa có thể vận hành trên phần cứng phổ thông.

MoE là phương pháp học máy phân chia một mô hình AI thành các mạng con riêng biệt, hay còn gọi là các expert (chuyên gia), mỗi expert tập trung vào một tập hợp con dữ liệu đầu vào, để cùng nhau thực hiện nhiệm vụ. Cách tiếp cận này được cho giúp giảm đáng kể chi phí tính toán trong quá trình tiền huấn luyện mô hình AI và tăng tốc độ xử lý ở giai đoạn suy luận.

Lượng tử hóa 4-bit là kỹ thuật nén mô hình AI, giảm số lượng bit dùng để lưu trữ mỗi tham số, từ đó giảm dung lượng bộ nhớ và tăng tốc độ xử lý, mà vẫn giữ được độ chính xác chấp nhận được.

Hai mô hình mới của OpenAI cho phép chỉnh “độ sâu suy luận” (từ nhanh sang kỹ lưỡng) tùy theo yêu cầu, cho thấy khả năng xử lý rất tốt trong các tác vụ lập trình, xử lý ngôn ngữ khoa học, tính toán và giải toán nâng cao. Ví dụ, gpt-oss-120b đạt điểm gần bằng o4-mini trong nhiều bài kiểm tra học thuật và vượt trội hơn hầu hết mô hình mở hiện có.

Việc gpt-oss-120b và 20b có thể chạy offline trên laptop, smartphone sẽ giải quyết vấn đề bảo mật lẫn chi phí đám mây.

Nhiều ý kiến cũng cho rằng việc mở trọng số của OpenAI sẽ khuyến khích nghiên cứu và cải tiến, từ các phòng thí nghiệm học thuật nhỏ đến các startup.

Một số chuyên gia cho rằng gpt-oss sẽ thúc đẩy đổi mới và dân chủ hóa AI, bởi nhiều người có thể sử dụng và phát triển tiếp những mô hình tiên tiến mà không phải chịu các rào cản bản quyền hay chi phí đắt đỏ.

Sự khác biệt giữa mô hình AI mã nguồn mở và trọng số mở

Sự khác biệt giữa mô hình mã nguồn mở và trọng số mở nằm ở phạm vi mức độ công khai và quyền sử dụng của mô hình AI. Cụ thể:

1. Mô hình AI mã nguồn mở

- Công khai toàn bộ mã nguồn và trọng số của mô hình.

- Có thể bao gồm mã huấn luyện, mã kiến trúc mô hình, trọng số đã huấn luyện, dữ liệu huấn luyện (nếu có thể).

- Người dùng có thể chỉnh sửa, tái huấn luyện, triển khai, thương mại hóa theo giấy phép đi kèm (ví dụ Apache 2.0, MIT,...)

- Tự do tùy biến và đóng góp ngược lại vào cộng đồng mã nguồn mở.

2. Mô hình AI trọng số mở

- Không công khai mã nguồn huấn luyện hoặc kiến trúc đầy đủ.

- Chỉ cung cấp trọng số đã huấn luyện để dùng thử hoặc nghiên cứu. Các trọng số được huấn luyện trong mô hình dạng này là công khai, cho phép nhà phát triển tải xuống, sử dụng để phân tích và tinh chỉnh mô hình cho các tác vụ cụ thể mà không cần dữ liệu huấn luyện gốc.

- Có thể giới hạn quyền sử dụng, ví dụ không dùng cho mục đích thương mại, không được tái huấn luyện, không được dùng để tạo mô hình cạnh tranh.

Sự khác biệt giữa mô hình AI mã nguồn mở và trọng số mở

Sự khác biệt giữa mô hình AI mã nguồn mở và trọng số mở

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/chuyen-gia-danh-gia-cao-gpt-oss-nvidia-hao-hung-hop-tac-voi-openai-235864.html