Vì sao Apple không dùng chip Nvidia?

Apple ưa chuộng phần cứng của Google và Amazon để đào tạo Apple Intelligence thay vì chạy theo trào lưu dùng GPU của Nvidia cho các tác vụ về trí tuệ nhân tạo.

Chỉ trong một năm qua, giá cổ phiếu của Nvidia đã tăng gần 180% và cao gấp hơn 9 lần kể từ đầu năm 2023.

Nguyên nhân cho sự phát triển vũ bão của Nvidia rất đơn giản: Hãng là nhà cung cấp chip xử lý đồ họa (GPU) thiết yếu cho "cơn sốt" AI, đồng thời là bên hưởng lợi lớn nhất từ sự bùng nổ của AI tạo sinh kể từ khi OpenAI ra mắt ChatGPT vào tháng 11/2022.

Giới công nghệ gần như "phát cuồng" với hãng đồ họa này. Từ Microsoft, Meta, Google, Amazon cho đến cả Tesla, tất cả đều tìm mua và gom GPU Nvidia nhiều nhất có thể.

Tuy nhiên, có một nghịch lý là Apple - công ty niêm yết có giá trị cao nhất nước Mỹ với khoảng 3.550 tỷ USD, cho đến nay vẫn chưa thật sự hợp tác với Nvidia.

Lựa chọn thay thế Nvidia

Sở dĩ GPU của Nvidia "đắt hàng" đến thế vì đây là công cụ gần như tối ưu nhất để giải quyết khối lượng công việc AI.

Cụ thể, GPU của Nvidia là tốt nhất trong phân khúc và có phần mềm hàng đầu trong ngành để giúp khai thác mọi hiệu suất từ GPU.

 Đơn vị xử lý đồ họa (GPU) siêu máy tính trí tuệ nhân tạo HGX H100 của Nvidia. Ảnh: I-Hwa Cheng/Bloomberg.

Đơn vị xử lý đồ họa (GPU) siêu máy tính trí tuệ nhân tạo HGX H100 của Nvidia. Ảnh: I-Hwa Cheng/Bloomberg.

Điều này rất quan trọng vì các máy chủ chạy mô hình AI vốn chứa hàng nghìn GPU. Không giống như bộ xử lý trung tâm (CPU) có trong PC, GPU là lựa chọn hàng đầu cho việc huấn luyện AI vì chúng có thể thực hiện nhiều phép tính song song.

Bên cạnh đó, không chỉ phục vụ AI, GPU cũng là nền tảng chính cho nhiều tác vụ cần tính toán phức tạp, như khai thác tiền số, mô phỏng kỹ thuật hay khám phá những loại thuốc chưa từng có.

Tuy nhiên, vì không được thiết kế chuyên dụng cho tính toán AI, theo lý thuyết vẫn có cách xử lý tính toán tốt hơn dùng GPU.

Một trong những giải pháp thay thế nổi lên là bộ xử lý Tensor (TPU) của Google. Từ năm 2015, công ty này sử dụng bộ xử lý Tensor (TPU) để đào tạo và triển khai mô hình AI. Tháng 5 năm nay, Google công bố phiên bản thứ 6 của Tensor mang tên Trillium, dùng để phát triển mô hình Gemini và Imagen.

Mặc dù công nghệ có vẻ giống nhau, có những khác biệt quan trọng giữa GPU và TPU. Cụ thể, so với GPU, TPU sở hữu hiệu suất vượt trội về phép tính tensor, một định dạng đặc biệt của Google tổng quát hơn so với ma trận thông thường dành riêng cho AI.

Điều này giúp TPU có hiệu suất tốt hơn khi đào tạo và suy luận hệ thống AI và máy học hơn là công nghệ của GPU. Mặc dù không có tính linh hoạt bằng, TPU lại tiết kiệm năng lượng, có độ trễ thấp hơn và hiệu suất chi phí vượt trội trên hệ thống điện toán đám mây.

Không chỉ GPU, chip AI của Nvidia cũng không phải là phần cứng duy nhất trong huấn luyện mô hình ngôn ngữ lớn (LLM).

Google, Microsoft hay Amazon đều phát triển chip AI dùng nội bộ. Tính cả Oracle, nhóm công ty này chiếm hơn 40% doanh thu của Nvidia.

 Trí tuệ nhân tạo Apple Intelligence được phát triển bằng phần cứng của Google. Ảnh: Shutterstock.

Trí tuệ nhân tạo Apple Intelligence được phát triển bằng phần cứng của Google. Ảnh: Shutterstock.

Năm 2018, Amazon giới thiệu chip AI đầu tiên với tên Inferentia. 3 năm sau, công ty trình làng chip Tranium để đào tạo AI. Khách hàng không thể mua chip trực tiếp, chỉ thuê thông qua dịch vụ đám mây AWS.

Tại hội nghị AWS Reinvent, Benoit Dupin, giám đốc cấp cao về máy học và AI của Apple đã gợi ý rằng Apple sẽ sử dụng chip Trainium2 của Amazon để đào tạo trước các mô hình Apple Intelligence.

Cái lý của Apple

Theo góc nhìn này, việc Apple sử dụng công nghệ vi mạch tích hợp chuyên dụng (ASIC) của Google là hoàn toàn hợp lý.

Trước hết, Apple có thể không muốn phụ thuộc vào công nghệ tốn kém và trong trường hợp này là GPU của Nvidia.

Thay vào đó, Táo khuyết muốn công nghệ phù hợp nhất với nhu cầu AI của mình là TPU, vì nó có thể được thiết kế để cung cấp chính xác những gì Apple cần với hiệu quả cao và chi phí thấp hơn.

Điều này đã từng được nhà sản xuất iPhone nhấn mạnh trong báo cáo dài 47 trang tiết lộ những tính năng xử lý trên đám mây (AFM) và cả máy chủ AFM đều được đào tạo trên cụm đám mây TPU. Điều này đồng nghĩa với việc Apple đã thuê máy chủ từ nhà cung cấp dịch vụ đám mây để thực hiện các phép tính.

“Hệ thống này cho phép chúng tôi đào tạo các mô hình AFM một cách hiệu quả và có khả năng mở rộng, bao gồm AFM trên thiết bị, AFM trên server và các mô hình lớn hơn”, Apple viết trong báo cáo.

 TPU sở hữu hiệu suất vượt trội về các phép tính tensor, một định dạng đặc biệt của Google, tổng quát hơn so với ma trận thông thường dành riêng cho AI so với GPU thông thường.. Ảnh: Abhineet Raj

TPU sở hữu hiệu suất vượt trội về các phép tính tensor, một định dạng đặc biệt của Google, tổng quát hơn so với ma trận thông thường dành riêng cho AI so với GPU thông thường.. Ảnh: Abhineet Raj

Quan trọng hơn, Apple rất ít khi hợp tác với các bên thứ 3, vừa để tiết kiệm chi phí và vừa tránh phụ thuộc quá nhiều vào các nguồn bên ngoài.

Đó cũng là lý do mà Táo khuyết từng phải thiết kế riêng chip ASIC để nâng cao hiệu suất và hiệu quả của sản phẩm. Ví dụ điển hình nhất có thể kể đến dòng chip A cho iPhone, iPad và chip M của Mac.

Việc tự sản xuất ASIC này cho phép Apple tùy chỉnh phần cứng theo nhu cầu phần mềm, mang lại hiệu suất được tối ưu hóa và tích hợp liền mạch trên các thiết bị và nền tảng của mình.

Với ý tưởng như vậy, Apple chắc chắn đã có kế hoạch sử dụng chip máy chủ AI của riêng mình để chạy tác vụ trên các thiết bị của mình.

Do đó, cho đến khi có thể tự chủ nguồn cung phần cứng để chạy Apple Intelligence, nhà sản xuất iPhone vẫn cần dựa vào các nền tảng bên ngoài như TPU của Google và tránh xa một sản phẩm đang có mức giá quá cao như GPU.

Anh Tuấn

Nguồn Znews: https://znews.vn/vi-sao-apple-khong-dung-chip-nvidia-post1516637.html