AMD cho ra mắt siêu phẩm chip Al với nhiều tính năng vượt trội
AMD cho biết Instinct MI300X, chip mạnh nhất dùng để huấn luyện AI của hãng, có hiệu năng gấp 1,6 lần so với H100.
Được giới thiệu lần đầu vào tháng 6 và chính thức ra mắt tại sự kiện Advancing AI ở San Jose, California, Instinct MI300X nhắm đến các hệ thống huấn luyện AI. Trong sự kiện, AMD nêu đích danh mẫu chip của Nvidia là đối thủ chính.
MI300X được coi là đỉnh cao của phương pháp thiết kế chiplet mới nhất mà AMD áp dụng cho GPU, thiết bị XCD được thiết kế kết hợp tám ngăn xếp bộ nhớ HBM3 12Hi cùng tám chiplet GPU 5nm CDNA 3 xếp chồng lên nhau theo kiểu 3D. AMD mô tả công nghệ này như 3,5D, kết hợp giữa 3D và 2,5D. Kết quả là chip mới có công suất mạnh mẽ 750 W, tích hợp 304 đơn vị tính toán, dung lượng HBM3 lên đến 192 GB và băng thông đạt 5,3 TB/s.
- AMD tích hợp NPU lên bộ xử lý để nâng cấp sức mạnh
- Apple chính thức phát hành iOS 18.1 với tính năng ghi âm cuộc gọi trên iPhone
- Mỹ chuẩn bị quy định hạn chế đầu tư vào AI tại Trung Quốc vì lý do an ninh quốc gia
- Microsoft chính thức cáo buộc Google “chơi xấu”
- OpenAI sắp trình diện mô hình AI mới, mạnh hơn GPT-4 100 lần
Bên trong MI300X, thiết kế được tối ưu hóa để hoạt động nhóm với tổng cộng 8 phân vùng xử lý riêng biệt. Kết nối thông qua Infinity Fabric, những vùng này có khả năng giao tiếp với băng thông tốc độ lên đến 896 GB/s. Toàn bộ mang lại hiệu suất 10,4 Petaflop (triệu tỷ phép tính mỗi giây).
Theo báo cáo của AMD, MI300X không chỉ có dung lượng bộ nhớ lớn hơn 2,4 lần mà còn có công suất tính toán lớn hơn lên đến 1,3 lần so với nền tảng H100 – chip AI được sử dụng rộng rãi trong các ứng dụng AI hàng đầu, bao gồm cả GPT-4 của OpenAI. Dung lượng bộ nhớ lớn sẽ giúp hiệu suất tính toán cao hơn do xử lý nhiều dữ liệu cùng lúc hơn.
Trong các thử nghiệm với các mô hình ngôn ngữ lớn, MI300X đã vượt trội so với đối thủ từ Nvidia. Với Llama 2 70B (70 tỷ tham số) và FlashAttention 2, chip AMD nhanh hơn 20% so với 1v1. Khi kết hợp 8v8 (8v8 Server), MI300X mạnh hơn 40% so với H100 khi chạy trên Llama 2 70B và gấp 60% khi chạy trên Bloom 176B (176 tỷ tham số).
AMD nhấn mạnh rằng MI300X không chỉ ngang bằng với H100 về hiệu suất đào tạo mà còn có giá cạnh tranh hơn khi so sánh cùng một khối lượng công việc. Tuy nhiên, công ty vẫn chưa công bố giá bán chính thức của sản phẩm này.
Mặc dù MI300X có thông số mạnh nhưng nó vẫn chưa phải là GPU mạnh nhất. Trong tháng 11, Nvidia đã công bố H200 mới nhất của hãng với hiệu suất gần gấp đôi so với H100.
Ngoài Instinct MI300X, AMD còn giới thiệu một sản phẩm khác là Instinct MI300A, bộ xử lý tăng tốc APU (Accelerated Processing Unit) cho trung tâm dữ liệu đầu tiên trên thế giới. Chip này cũng sử dụng công nghệ đóng gói 3,5D, được thực hiện bởi TSMC, tương tự như MI300X. MI300A kết hợp hai tiến trình sản xuất 5 nm và 6 nm, cùng với 13 chiplet được xếp chồng, tạo ra một chip có 24 lõi và 53 tỷ bóng bán dẫn, đồng thời là chip lớn nhất mà AMD từng sản xuất. Tuy nhiên, công ty vẫn chưa công bố giá cụ thể cho sản phẩm này.
CEO của AMD, Lisa Su, chia sẻ: “Mọi sự chú ý đều đang tập trung vào lĩnh vực chip trí tuệ nhân tạo.” Bà nhấn mạnh rằng những đóng góp từ chip của họ sẽ trực tiếp chuyển đổi thành trải nghiệm người dùng theo hướng tốt hơn. Thiết bị này có khả năng xử lý thông tin nhanh chóng, đặc biệt khi các câu trả lời ngày càng phức tạp hơn.
Trong khi đó, Meta và Microsoft đã xác nhận sẽ sử dụng Instinct MI300X để thay thế cho chip của Nvidia trong các hệ thống của họ. Đại diện của Meta cho biết họ sẽ triển khai MI300X cho các nhiệm vụ như xử lý nhãn dán AI, chỉnh sửa hình ảnh và vận hành trợ lý ảo. Kevin Scott, CTO của Microsoft, cũng chia sẻ rằng họ sẽ tích hợp chip của AMD vào các máy chủ đám mây Azure. OpenAI cũng đã lên kế hoạch sử dụng MI300X cho hệ thống xử lý phần mềm có tên Triton, một mô hình quan trọng trong nghiên cứu AI của họ.
AMD đặt kỳ vọng rằng doanh thu tổng cộng từ GPU cho trung tâm dữ liệu của họ sẽ đạt khoảng 2 tỷ USD vào năm 2024. Họ cũng ước tính giá trị thị trường toàn cầu của GPU AI có thể sẽ tăng 400 tỷ USD trong vòng bốn năm tới.