Lộ Trình Chip MTIA của Meta: Bốn Chip AI Tùy Chỉnh Trong Hai Năm Để Thách Thức Nvidia
Meta công bố bốn thế hệ chip MTIA — 300, 400, 450 và 500 — ra mắt mỗi sáu tháng cho đến cuối 2027. Chiến lược silicon tùy chỉnh kết hợp thỏa thuận hạ tầng $27 tỷ USD đánh dấu quyết tâm của Meta trong cuộc đua AI toàn cầu.
Ảnh: Meta AI Blog — Chip MTIA thế hệ mới của Meta
Bốn Thế Hệ Chip Trong Hai Năm
Meta lần đầu tiên công bố lộ trình chip chi tiết với chu kỳ ra mắt mỗi sáu tháng — một tốc độ hiếm có trong ngành bán dẫn tùy chỉnh. Chiến lược này phản ánh tham vọng giảm phụ thuộc vào Nvidia và AMD trước cuối năm 2027.[1]
MTIA 300
Đang chạyThế hệ đầu tiên trong lộ trình mới của Meta, MTIA 300 đã được triển khai trên toàn bộ hạ tầng sản xuất của Meta để phục vụ các mô hình AI cho Facebook, Instagram và WhatsApp.
MTIA 400
72 bộ tăng tốcTính năng nổi bật: miền scale-up 72 bộ tăng tốc, cạnh tranh trực tiếp với các sản phẩm thương mại như Nvidia H100. Đánh dấu bước nhảy vọt lớn nhất trong hiệu suất suy luận AI của Meta.
MTIA 450
Hiệu suất+Phiên bản cải tiến của MTIA 400, tối ưu hóa hiệu suất năng lượng và mật độ tính toán. Dự kiến giảm chi phí suy luận xuống 40% so với MTIA 300.
MTIA 500
Thế hệ tiếp theoThế hệ đỉnh cao trong lộ trình 2027, MTIA 500 được thiết kế để hỗ trợ các mô hình AI thế hệ tiếp theo với quy mô hàng nghìn tỷ tham số. Mục tiêu đặt Meta ngang hàng với các trung tâm AI dẫn đầu thế giới.
MTIA 300 so với MTIA 400
MTIA 400 với miền scale-up 72 bộ tăng tốc là bước nhảy vọt quan trọng nhất, đưa chip nội bộ của Meta lên ngang tầm các sản phẩm thương mại.[3]
Cam Kết $27 Tỷ USD Cho Hạ Tầng AI
Song song với việc công bố lộ trình chip MTIA, Meta xác nhận thỏa thuận hạ tầng AI trị giá $27 tỷ USD. Khoản đầu tư khổng lồ này bao gồm xây dựng trung tâm dữ liệu mới, triển khai chip MTIA quy mô lớn và mở rộng năng lực điện toán AI trên toàn cầu.[2]
Ảnh: CNBC — Trung tâm dữ liệu AI quy mô lớn của Meta
Trung tâm dữ liệu mới
Nhiều địa điểmXây dựng các siêu trung tâm dữ liệu chuyên biệt cho workload AI, tối ưu hóa cho chip MTIA thay vì GPU thương mại.
Triển khai MTIA quy mô lớn
Đang triển khaiMTIA 300 đã được triển khai toàn bộ trên hạ tầng sản xuất. MTIA 400 sẽ thay thế phần lớn GPU Nvidia trong các trung tâm mới.
Năng lực điện toán AI
ExaFLOPS ScaleMở rộng tổng năng lực điện toán AI của Meta lên hàng chục exaFLOPS, đủ khả năng phục vụ hơn 3.2 tỷ người dùng hàng ngày.
Thỏa thuận hạ tầng AI lớn nhất từ trước đến nay của Meta, công bố tháng 3/2026
Silicon Tùy Chỉnh Quan Trọng Như Thế Nào với Meta?
Không phải ngẫu nhiên Meta đầu tư hàng chục tỷ USD để xây dựng chip AI riêng. Đây là chiến lược dài hạn nhằm giảm chi phí, tăng kiểm soát và phục vụ tốt hơn hơn 3.2 tỷ người dùng hàng ngày.
Giảm phụ thuộc vào Nvidia
Nvidia kiểm soát hơn 80% thị trường chip AI. Việc phụ thuộc vào một nhà cung cấp duy nhất tạo rủi ro về nguồn cung và chi phí. Chip MTIA cho phép Meta chủ động kiểm soát lộ trình phần cứng.
Tối ưu cho mô hình Meta
Chip thương mại phải phục vụ nhiều loại workload khác nhau. MTIA được thiết kế đặc biệt cho các mô hình AI của Meta như Llama, hệ thống gợi ý nội dung và bộ lọc nội dung tự động.
Tiết kiệm chi phí dài hạn
Đầu tư $27B vào hạ tầng AI kết hợp với chip tùy chỉnh có thể tiết kiệm hàng chục tỷ USD chi phí GPU trong dài hạn. Đây là chiến lược vốn hóa chi phí thành tài sản chiến lược.
AI cho hàng tỷ người dùng
Với hơn 3.2 tỷ người dùng hàng ngày trên Facebook, Instagram, WhatsApp và Threads, Meta cần hạ tầng AI quy mô chưa từng có. Chip tùy chỉnh là chìa khóa để đáp ứng yêu cầu đó hiệu quả.
MTIA So Với Các Đối Thủ Silicon AI
Cuộc đua phát triển chip AI tùy chỉnh ngày càng khốc liệt. Bên cạnh Nvidia H100/H200 vẫn thống trị, các gã khổng lồ công nghệ như Google, Amazon và Microsoft đều đang phát triển silicon riêng.
Nvidia H100
GPU AI thống trị thị trường với hiệu suất đỉnh cao. MTIA 400 được thiết kế để cạnh tranh trực tiếp ở phân khúc suy luận AI.
Google TPU v5
Bộ xử lý tensor tùy chỉnh của Google, ưu thế trong đào tạo mô hình lớn. Meta học hỏi từ mô hình TPU khi xây dựng lộ trình MTIA.
Amazon Trainium 2
Chip AI của AWS tập trung vào đào tạo mô hình ngôn ngữ lớn trên đám mây. Chiến lược tương tự Meta nhưng phục vụ khách hàng bên ngoài.
Microsoft Maia 100
Chip AI đầu tiên của Microsoft, phát triển để phục vụ workload Azure AI. Cũng đang xây dựng độc lập khỏi Nvidia như Meta.
Ảnh: Tom's Hardware — Hình cận cảnh chip MTIA thế hệ mới
▸ Meta tự sản xuất chip MTIA giúp giảm phụ thuộc NVIDIA -- tiết kiệm hàng tỷ USD chi phí hạ tầng AI mỗi năm
Xem thêm: Perplexity AI Search và Morgan Stanley đặt cược AI.
