- DeepSeek vừa giới thiệu mô hình mới DeepSeek R2, nâng cấp từ DeepSeek R1, với những cải tiến đáng kể về hiệu quả chi phí, khả năng đa ngôn ngữ và hiệu suất tính toán.
- Mô hình này được thiết kế để vượt trội hơn các hệ thống độc quyền như GPT-4 của OpenAI về hiệu quả và khả năng chi trả, đồng thời mở rộng hỗ trợ đa ngôn ngữ bổ sung tiếng Tây Ban Nha ngoài tiếng Anh và tiếng Trung.
- Trong sự kiện Open source Week, DeepSeek đã công bố 3 công cụ nguồn mở quan trọng: Flat MLA (kernel giải mã được tối ưu hóa cho GPU giúp tăng tốc quá trình tạo văn bản), Deep EP (thư viện giao tiếp cho các mô hình AI) và Deep GEM (thư viện nhân ma trận sử dụng Floating Point Acceleration).
- DeepSeek R2 hoạt động trên cụm siêu máy tính Firefly được trang bị chip Nvidia A800, cho phép công ty huấn luyện và triển khai các mô hình ở quy mô lớn, duy trì lợi thế cạnh tranh bất chấp các hạn chế xuất khẩu chip tiên tiến từ Hoa Kỳ.
- Về mặt kiến trúc, DeepSeek sử dụng các kỹ thuật tiên tiến như Mixture of Experts (MoE) và Multihead Latent Attention (MLA) để tối ưu hóa phân bổ tài nguyên, cho phép mô hình phân bổ động sức mạnh tính toán nơi cần thiết nhất.
- Những cải tiến về kiến trúc này giúp R2 cung cấp kết quả chất lượng cao trong khi giảm thiểu chi phí vận hành, làm cho nó trở thành lựa chọn thực tế cho nhiều ứng dụng khác nhau.
- Sự ra mắt của DeepSeek R1 đánh dấu một bước ngoặt trong ngành AI, và với R2, DeepSeek tiếp tục thách thức các chuẩn mực ngành bằng cách cung cấp một giải pháp nguồn mở có thể cạnh tranh với các hệ thống độc quyền về cả hiệu suất và khả năng chi trả.
- Chiến lược của DeepSeek thể hiện sự linh hoạt đáng kể trong việc thích ứng với những thách thức địa chính trị, như hạn chế xuất khẩu chip hiệu suất cao, bằng cách tận dụng sự hỗ trợ của chính phủ và điều chỉnh chiến lược hoạt động của mình.
- Bằng cách kết hợp khả năng chi trả, hiệu quả và tính bao trùm, DeepSeek R2 có tiềm năng định nghĩa lại tiêu chuẩn ngành và cung cấp quyền truy cập rộng rãi vào khả năng AI tiên tiến, thúc đẩy áp dụng rộng rãi và đổi mới.

DeepSeek R2 mang đến bước đột phá với hiệu suất cao hơn GPT-4 nhưng chi phí thấp hơn, cùng bộ công cụ nguồn mở (Flat MLA, Deep EP, Deep GEM) tối ưu hóa phát triển AI. Mô hình được vận hành trên cụm siêu máy tính Firefly với chip Nvidia A800, sử dụng kiến trúc MoE và MLA, mở rộng hỗ trợ đa ngôn ngữ và định vị công ty như một lực lượng đổi mới trong lĩnh vực AI.