Apple dường như đang có đột phá lớn trong việc triển khai AI đến iPhone, bao gồm cả những mẫu đời cũ.
Apple đã chứng minh một kỹ thuật đột phá có thể giúp chạy AI trên iPhone có bộ nhớ RAM thấp hơn nhiều so với các mẫu smartphone Android cao cấp. Kỹ thuật này liên quan đến việc hợp lý hóa các mô hình ngôn ngữ lớn (LLM) cồng kềnh bằng cách sử dụng tính năng tối ưu hóa bộ nhớ.
iPhone đời cũ cũng có thể chạy AI nhờ đột phá mới của Apple.
Khi Apple tích hợp AI tiên tiến vào iPhone, đó sẽ là một bước ngoặt quan trọng khác dựa vào hai tài liệu nghiên cứu mới được giới thiệu trong tháng này. Nghiên cứu với nội dung “LLM trong nháy mắt: Suy luận mô hình ngôn ngữ lớn hiệu quả với bộ nhớ hạn chế” được xuất bản vào ngày 12/12 có khả năng thay đổi trải nghiệm iPhone vì nó có thể mang lại khả năng truy cập các hệ thống AI phức tạp trên iPhone và iPad.
Bài nghiên cứu về cơ bản tập trung vào việc chạy các mô hình LLM một cách hiệu quả trên các thiết bị có dung lượng DRAM hạn chế. DRAM là bộ nhớ truy cập ngẫu nhiên động được sử dụng trong PC và được biết đến với tốc độ nhanh, mật độ cao, giá cả phải chăng và mức tiêu thụ điện năng thấp hơn.
Trong nghiên cứu, Apple đề cập đến thách thức trong việc chạy LLM thực sự vượt quá DRAM có sẵn, lưu trữ các tham số mô hình trong bộ nhớ flash và chạy chúng vào DRAM theo yêu cầu. Để có thể làm điều này, các kỹ thuật đã được Apple thảo luận nhằm giảm truyền dữ liệu để đọc trong bộ nhớ một cách có hiệu quả. Theo kết quả báo cáo, mô hình của Apple có tốc độ tăng gấp 4-5 lần và 20-25 lần trên CPU và GPU tương ứng khi so sánh với các phương pháp truyền thống.
Sáng tạo của Apple giúp chạy mô hình LLM một cách có hiệu quả trên iPhone có RAM thấp.
Nghiên cứu mới của Apple cho thấy một cách tiếp cận sáng tạo để chạy LLM hiệu quả trong môi trường hạn chế về phần cứng, mở ra một hướng đi mới cho nghiên cứu trong tương lai về trải nghiệm người dùng trên thiết bị và thế hệ tiếp theo.
Từ góc độ người dùng, những phát hiện về suy luận LLM hiệu quả với bộ nhớ hạn chế có thể mang lại lợi ích to lớn cho cả người dùng Apple lẫn iPhone. Với các LLM mạnh mẽ chạy hiệu quả trên các thiết bị có RAM hạn chế như iPhone và iPad, người dùng sẽ có thể trải nghiệm các khả năng AI nâng cao như xử lý ngôn ngữ được cải thiện, trợ lý giọng nói phức tạp hơn, nâng cao quyền riêng tư, có khả năng giảm mức sử dụng băng thông internet và quan trọng nhất là làm cho AI tiên tiến có thể truy cập và đáp ứng cho tất cả người dùng iPhone, kể cả những mẫu iPhone đời cũ như iPhone 11 hay 12.
Apple đã chứng minh một kỹ thuật đột phá có thể giúp chạy AI trên iPhone có bộ nhớ RAM thấp hơn nhiều so với các mẫu smartphone Android cao cấp. Kỹ thuật này liên quan đến việc hợp lý hóa các mô hình ngôn ngữ lớn (LLM) cồng kềnh bằng cách sử dụng tính năng tối ưu hóa bộ nhớ.
iPhone đời cũ cũng có thể chạy AI nhờ đột phá mới của Apple.
Khi Apple tích hợp AI tiên tiến vào iPhone, đó sẽ là một bước ngoặt quan trọng khác dựa vào hai tài liệu nghiên cứu mới được giới thiệu trong tháng này. Nghiên cứu với nội dung “LLM trong nháy mắt: Suy luận mô hình ngôn ngữ lớn hiệu quả với bộ nhớ hạn chế” được xuất bản vào ngày 12/12 có khả năng thay đổi trải nghiệm iPhone vì nó có thể mang lại khả năng truy cập các hệ thống AI phức tạp trên iPhone và iPad.
Bài nghiên cứu về cơ bản tập trung vào việc chạy các mô hình LLM một cách hiệu quả trên các thiết bị có dung lượng DRAM hạn chế. DRAM là bộ nhớ truy cập ngẫu nhiên động được sử dụng trong PC và được biết đến với tốc độ nhanh, mật độ cao, giá cả phải chăng và mức tiêu thụ điện năng thấp hơn.
Trong nghiên cứu, Apple đề cập đến thách thức trong việc chạy LLM thực sự vượt quá DRAM có sẵn, lưu trữ các tham số mô hình trong bộ nhớ flash và chạy chúng vào DRAM theo yêu cầu. Để có thể làm điều này, các kỹ thuật đã được Apple thảo luận nhằm giảm truyền dữ liệu để đọc trong bộ nhớ một cách có hiệu quả. Theo kết quả báo cáo, mô hình của Apple có tốc độ tăng gấp 4-5 lần và 20-25 lần trên CPU và GPU tương ứng khi so sánh với các phương pháp truyền thống.
Sáng tạo của Apple giúp chạy mô hình LLM một cách có hiệu quả trên iPhone có RAM thấp.
Nghiên cứu mới của Apple cho thấy một cách tiếp cận sáng tạo để chạy LLM hiệu quả trong môi trường hạn chế về phần cứng, mở ra một hướng đi mới cho nghiên cứu trong tương lai về trải nghiệm người dùng trên thiết bị và thế hệ tiếp theo.
Từ góc độ người dùng, những phát hiện về suy luận LLM hiệu quả với bộ nhớ hạn chế có thể mang lại lợi ích to lớn cho cả người dùng Apple lẫn iPhone. Với các LLM mạnh mẽ chạy hiệu quả trên các thiết bị có RAM hạn chế như iPhone và iPad, người dùng sẽ có thể trải nghiệm các khả năng AI nâng cao như xử lý ngôn ngữ được cải thiện, trợ lý giọng nói phức tạp hơn, nâng cao quyền riêng tư, có khả năng giảm mức sử dụng băng thông internet và quan trọng nhất là làm cho AI tiên tiến có thể truy cập và đáp ứng cho tất cả người dùng iPhone, kể cả những mẫu iPhone đời cũ như iPhone 11 hay 12.