ChatGPT có thể tiêu tốn 700.000 USD mỗi ngày

Từ Minh Quân

Well-known member
ChatGPT được ước tính cần 700.000 USD mỗi ngày để vận hành do hoạt động trên hệ thống máy chủ đắt đỏ.

"ChatGPT yêu cầu sức mạnh tính toán lớn để phản hồi dựa trên tương tác của người dùng", Dylan Patel, nhà phân tích của công ty nghiên cứu chất bán dẫn SemiAnalysis, nói với The Information. "Hầu hết chi phí là từ các máy chủ đắt tiền mà họ đang sử dụng".

Trả lời Business Insider sau đó, Patel cho biết việc vận hành ChatGPT cần nhiều tiền, và GPT-4 ra mắt tháng trước thậm chí còn tốn kém hơn. Con số 700.000 USD ông ước tính cho ChatGPT dựa trên mô hình GPT-3.

Afzal Ahmad, nhà phân tích khác của SemiAnalysis, đánh giá việc đào tạo mô hình ngôn ngữ lớn có nhiều người dùng như ChatGPT cần chi phí rất lớn, "vượt xa bất kỳ mô hình AI ở quy mô bình thường khác".

OpenAI chưa đưa ra bình luận.

Một hệ thống máy chủ vận hành ChatGPT, dựa trên nền tảng đám mây Azure. Ảnh: Microsoft

Một hệ thống máy chủ vận hành ChatGPT, dựa trên nền tảng đám mây Azure. Ảnh: Microsoft

Nick Walton, CEO của Latitude, cho biết từng sử dụng GPT để tạo cốt truyện cho game Dungeon. Việc chạy mô hình này trên game kết hợp máy chủ Amazon Web Services khiến công ty phải trả 200.000 USD cho hàng triệu truy vấn mỗi tháng vào năm 2021, theo CNBC.

Để cải thiện, Walton chuyển sang mô hình khác do AI21 Labs vận hành và giảm chi phí xuống một nửa. AI21 Labs có trụ sở tại Israel, cũng là công ty AI chuyên phát triển hệ thống xử lý ngôn ngữ tự nhiên và được xem là đối thủ của OpenAI.

Cuối năm ngoái, Tom Goldstein, phó giáo sư khoa học máy tính tại Đại học Maryland, cho rằng OpenAI cần ít nhất 100.000 USD mỗi ngày cho ChatGPT. Ước tính của ông được đưa ra khi siêu AI chưa quá phổ biến. Tính đến tháng 2, ChatGPT đã có hơn 100 triệu người dùng và chi phí vận hành được cho là đã tăng lên nhiều lần.

Hồi tháng 2, Google xác nhận sẽ tốn hàng tỷ USD để vận hành Bard như một công cụ tìm kiếm. "Mỗi truy vấn trên AI như chatbot Bard có thể khiến công ty tốn phí gấp 10 lần so với tìm kiếm thông tin bằng từ khóa trên Google Search", John Hennessy, Chủ tịch Alphabet - công ty mẹ của Google, nói với Reuters. "Nguyên nhân là tìm kiếm qua mô hình ngôn ngữ lớn đòi hỏi nhiều sức mạnh tính toán và điện năng tiêu thụ".

Ông Hennessy cũng nhấn mạnh chi phí cho AI có thể giảm theo thời gian nếu được tinh chỉnh và tối ưu hóa về hiệu năng. Tuy vậy, quá trình này sẽ cần nhiều năm để hoàn thiện, từ sức mạnh chip xử lý, lượng dữ liệu để đào tạo AI đến khả năng vận hành và năng lượng.

Microsoft "ra tay"

Theo The Information, Microsoft đang phát triển chip AI có tên Athena. Dự án bắt đầu từ 2019 khi công ty rót một tỷ USD vào OpenAI. Đổi lại, OpenAI phải chạy các mô hình huấn luyện độc quyền trên các máy chủ đám mây Microsoft Azure.

Ý tưởng đằng sau việc phát triển chip của Microsoft liên quan đến hai vấn đề. Đầu tiên là ban lãnh đạo Microsoft nhận thấy họ đang tụt lại phía sau Google và Amazon trong tham vọng tự xây dựng chip riêng. Bên cạnh đó, hãng cũng được cho là muốn tìm giải pháp thay thế rẻ hơn để vận hành các hệ thống AI thay vì dùng bộ xử lý đồ họa từ Nvidia.

Sau bốn năm, hơn 300 nhân viên của Microsoft vẫn đang tiếp tục phát triển chip mới, dự kiến sử dụng trong nội bộ công ty và OpenAI đầu năm tới.

Đến nay, việc đầu tư vào OpenAI vẫn được đánh giá là bước đi đúng đắn của Microsoft. Sau một tỷ USD đầu tiên, công ty đang rót thêm 10 tỷ USD và gần như trở thành "đại lý độc quyền" khai thác sức mạnh tính toán, giao diện lập trình, sản phẩm và nghiên cứu của OpenAI. Hãng đã đưa ChatGPT và Dall-E vào trình duyệt Edge, công cụ tìm kiếm Bing, ứng dụng văn phòng Microsoft 365.
 
Bên trên