Từ Minh Quân
Well-known member
Trong cảnh báo dài 22 từ bằng tiếng Anh, các chuyên gia, gồm cả CEO OpenAI Sam Altman, cho rằng siêu AI nguy hiểm không kém vũ khí hạt nhân hay đại dịch.
"Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu, bên cạnh những rủi ro ở quy mô xã hội khác như đại dịch hay chiến tranh hạt nhân", thông báo do Trung tâm An toàn AI (CAIS) tại San Francisco đăng trên website ngày 30/5.
Thông điệp được ký bởi 350 người, là các lãnh đạo và chuyên gia đầu ngành AI. Ngoài Sam Altman còn có Demis Hassabis, đứng đầu Goolge DeepMind, Dario Amodei, CEO Anthropic, chuyên gia Yoshua Bengio hay Geoffrey Hinton, người được coi là "cha đỡ đầu" của ngành AI và vừa rời Google để có thể trực tiếp cảnh báo về mối đe dọa của trí tuệ nhân tạo. Tuy nhiên, trong số này không có ai từ Meta - công ty cũng đang theo đuổi siêu AI.
CEO OpenAI Sam Altman. Ảnh: AFP
Cuối tháng 3, hơn 1.000 người, được xem là "giới tinh hoa" trong lĩnh vực công nghệ, như tỷ phú Elon Musk, nhà đồng sáng lập Apple Steve Wozniak, cũng ký một bức thư kêu gọi các công ty, tổ chức toàn cầu ngừng cuộc đua siêu AI trong sáu tháng để cùng xây dựng một bộ quy tắc chung về công nghệ này.
Giữa tháng 4, CEO Google Sundar Pichai nói AI khiến ông mất ngủ nhiều đêm vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy, trong khi xã hội chưa sẵn sàng cho sự phát triển nhanh chóng của AI. "Nó có thể là thảm họa nếu triển khai sai. Một ngày nào đó, AI sẽ có những khả năng vượt xa trí tưởng tượng của con người và chúng ta chưa thể hình dung hết những điều tồi tệ nhất có thể xảy ra", ông nói với CBS.
Tương tự, Sam Altmam, người đồng sáng lập và CEO của OpenAI, cho rằng AI có thể mang lại lợi ích to lớn, nhưng gây nỗi lo về thông tin sai lệch, cú sốc kinh tế, hoặc thứ gì đó "ở mức độ vượt xa bất cứ những gì con người đã chuẩn bị". Ông liên tục nhắc đến cảm giác lo lắng về AI và thừa nhận đã sốc vì ChatGPT quá phổ biến.
Trong cơn sốt AI, các chuyên gia đang lo ngại về một mô hình cao hơn là trí tuệ nhân tạo tổng hợp (AGI). Khảo sát của Đại học Stanford tháng trước cho thấy 56% nhà khoa học máy tính và nhà nghiên cứu tin AI tạo sinh sẽ bắt đầu chuyển dịch sang AGI trong tương lai gần. Theo Fortune, AGI được đánh giá phức tạp hơn nhiều so với mô hình AI tạo sinh nhờ khả năng tự nhận thức những gì nó nói và làm. Về mặt lý thuyết, công nghệ này sẽ khiến con người phải lo sợ trong tương lai.
Cũng theo kết quả khảo sát, 58% chuyên gia AI đánh giá AGI là "mối quan tâm lớn", 36% nói công nghệ này có thể dẫn đến "thảm họa cấp hạt nhân". Một số cho biết AGI có thể đại diện cho cái gọi là "điểm kỳ dị về công nghệ" - điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.
"Sự tiến bộ về AI và các mô hình AGI vài năm qua thật đáng kinh ngạc", CEO DeepMind Hassabis nói với Fortune. "Tôi không thấy bất kỳ lý do nào khiến tiến độ đó chậm lại. Chúng ta chỉ còn khoảng vài năm, hoặc muộn nhất là một thập kỷ để chuẩn bị".
"Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu, bên cạnh những rủi ro ở quy mô xã hội khác như đại dịch hay chiến tranh hạt nhân", thông báo do Trung tâm An toàn AI (CAIS) tại San Francisco đăng trên website ngày 30/5.
Thông điệp được ký bởi 350 người, là các lãnh đạo và chuyên gia đầu ngành AI. Ngoài Sam Altman còn có Demis Hassabis, đứng đầu Goolge DeepMind, Dario Amodei, CEO Anthropic, chuyên gia Yoshua Bengio hay Geoffrey Hinton, người được coi là "cha đỡ đầu" của ngành AI và vừa rời Google để có thể trực tiếp cảnh báo về mối đe dọa của trí tuệ nhân tạo. Tuy nhiên, trong số này không có ai từ Meta - công ty cũng đang theo đuổi siêu AI.
CEO OpenAI Sam Altman. Ảnh: AFP
Cuối tháng 3, hơn 1.000 người, được xem là "giới tinh hoa" trong lĩnh vực công nghệ, như tỷ phú Elon Musk, nhà đồng sáng lập Apple Steve Wozniak, cũng ký một bức thư kêu gọi các công ty, tổ chức toàn cầu ngừng cuộc đua siêu AI trong sáu tháng để cùng xây dựng một bộ quy tắc chung về công nghệ này.
Giữa tháng 4, CEO Google Sundar Pichai nói AI khiến ông mất ngủ nhiều đêm vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy, trong khi xã hội chưa sẵn sàng cho sự phát triển nhanh chóng của AI. "Nó có thể là thảm họa nếu triển khai sai. Một ngày nào đó, AI sẽ có những khả năng vượt xa trí tưởng tượng của con người và chúng ta chưa thể hình dung hết những điều tồi tệ nhất có thể xảy ra", ông nói với CBS.
Tương tự, Sam Altmam, người đồng sáng lập và CEO của OpenAI, cho rằng AI có thể mang lại lợi ích to lớn, nhưng gây nỗi lo về thông tin sai lệch, cú sốc kinh tế, hoặc thứ gì đó "ở mức độ vượt xa bất cứ những gì con người đã chuẩn bị". Ông liên tục nhắc đến cảm giác lo lắng về AI và thừa nhận đã sốc vì ChatGPT quá phổ biến.
Trong cơn sốt AI, các chuyên gia đang lo ngại về một mô hình cao hơn là trí tuệ nhân tạo tổng hợp (AGI). Khảo sát của Đại học Stanford tháng trước cho thấy 56% nhà khoa học máy tính và nhà nghiên cứu tin AI tạo sinh sẽ bắt đầu chuyển dịch sang AGI trong tương lai gần. Theo Fortune, AGI được đánh giá phức tạp hơn nhiều so với mô hình AI tạo sinh nhờ khả năng tự nhận thức những gì nó nói và làm. Về mặt lý thuyết, công nghệ này sẽ khiến con người phải lo sợ trong tương lai.
Cũng theo kết quả khảo sát, 58% chuyên gia AI đánh giá AGI là "mối quan tâm lớn", 36% nói công nghệ này có thể dẫn đến "thảm họa cấp hạt nhân". Một số cho biết AGI có thể đại diện cho cái gọi là "điểm kỳ dị về công nghệ" - điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.
"Sự tiến bộ về AI và các mô hình AGI vài năm qua thật đáng kinh ngạc", CEO DeepMind Hassabis nói với Fortune. "Tôi không thấy bất kỳ lý do nào khiến tiến độ đó chậm lại. Chúng ta chỉ còn khoảng vài năm, hoặc muộn nhất là một thập kỷ để chuẩn bị".