Ba nỗi sợ lớn về AI

THANHLINH

Well-known member
Giới chuyên gia lo ngại các mô hình AI tạo sinh có thể gây thất nghiệp hàng loạt, lan truyền nội dung thiên kiến và "xâm chiếm thế giới".

AI nguy hiểm như chiến tranh hạt nhân và đại dịch toàn cầu là cảnh báo mới do Trung tâm An toàn AI (CAIS) tại San Francisco đưa ra. Nhóm nhận được sự ủng hộ của hàng loạt chuyên gia trí tuệ nhân tạo hàng đầu, trong đó có Sam Altman, người đứng đầu OpenAI - công ty tạo ra ChatGPT.

Phó giáo sư David Krueger, nhà nghiên cứu AI tại Đại học Cambridge, cho rằng sự lo lắng về AI hiện nay có thể vẫn sớm nhưng không thừa. "Tôi nghĩ chúng ta không có nhiều thời gian để chuẩn bị cho những hiểm họa tiềm ẩn sẽ xảy ra sắp tới", ông nói với Business Insider.

Theo quan điểm này, một số chuyên gia chỉ ra nguy cơ AI tạo sinh có thể tác động đến con người theo hướng tiêu cực.

Gây thất nghiệp hàng loạt

Một sinh viên dùng thử ứng dụng học bằng AI tại Bắc Kinh. Ảnh: China Daily


Một sinh viên dùng thử ứng dụng học bằng AI tại Bắc Kinh. Ảnh: China Daily

Abhishek Gupta, nhà sáng lập Montreal AI Ethics Institute, cho rằng viễn cảnh mất việc do AI là mối đe dọa "thực tế, tức thì và cấp bách nhất". Một số công ty đã sử dụng hoặc lên kế hoạch dùng AI thay thế nhân sự. Tháng trước, CEO IBM Arvind Krishna cho biết sẽ sa thải 7.800 nhân viên, đồng thời giảm tốc độ tuyển dụng đối với những vị trí có thể bị sử dụng bằng AI.

"Tôi có thể dễ dàng nhận thấy 30% công việc trong số đó sẽ bị thay bởi AI và tự động hóa trong thời gian 5 năm tới", Krishna nói với Bloomber.

Trước đó, theo nghiên cứu của Goldman Sachs, các siêu AI như ChatGPT có thể "tạo sản phẩm hàng loạt với sản lượng lớn và chất lượng như con người". Điều này giúp nâng GDP toàn cầu hàng năm lên 7% trong vòng 10 năm bằng cách tự động hóa khoảng một phần tư loại công việc hiện có, khiến 300 triệu lao động toàn thời gian ở các nền kinh tế lớn như Mỹ và châu Âu mất việc "nếu hoạt động đúng như kỳ vọng và không bị kìm hãm".

Thông tin thiên kiến, sai lệch

Theo các chuyên gia, nếu con người sử dụng AI để đưa ra các quyết định mang tính xã hội rộng lớn, sự thiên kiến có thể trở thành rủi ro nghiêm trọng.

Vấn đề này thể hiện rõ nhất ở các mô hình AI tạo ảnh từ văn bản như Stable Diffusion hay Dall-E. Hồi tháng 4, những công cụ này bị chỉ trích là phân biệt chủng tộc, khi mặc định tạo ảnh người lao động châu Phi sống trong cảnh nghèo đói cùng cực, có khuôn mặt hốc hác và sử dụng công cụ thô sơ để hoàn thành công việc. Trong khi đó, ảnh người lao động châu Âu tươi sáng hơn, khuôn mặt hạnh phúc và mặc trang phục công nhân đầy đủ.

Năm 2020, công nghệ sàng lọc gia đình Allegheny được phát triển tại Mỹ để dự đoán trẻ mồ côi nào có nguy cơ bị bố mẹ nuôi bạo hành. Quá trình triển khai cho thấy giải pháp gặp hàng loạt vấn đề, như đánh đồng các bậc cha mẹ sống trong nghèo khổ với sự vô tâm, ngược đãi con cái. Sở Dịch vụ Nhân sinh tại các bang thừa nhận nó có thể thiên kiến về chủng tộc và vấn đề thu nhập.

Theo Gupta của Viện Đạo đức AI Montreal, với việc AI ngày càng thông minh, các quyết định mang tính thiên kiến có thể ngày càng khó phát hiện. Nếu để các hệ thống này ra quyết định liên quan đến đời sống, như phê duyệt khoản phúc lợi, có thể gây ra hậu quả nghiêm trọng.

AI "tiếp quản thế giới"

Một trong những rủi ro thường được nhắc đến nhiều nhất là trí tuệ nhân tạo tổng hợp AGI sẽ vượt khỏi tầm kiểm soát của loài người.

AGI là mô hình trí tuệ nhân tạo có thể thay con người thực hiện những nhiệm vụ khác nhau. Khác với AI thông thường, siêu AI này có thể tự học hỏi và nhân bản chính chúng. Theo Fortune, AGI được đánh giá là phức tạp hơn nhiều so với mô hình AI tạo sinh hiện nay nhờ khả năng tự nhận thức được những gì nó nói và làm. Về mặt lý thuyết, công nghệ này sẽ khiến con người phải lo sợ trong tương lai.

Theo Krueger, ví dụ rõ nhất về mối nguy hiểm AGI tạo ra là trong an ninh quốc phòng. "Cạnh tranh quân sự với vũ khí tự động là ví dụ rõ ràng nhất về việc AI có thể giết chết nhiều người thế nào", ông Krueger nói. "Một kịch bản chiến tranh tổng lực với nòng cốt là các cỗ máy tích hợp AI rất dễ xảy ra".

Theo khảo sát của Đại học Stanford hồi tháng 4, 56% nhà khoa học máy tính và nhà nghiên cứu AI tin AI tạo sinh sẽ sớm chuyển dịch sang AGI. Khoảng 58% chuyên gia đánh giá AGI là "mối quan tâm lớn", 36% nói công nghệ này có thể dẫn đến "thảm họa cấp hạt nhân". Một số cho biết AGI có thể đại diện cho cái gọi là "điểm kỳ dị về công nghệ" - điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.

"Sự tiến bộ về AI và các mô hình AGI vài năm qua thật đáng kinh ngạc", Demis Hassabis, CEO DeepMind - công ty về AI của Google, nói với Fortune. "Tôi không thấy bất kỳ lý do nào khiến tiến độ đó chậm lại. Chúng ta chỉ còn khoảng vài năm, hoặc muộn nhất là một thập kỷ để chuẩn bị".

Dù vậy, không phải ai cũng đồng ý với viễn cảnh AI thống trị thế giới. Mới nhất, giáo sư Yann LeCun, một trong bốn người đặt nền móng cho sự phát triển AI và từng nhận giải thưởng Turing năm 2018, cho rằng AI không thông minh bằng chó mèo và thế giới nên tập trung vào những nguy cơ hiện hữu.

"AI sẽ thống trị thế giới? Không, nó chỉ là sự phóng chiếu bản chất con người lên máy móc. Một ngày nào đó, máy tính sẽ thông minh hơn con người, nhưng còn rất lâu nữa chúng ta mới đạt đến cảnh giới đó", BBC dẫn lời LeCun.
 
Bên trên