Từ Minh Quân
Well-known member
TRUNG QUỐC - Một người đàn ông tại Nội Mông đã gửi 622.000 USD cho kẻ lừa đảo, sau khi nghi phạm dùng AI ghép mặt người quen để nhờ chuyển tiền.
Reuters dẫn lời cảnh sát thành phố Bao Đầu thuộc khu tự trị Nội Mông cho biết ngày 20/5, kẻ lừa đảo sử dụng phần mềm AI ghép khuôn mặt một người bạn của nạn nhân trong cuộc gọi video. Người đàn ông đã chuyển 622.000 USD (14,6 tỷ đồng) vào tài khoản vì tin rằng bạn mình đang cần gấp một khoản đặt cọc để có thể tham gia đấu thầu.
Nạn nhân chỉ biết mình bị lừa sau khi người bạn khẳng định không nhờ chuyển tiền. Cảnh sát đã can thiệp, thu hồi được phần lớn số tiền và đang nỗ lực truy dấu phần còn lại.
Sau khi thông tin được cảnh sát công bố, cụm từ "lừa đảo bằng AI đang nở rộ" đã thu hút 120 triệu lượt xem chỉ trong hai ngày trên nền tảng Weibo. "Điều này cho thấy hình ảnh, giọng nói trong video có thể bị kẻ lừa đảo lợi dụng và làm giả. Liệu các quy định an ninh thông tin có theo kịp không?", một người viết.
Một người đàn ông đang nghe điện thoại. Ảnh: AFP
Không chỉ ở Trung Quốc, vấn nạn AI mạo danh, hay còn gọi là deepfake, đang lan khắp thế giới. Deepfake là thuật ngữ chỉ sự kết hợp giữa deep learning (học sâu) và fake (giả), trong đó AI được sử dụng để phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời hình ảnh hoặc video trông như thật.
Tại Mỹ, Ủy ban Thương mại Liên bang Mỹ (FTC) thống kê người dân đã mất tổng cộng 2,6 tỷ USD vì cuộc gọi lừa đảo năm 2022, trong số đó có những cuộc gọi deepfake. Sự tiến bộ của AI thời gian qua thúc đẩy nhiều lĩnh vực phát triển, nhưng cũng là công cụ để kẻ xấu khai thác. Chỉ với vài câu nói và hình ảnh thu thập được, kẻ gian có thể dùng trí tuệ nhân tạo chuyển thành bản sao giọng nói và khuôn mặt của một người. Công cụ sau đó "nói" bất cứ thứ gì theo yêu cầu và trở thành phương tiện lừa đảo.
Giới chuyên gia đánh giá, công cụ deepfake đang tràn lan, nhưng cơ quan quản lý vẫn loay hoay kiểm soát. "Thật đáng sợ. Mọi thứ tạo thành cơn bão, đưa nạn nhân lạc vào sự hỗn loạn", giáo sư Hany Farid tại Đại học California nhận xét trên WSJ. "Kẻ gian sẽ đánh vào tâm lý, buộc nạn nhân phản ứng nhanh, khiến họ không đủ bình tĩnh để xử lý vấn đề, đặc biệt là khi nghe tin người thân gặp nguy hiểm".
Reuters dẫn lời cảnh sát thành phố Bao Đầu thuộc khu tự trị Nội Mông cho biết ngày 20/5, kẻ lừa đảo sử dụng phần mềm AI ghép khuôn mặt một người bạn của nạn nhân trong cuộc gọi video. Người đàn ông đã chuyển 622.000 USD (14,6 tỷ đồng) vào tài khoản vì tin rằng bạn mình đang cần gấp một khoản đặt cọc để có thể tham gia đấu thầu.
Nạn nhân chỉ biết mình bị lừa sau khi người bạn khẳng định không nhờ chuyển tiền. Cảnh sát đã can thiệp, thu hồi được phần lớn số tiền và đang nỗ lực truy dấu phần còn lại.
Sau khi thông tin được cảnh sát công bố, cụm từ "lừa đảo bằng AI đang nở rộ" đã thu hút 120 triệu lượt xem chỉ trong hai ngày trên nền tảng Weibo. "Điều này cho thấy hình ảnh, giọng nói trong video có thể bị kẻ lừa đảo lợi dụng và làm giả. Liệu các quy định an ninh thông tin có theo kịp không?", một người viết.
Một người đàn ông đang nghe điện thoại. Ảnh: AFP
Không chỉ ở Trung Quốc, vấn nạn AI mạo danh, hay còn gọi là deepfake, đang lan khắp thế giới. Deepfake là thuật ngữ chỉ sự kết hợp giữa deep learning (học sâu) và fake (giả), trong đó AI được sử dụng để phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời hình ảnh hoặc video trông như thật.
Tại Mỹ, Ủy ban Thương mại Liên bang Mỹ (FTC) thống kê người dân đã mất tổng cộng 2,6 tỷ USD vì cuộc gọi lừa đảo năm 2022, trong số đó có những cuộc gọi deepfake. Sự tiến bộ của AI thời gian qua thúc đẩy nhiều lĩnh vực phát triển, nhưng cũng là công cụ để kẻ xấu khai thác. Chỉ với vài câu nói và hình ảnh thu thập được, kẻ gian có thể dùng trí tuệ nhân tạo chuyển thành bản sao giọng nói và khuôn mặt của một người. Công cụ sau đó "nói" bất cứ thứ gì theo yêu cầu và trở thành phương tiện lừa đảo.
Giới chuyên gia đánh giá, công cụ deepfake đang tràn lan, nhưng cơ quan quản lý vẫn loay hoay kiểm soát. "Thật đáng sợ. Mọi thứ tạo thành cơn bão, đưa nạn nhân lạc vào sự hỗn loạn", giáo sư Hany Farid tại Đại học California nhận xét trên WSJ. "Kẻ gian sẽ đánh vào tâm lý, buộc nạn nhân phản ứng nhanh, khiến họ không đủ bình tĩnh để xử lý vấn đề, đặc biệt là khi nghe tin người thân gặp nguy hiểm".