Bỗng dưng có ảnh nhạy cảm trên mạng

Từ Minh Quân

Well-known member
Hà An, nữ blogger 22 tuổi, lo sợ khi những tấm hình deepfake khỏa thân với khuôn mặt cô bị phát tán trên Twitter và trong một số nhóm Telegram.

"Chính tôi cũng đỏ mặt khi thấy hình ảnh đó. Chưa bao giờ tôi chụp như vậy, chỉ là khuôn mặt được cắt ghép một cách tinh vi", Hà An nói. Từ hình ảnh ban đầu, một số trang web còn dựng video deepfake có mặt cô. Mệt mỏi vì tin nhắn hỏi thăm từ bạn bè, An phải đóng tài khoản mạng xã hội để bình tĩnh tìm cách giải quyết. Cô cũng lo sợ hình ảnh này có thể đến tay bố mẹ hay người thân ở quê.

Một nhóm chuyên cung cấp dịch vụ ảnh deepfake khiêu dâm trên Telegram, thu hút hàng nghìn người tham gia. Ảnh: HN

Một nhóm chuyên cung cấp dịch vụ ảnh deepfake khiêu dâm trên Telegram, thu hút hàng nghìn người tham gia. Ảnh: Khương Nha

Sau khi nhờ chuyên gia hỗ trợ, nữ blogger phát hiện ảnh được phát tán từ một nhóm chat Telegram. "Một thành viên trong nhóm gửi ảnh của tôi cho dịch vụ 'lột đồ' với giá 25.000 đồng. Trong nhóm có hơn 2.000 thành viên, nên dù bên cung cấp đã đồng ý thu hồi ảnh, nhiều người khác đã tải về và phát tán", An cho hay.

Cô không phải nạn nhân duy nhất của các công cụ deepfake "lột đồ". Chỉ riêng trong nhóm kể trên, mỗi ngày có hàng trăm ảnh được tạo ra. Với vài chục nghìn đồng, người tham gia có thể gửi ảnh ca sĩ, diễn viên, KOL, bạn bè hoặc ảnh của bất kỳ ai trên mạng xã hội để tạo deepfake.

Deepfake là sự kết hợp giữa deep learning (học sâu) và fake (giả). Công nghệ này sử dụng AI để nhanh chóng hoán đổi, ghép khuôn mặt người này vào cơ thể người khác một cách tự nhiên và trông như thật, thay vì đòi hỏi kỹ năng và thời gian để chỉnh sửa ảnh và video như trước. Deepfake bắt đầu gây chú ý từ 2017 sau hàng loạt video khiêu dâm mạo danh người nổi tiếng, như diễn viên Gal Gadot, Emma Watson, Scarlett Johansson hay Daisy Ridley.

Theo ông Nguyễn Anh Tuấn, Giám đốc công nghệ một startup về AI, deepfake đang trở thành vấn đề nhức nhối khi AI ngày một tiến bộ và nở rộ vài tháng qua. "Deepfake không mới nhưng với sự phát triển của công nghệ, các ứng dụng giờ có thể xử lý rất nhanh với độ chân thật tương đối cao", ông nói. Trước đây, ứng dụng deepfake chủ yếu là ghép mặt vào cơ thể người khác, còn hiện tại có một số công cụ có thể "lột đồ". Trong đó, hình ảnh được giữ nguyên phông nền, ánh sáng, khuôn mặt, chỉ có phần quần áo được thay thế, khiến người xem tưởng là sản phẩm chụp ngoài đời thực.

"Ban đầu, AI sẽ được 'dạy' bằng rất nhiều ảnh khỏa thân. Sau khi người dùng tải ảnh bất kỳ lên, hệ thống sẽ quét những chi tiết được cho là quần áo, rồi dựa trên tính toán về tỷ lệ cơ thể để tự động thêm vào các chi tiết phù hợp, trả về bức ảnh 'lột đồ' như nhiều người đang chia sẻ", ông Tuấn giải thích cơ chế hoạt động của ứng dụng. Người dùng càng tải nhiều ảnh, AI càng có nhiều dữ liệu để học và cải thiện.

Sĩ Đức, chuyên cung cấp dịch vụ "lột đồ", nói không biết về kỹ thuật, chỉ đăng ký một số ứng dụng deepfake với chi phí 10 USD/tháng, sau đó tạo hàng loạt tài khoản trên mạng xã hội Twitter, Telegram để tìm kiếm khách hàng. "Một số ứng dụng còn hỗ trợ tiếng Việt nên việc tạo ảnh giả khá đơn giản. Chỉ cần tải lên 3-4 ảnh rõ mặt và toàn thân, vài phút sau AI sẽ tạo ảnh deepfake khiêu dâm với độ hoàn thiện gần như thật", người này mô tả. Giá ảnh trung bình là 20.000 đồng, trong khi video dài một phút là 250-500 nghìn đồng.

Về việc này, ông Tuấn cảnh báo: "Giờ đây, bất kỳ ai cũng có thể trở thành nạn nhân của deepfake khiêu dâm, chỉ với một tấm ảnh đăng trên mạng xã hội".

Một tài khoản rao bán dịch vụ deepfake trên Twitter. Ảnh: Khương Nha

Một tài khoản rao bán dịch vụ deepfake trên Twitter. Ảnh: Khương Nha

Sự bất lực của nạn nhân deepfake

Theo các chuyên gia bảo mật, với việc liên tục được tạo mới và chia sẻ trong các nhóm chat, những hình ảnh như của Hà An có thể sớm bị quên lãng. Tuy nhiên, rủi ro lớn nhất là chúng sẽ tồn tại vĩnh viễn trên Internet và nạn nhân không thể luôn có cơ hội để thanh minh.

"Một trò đùa có thể sớm lắng xuống sau 1-2 tuần, nhưng nhiều năm sau, người thân của tôi có thể thấy ảnh trên Internet. Hoặc khi đi xin việc, làm hồ sơ, giấy tờ, vô tình tôi có thể bị đưa vào danh sách đen", Hà An nói.

Theo luật sư Hà Hải của Đoàn luật sư TP HCM, người sử dụng hình ảnh, video của người khác cắt, ghép thành hình ảnh, thông tin sai sự thật có thể bị truy cứu trách nhiệm hình sự về tội Vu khống quy định tại Điều 156 Bộ luật Hình sự.

Trong trường hợp, người thực hiện hành vi ghép, sửa chữa ảnh/video gây hậu quả nghiêm trọng, xúc phạm nghiêm trọng nhân phẩm, uy tín, danh dự có thể bị truy cứu trách nhiệm hình sự về tội làm nhục người khác, bị phạt tiền với mức cao nhất là 30 triệu đồng, hoặc bị phạt cải tạo không giam giữ.

Những người tìm đến dịch vụ deepfake khiêu dâm và phát tán những hình ảnh này cũng có thể bị xử phạt hành chính theo Điều 84 Nghị định 15/2020/NĐ-CP trong lĩnh vực bưu chính, viễn thông, tần số vô tuyến điện, công nghệ thông tin và giao dịch điện tử. Mức phạt tiền với cá nhân từ 5 đến 10 triệu đồng và từ 10 đến 20 triệu đồng với tổ chức.

Còn theo ông Nguyễn Anh Tuấn, để bảo vệ mình trước cơn sốt deepfake khiêu dâm, người dùng nên ngừng đăng ảnh chân dung công khai trên mạng xã hội. Trong trường hợp phát hiện ảnh deepfake liên quan đến mình, người dùng nên liên hệ ngay với nền tảng để yêu cầu gỡ bỏ, cũng như lưu lại bằng chứng để làm việc với cơ quan chức năng nếu cần.
 
Bên trên