'Quyền lãng quên' qua cái tên gây khó cho ChatGPT

TRUONGTRINH

Well-known member
ChatGPT không thể phản hồi câu hỏi về "David Mayer", cho thấy những vấn đề quan trọng về quyền riêng tư và phần nào tương lai AI.


Nhiều người dùng ChatGPT đầu tháng 12 cho biết chatbot này sẽ trả lời "Tôi không thể phản hồi" hoặc "Rất tiếc, có vẻ đã xảy ra lỗi" khi được hỏi "Ai là David Mayer?" hoặc câu lệnh chứa cụm "David Mayer".

OpenAI xác nhận đây là lỗi hệ thống và đã khắc phục. "Có thể có những trường hợp ChatGPT không cung cấp thông tin nhất định để bảo vệ quyền riêng tư. Một trong những công cụ của chúng tôi nhầm lẫn khi gắn cờ tên này và ngăn nó xuất hiện trong các phản hồi. Lỗi này không nên xảy ra", công ty cho hay.

Dù vậy, theo WSJ, vẫn có suy đoán rằng OpenAI đang cố ngăn ChatGPT đưa ra câu trả lời có thể dẫn đến rắc rối pháp lý.

Những năm gần đây, một số người công khai chỉ trích hoặc kiện OpenAI với cáo buộc ChatGPT phỉ báng họ, đưa ra những tuyên bố sai lệch, không có bằng chứng. Trong số này có Guido Scorza, luật sư người Italy, thành viên của Hội đồng Bảo vệ dữ liệu cá nhân, và giáo sư luật người Mỹ Jonathan Turley.


ChatGPT hiển thị lỗi khi nhập vào truy vấn chứa tên David Mayer. Ảnh: Bảo Lâm


ChatGPT hiển thị lỗi khi nhập vào truy vấn chứa tên "David Mayer". Ảnh: Bảo Lâm


Một số cho rằng "David Mayer" là David Mayer de Rothschild, người thừa kế của gia đình ngân hàng Rothschild. Tuy nhiên, ông nói với Guardian rằng sự cố không liên quan đến ông.

Sự việc trên cũng cho thấy người dùng cụ thể sử dụng "quyền được lãng quên" theo luật của Liên minh châu Âu (EU) và gửi yêu cầu xóa tên của họ khỏi Internet. OpenAI cũng cho phép mọi người đề nghị công ty xóa hoặc hạn chế quyền truy cập vào dữ liệu về họ.

Dù vậy, giới chuyên gia chỉ ra quyền riêng tư không đơn thuần là xóa tên khỏi Internet hay chặn quyền truy cập thông tin liên quan. Dữ liệu cá nhân được phân tán thông qua các tương tác và giao dịch trực tuyến có thể được tái tạo qua công cụ AI thế hệ mới.

ChatGPT và những chatbot khác đều dựa vào cấu trúc mạng thần kinh được đào tạo trên lượng lớn dữ liệu văn bản để diễn giải câu lệnh và tạo phản hồi. Tuy nhiên, các công ty phát triển những mô hình AI còn chưa thể hiểu rõ cách chúng vận hành, buộc họ dựa vào phương pháp cũ hơn để xây dựng cơ chế kiểm soát, đó là hệ thống dựa trên quy tắc.

Trong một số trường hợp, chatbot đụng phải các rào cản được mã hóa cứng và chuyển sang cách tiếp cận cơ bản là phủ định toàn bộ.

"ChatGPT từ chối hiển thị tên David Mayer cho thấy nó có thể đã được áp dụng quy tắc cố định: Nếu 'David Mayer' được đề cập, hãy xóa những gì đã viết và cho kết quả là: Tôi không thể tạo ra phản hồi", cây bút Chris Stokel-Walker nhận định.

Ngay cả khi lệnh cấm nhắc đến David Mayer là lỗi đơn giản, trường hợp này cũng nhấn mạnh thách thức cơ bản đối với bảo vệ dữ liệu trong kỷ nguyên AI. Bất chấp giá trị khổng lồ và sự cuốn hút của các công ty AI, họ vẫn đang hoạt động dựa trên hệ thống nhân tạo thiếu kiểm soát.

"Khi ngày càng nhiều người nhận ra cách mình có thể vô tình bị đưa vào phản hồi của chatbot, chúng ta có thể sẽ gặp càng nhiều vấn đề tương tự câu chuyện của David Mayer trong tương lai", Stokel-Walker nêu quan điểm.

Điệp Anh (Theo Wall Street Journal)
 
Bên trên