“Ảo giác AI” là gì? Nguyên nhân gây ra hiện tượng “ảo giác AI”

Thanh Thúy

Well-known member
Chưa 1 công ty nào ra mắt sản phẩm AI dám tuyên bố đã giải quyết triệt để hiện tượng “ảo giác AI” - Google, Microsoft, Meta hay mới đây là Apple. Vậy hiện tượng “ảo giác AI” này là gì?


Ảo giác AI
Ảo giác AI đề cập đến các trường hợp trong đó các mô hình AI, đặc biệt là các mô hình ngôn ngữ lớn (LLM), tạo ra thông tin có vẻ đúng nhưng không chính xác hoặc không liên quan đến đầu vào. Hiện tượng này đặt ra những thách thức đáng kể vì nó có thể dẫn đến việc phổ biến thông tin sai lệch hoặc gây hiểu nhầm.
Còn theo IBM, ảo giác AI (hallucination) là hiện tượng mô hình ngôn ngữ lớn (LLM) nhận mẫu dữ liệu không tồn tại hoặc không thể nhận dạng với con người, từ đó tạo kết quả vô nghĩa hoặc sai lệch.

1718614911762.png



Hay hiểu một cách đơn giản, trong một số trường hợp AI đưa ra kết quả không chính xác, tạo phản hồi ‘ảo giác’ khi nhận được yêu cầu của người dùng. Hiện tượng này ra do nhiều yếu tố như quá khớp (overfitting), dữ liệu đào tạo sai lệch và sự phức tạp của mô hình.
Do đó, việc giải quyết ảo giác AI trở nên quan trọng đối với độ tin cậy và độ tin cậy của hệ thống AI. Nó rất cần thiết trong các ứng dụng mà bạn cần độ chính xác và đúng thực tế. Hãy hiểu điều này chi tiết hơn.
Vì sao AI lại ảo giác?
Dữ liệu đào tạo kém
Chất lượng, tính đa dạng và tính đại diện của dữ liệu đào tạo tác động đến cách các mô hình AI diễn giải và phản hồi với đầu vào. Dữ liệu đào tạo không đầy đủ hoặc sai lệch có thể dẫn đến các mô hình AI tạo ra kết quả đầu ra sai hoặc gây hiểu nhầm. Lựa chọn dữ liệu đào tạo phù hợp là điều cần thiết để đảm bảo mô hình có sự hiểu biết cân bằng và toàn diện về chủ đề.

Lỗi học máy
Quá khớp xảy ra khi một mô hình AI được huấn luyện trên một tập dữ liệu bị hạn chế. Nó khiến mô hình ghi nhớ các đầu vào và đầu ra cụ thể thay vì học cách khái quát hóa. Sự thiếu khái quát hóa này có thể khiến mô hình tạo ra ảo giác khi gặp dữ liệu mới.

Lỗi phiên dịch thành ngữ hoặc tiếng lóng
1718614934837.png



Các mô hình AI có thể gặp khó khăn với các thành ngữ hoặc cách diễn đạt tiếng lóng mà chúng chưa gặp trong dữ liệu đào tạo của mình. Sự không quen thuộc này có thể dẫn đến sự bất thường về đầu ra của AI.

Biến dạng dữ liệu AI

Các cuộc tấn công đối nghịch liên quan đến các lời nhắc được thiết kế có chủ ý nhằm đánh lừa hoặc gây nhầm lẫn cho AI có thể gây ảo giác. Những cuộc tấn công này khai thác lỗ hổng thiết kế và đào tạo của mô hình.

Cấu trúc promt tệ

Cách bạn cấu trúc và trình bày lời nhắc cho mô hình AI có thể ảnh hưởng đáng kể đến kết quả đầu ra của nó. Những lời nhắc mơ hồ hoặc mơ hồ có thể khiến mô hình bị ảo giác hoặc tạo ra thông tin không liên quan hoặc không chính xác. Ngược lại, những lời nhắc được xây dựng tốt cung cấp bối cảnh và định hướng rõ ràng có thể hướng dẫn mô hình tạo ra các phản hồi chính xác và phù hợp hơn.
Mô hình AI nào ít bị “ảo giác” nhất?
1718614955483.png



Theo nghiên cứu vào tháng 11/2023 của Vectara, một startup thành lập bởi các cựu nhân viên Google, chatbot vẫn có 3% khả năng bịa thông tin, và cao nhất đến 27%.
Kết quả nghiên cứu của Vectara cho thấy, tỷ lệ ảo giác của chatbot cao hơn với những tác vụ khác, ông nghệ của OpenAI có tỷ lệ ảo giác thấp nhất (khoảng 3%), tiếp đến là Meta (khoảng 5%), Claude 2 của Anthropic (8%) và PaLM của Google (27%).
Tỷ lệ vi phạm "nội dung có hại, chủ đề nhạy cảm và thông tin sai lệch" của Apple Intelligence khi chạy trên máy chủ là 6,6% trong tổng số yêu cầu, khá thấp so với những mô hình khác.
Vectara hy vọng rằng, nghiên cứu này sẽ khiến người dùng tăng cường cảnh giác với thông tin đến từ chatbot, kể cả dịch vụ cho người dùng phổ thông lẫn doanh nghiệp.
 
Bên trên