Nguyễn Tấn Sang
Bán xe 🚗
Nhà sản xuất ChatGPT OpenAI cho biết họ sẽ cho ra mắt các công cụ để chống lại thông tin sai lệch trước thềm hàng chục cuộc bầu cử trong năm 2024 tại các quốc gia trên thế giới.
Sự bùng nổ của các ứng dụng AI đã gây lo ngại vế tính xác thực thông tinliên quan đến bầu cử toàn cầu. Ảnh: The Mail & Guardian
Thành công bùng nổ của trang web tạo văn bản ChatGPT đã thúc đẩy một cuộc cách mạng trí tuệ nhân tạo toàn cầu. Tuy nhiên, giới chuyên gia cũng cảnh báo rằng những công cụ như vậy có thể tạo ra những luồng tin giả và gây ảnh hưởng đến cử tri trong các cuộc bầu cử năm 2024 tại các quốc gia bao gồm Mỹ, Ấn Độ và Anh.
OpenAI cho biết họ sẽ không cho phép người dùng sử dụng sản phẩm công nghệ của mình, trong đó có ChatGPT và trình duyệt tạo hình ảnh DALL-E 3 cho các chiến dịch chính trị. Trong một bài đăng trên blog ngày 15/1, công ty này cho biết: “Chúng tôi muốn đảm bảo rằng công nghệ của mình không bị sử dụng theo cách có thể làm suy yếu tiến trình dân chủ".
Trong một báo cáo hồi tuần trước, Diễn đàn Kinh tế Thế giới (WEF) cảnh báo rằng thông tin sai lệch do AI tạo ra là những rủi ro toàn cầu ngắn hạn lớn nhất và có thể làm suy yếu các chính phủ mới được bầu ở các nền kinh tế lớn.
Các chuyên gia cho biết, những lo ngại về thông tin giả tại các cuộc bầu cử đã được đề cập tới từ nhiều năm trước, song sự ra đời của các trình tạo văn bản và hình ảnh AI đã làm tăng thêm mối đe dọa, đặc biệt nếu người dùng không thể nhận biết được nội dung họ nhìn thấy là giả mạo hay bị thao túng.
Vấn đề sử dụng trí tuệ nhân tạo (AI) can thiệp vào các cuộc bầu cử đã trở thành mối lo ngại kể từ khi OpenAI phát hành hai sản phẩm gồm ChatGPT có thể tạo văn bản giống như con người và công nghệ DALL-E tạo ra “deepfake” (kỹ thuật sử dụng AI để tạo ra âm thanh, hình ảnh và video giả mạo).
Bản thân Giám đốc điều hành (CEO) của OpenAI, ông Sam Altman, tại phiên điều trần trước Quốc hội Mỹ hồi tháng 5/2023 cũng bày tỏ lo ngại về khả năng AI tạo sinh có thể bị sử dụng để can thiệp quá trình bầu cử.
OpenAI cũng dự kiến ghim biểu tượng “cr” đối với những bức ảnh do AI tạo ra, phù hợp với nguyên tắc của Liên minh Chứng minh và Xác thực Nội dung (C2PA) được thành lập nhằm chống nạn thông tin sai lệch, cũng như tìm cách nhận diện nội dung của DALL-E ngay cả khi hình ảnh đã được chỉnh sửa.
OpenAI cho biết ChatGPT, khi được hỏi các câu hỏi mang tính thủ tục về các cuộc bầu cử ở Hoa Kỳ như địa điểm bỏ phiếu, sẽ hướng người dùng đến các trang web có thẩm quyền. Người dùng ChatGPT sẽ được cung cấp tin tức theo thời gian thực với đầy đủ thông tin ghi nhận và liên kết, cũng như được chuyển đến một trang web về bỏ phiếu khi họ có các câu hỏi về thủ tục bầu cử.
OpenAI cũng nhấn mạnh chính sách hiện tại của mình về việc ngăn chặn deepfake và chatbot mạo danh, cũng như nội dung được tạo ra để gây hiểu lầm về quá trình bỏ phiếu hoặc ngăn cản quyền bầu cử.
Công ty cũng cam kết hạn chế các ứng dụng mang tính chính trị và tạo cơ chế báo cáo vi phạm tiềm ẩn trong hệ thống GPT mới của họ.
OpenAI hy vọng rằng những biện pháp này, nếu thành công, sẽ cung cấp những bài học quan trọng và giúp họ triển khai các chiến lược tương tự trên phạm vi toàn cầu.
Sự bùng nổ của các ứng dụng AI đã gây lo ngại vế tính xác thực thông tinliên quan đến bầu cử toàn cầu. Ảnh: The Mail & Guardian
Thành công bùng nổ của trang web tạo văn bản ChatGPT đã thúc đẩy một cuộc cách mạng trí tuệ nhân tạo toàn cầu. Tuy nhiên, giới chuyên gia cũng cảnh báo rằng những công cụ như vậy có thể tạo ra những luồng tin giả và gây ảnh hưởng đến cử tri trong các cuộc bầu cử năm 2024 tại các quốc gia bao gồm Mỹ, Ấn Độ và Anh.
OpenAI cho biết họ sẽ không cho phép người dùng sử dụng sản phẩm công nghệ của mình, trong đó có ChatGPT và trình duyệt tạo hình ảnh DALL-E 3 cho các chiến dịch chính trị. Trong một bài đăng trên blog ngày 15/1, công ty này cho biết: “Chúng tôi muốn đảm bảo rằng công nghệ của mình không bị sử dụng theo cách có thể làm suy yếu tiến trình dân chủ".
Trong một báo cáo hồi tuần trước, Diễn đàn Kinh tế Thế giới (WEF) cảnh báo rằng thông tin sai lệch do AI tạo ra là những rủi ro toàn cầu ngắn hạn lớn nhất và có thể làm suy yếu các chính phủ mới được bầu ở các nền kinh tế lớn.
Các chuyên gia cho biết, những lo ngại về thông tin giả tại các cuộc bầu cử đã được đề cập tới từ nhiều năm trước, song sự ra đời của các trình tạo văn bản và hình ảnh AI đã làm tăng thêm mối đe dọa, đặc biệt nếu người dùng không thể nhận biết được nội dung họ nhìn thấy là giả mạo hay bị thao túng.
Vấn đề sử dụng trí tuệ nhân tạo (AI) can thiệp vào các cuộc bầu cử đã trở thành mối lo ngại kể từ khi OpenAI phát hành hai sản phẩm gồm ChatGPT có thể tạo văn bản giống như con người và công nghệ DALL-E tạo ra “deepfake” (kỹ thuật sử dụng AI để tạo ra âm thanh, hình ảnh và video giả mạo).
Bản thân Giám đốc điều hành (CEO) của OpenAI, ông Sam Altman, tại phiên điều trần trước Quốc hội Mỹ hồi tháng 5/2023 cũng bày tỏ lo ngại về khả năng AI tạo sinh có thể bị sử dụng để can thiệp quá trình bầu cử.
OpenAI cũng dự kiến ghim biểu tượng “cr” đối với những bức ảnh do AI tạo ra, phù hợp với nguyên tắc của Liên minh Chứng minh và Xác thực Nội dung (C2PA) được thành lập nhằm chống nạn thông tin sai lệch, cũng như tìm cách nhận diện nội dung của DALL-E ngay cả khi hình ảnh đã được chỉnh sửa.
OpenAI cho biết ChatGPT, khi được hỏi các câu hỏi mang tính thủ tục về các cuộc bầu cử ở Hoa Kỳ như địa điểm bỏ phiếu, sẽ hướng người dùng đến các trang web có thẩm quyền. Người dùng ChatGPT sẽ được cung cấp tin tức theo thời gian thực với đầy đủ thông tin ghi nhận và liên kết, cũng như được chuyển đến một trang web về bỏ phiếu khi họ có các câu hỏi về thủ tục bầu cử.
OpenAI cũng nhấn mạnh chính sách hiện tại của mình về việc ngăn chặn deepfake và chatbot mạo danh, cũng như nội dung được tạo ra để gây hiểu lầm về quá trình bỏ phiếu hoặc ngăn cản quyền bầu cử.
Công ty cũng cam kết hạn chế các ứng dụng mang tính chính trị và tạo cơ chế báo cáo vi phạm tiềm ẩn trong hệ thống GPT mới của họ.
OpenAI hy vọng rằng những biện pháp này, nếu thành công, sẽ cung cấp những bài học quan trọng và giúp họ triển khai các chiến lược tương tự trên phạm vi toàn cầu.