OpenAI kêu gọi cần có quy định quản lý các AI siêu thông minh trong tương lai

toringuyen0509

Well-known member
OpenAI kêu gọi cần có quy định quản lý các AI siêu thông minh trong tương lai


Các nhà quản lý của OpenAI, nhà phát triển hệ thống ChatGPT đình đám gần đây, đã đưa ra đề nghị ở trên. Lý do của họ là nếu không làm vậy rất có thể sẽ sự tồn tại của loài người sẽ bị ảnh hưởng từ những hệ thống như vậy trong tương lai.

Theo đó họ đưa đề nghị cơ quan quản lý quốc tế cần bắt đầu tiến hành đánh giá các hệ thống, kiểm toán và thử nghiệm các tính năng của những hệ thống AI để đánh giá xem chúng có phù hợp với các tiêu chuẩn an toàn hay chưa. Sau đó cần giám sát chặt chẽ theo từng cấp độ phát triển để giám sát và đặt ra các biện pháp bảo mật tương ứng. OpenAI cho rằng chỉ trong khoảng 10 năm nữa các hệ thống trí tuệ nhân tạo sẽ vượt qua cấp độ chuyên gia trên hầu hết các lĩnh vực. Điều này đồng nghĩa với việc các AI siêu thông minh sẽ đem đến những lợi ích chưa từng có đối với loài người. Tuy nhiên song song với lợi ích kiểu gì cũng có những nguy cơ và giờ là lúc loài người cần có các biện pháp giám sát ngay từ đầu để giảm thiểu nguy cơ đó. Họ lấy ví dụ giống như cách cơ quan quản lý hạt nhân quốc tế đang làm đối với những nước có công nghệ hạt nhân vậy.
Bộ 3 lãnh đạo của OpenAI cũng kêu gọi cần có sự phối hợp ở mức độ nào đó giữa các công ty đang nghiên cứu và phát triển hệ thống AI. Việc điều phối có thể ở mức đa quốc gia để đảm bảo không bị quá phụ thuộc vào 1 bên nào. Mục đích là để đảm bảo việc phát triển sẽ đem lại lợi ích và sự an toàn tối đa cho người sử dụng. Đây cũng là điều nhiều nhà khoa học và các trung tâm nghiên cứu AI mong muốn. Ví dụ như trung tâm nghiên cứu về sự an toàn của AI tại Mỹ cũng đã chia sẻ 8 nguy cơ về AI, dịch sơ qua như ở dưới đây:

- AI bị lợi dụng để vũ khí hóa thiết bị, phục vụ mục đích chiến tranh
- Lạm dụng AI làm suy yếu khả năng tự chủ của con người, quá phụ thuộc vào máy móc
- Làm xói mòn khả năng phân tích và đưa quyết định quan trọng
- Tối ưu hóa AI quá mức làm thay đổi hướng phát triển của xã hội, không phù hợp với các giá trị của con người
- Tập trung quá nhiều quyền lực cho 1 nhóm nhỏ có khả năng kiểm soát AI
- Thay đổi các chuẩn mực đánh giá các kết quả phân tích từ AI, làm con người không thể kiểm soát được các hệ thống AI cao cấp
- Các hệ thống AI tự thay đổi kết quả, tung thông tin sai lệch đánh lừa người giám sát hệ thống
- Các công ty/chính phủ có khả năng tài chính kiểm soát AI và lạm dụng quyền lực thu được từ các kết quả phân tích của hệ thống

Tất nhiên câu chuyện Skynet trong The Terminator sẽ không diễn ra trong thời gian gần 😁. Tuy nhiên khi 1 công ty tiên phong về AI lại đưa ra đề nghị như vậy thì cũng rất đáng phải suy nghĩ, chứ không thể nào họ đưa ra khơi khơi cho vui được.
 
Bên trên