Hoa Kỳ, Anh và hơn mười quốc gia khác đã công bố những chi tiết thỏa thuận quốc tế đầu tiên về việc đảm bảo an toàn cho trí tuệ nhân tạo (AI) khỏi những kẻ có ý đồ xấu, thúc đẩy các công ty phải tạo ra các hệ thống AI “an toàn từ thiết kế”, theo Reuters.
Trong một tài liệu dài 20 trang được công bố hôm Chủ nhật, 18 quốc gia đã đồng ý rằng các công ty thiết kế và sử dụng AI cần phát triển và triển khai nó theo cách đảm bảo khách hàng và công chúng không sử dụng sai mục đích.
Thỏa thuận này không mang tính ràng buộc mà chủ yếu đưa ra các khuyến nghị chung như theo dõi hệ thống trí tuệ nhân tạo để ngăn chặn lạm dụng, bảo vệ dữ liệu khỏi sự can thiệp và kiểm tra các nhà cung cấp phần mềm.
Tuy nhiên, Giám đốc Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng Hoa Kỳ, Jen Easterly, cho biết điều quan trọng là có nhiều quốc gia đồng ý rằng cần đặt sự an toàn của hệ thống AI lên hàng đầu.
Easterly nói: “Đây là lần đầu tiên chúng ta thấy sự khẳng định rằng những hệ thống này không chỉ nên tập trung vào những tính năng độc đáo và việc nhanh chóng đưa chúng ra thị trường hay cách chúng ta cạnh tranh để giảm giá thành,” và nhấn mạnh các nguyên tắc này đại diện cho “một thỏa thuận rằng điều quan trọng nhất cần phải thực hiện ở giai đoạn thiết kế là bảo mật.”
Thỏa thuận này là nỗ lực mới nhất trong một loạt các sáng kiến của các chính phủ trên khắp thế giới để định hình sự phát triển của trí tuệ nhân tạo, lĩnh vực mà sức ảnh hưởng của nó ngày càng lớn trong ngành công nghiệp và xã hội nói chung.
Ngoài Hoa Kỳ và Anh, 18 quốc gia ký vào thỏa thuận mới bao gồm Đức, Ý, Cộng hòa Séc, Estonia, Ba Lan, Úc, Chile, Israel, Nigeria và Singapore.
Hướng dẫn này sẽ giải quyết các vấn đề về cách giữ cho công nghệ AI không bị tin tặc tấn công và bao gồm các khuyến nghị như chỉ phát hành các mô hình sau khi kiểm tra bảo mật phù hợp. Nó không giải quyết các câu hỏi hóc búa xung quanh việc sử dụng AI phù hợp, hoặc cách dữ liệu cung cấp nguồn cho những mô hình này được thu thập.
Sự phát triển mạnh mẽ của AI đã gây ra nhiều lo ngại, bao gồm cả nỗi lo sợ rằng nó có thể được sử dụng để làm gián đoạn quá trình dân chủ, tăng cường gian lận, hoặc dẫn đến mất việc làm đột ngột, cùng với nhiều nguy hại khác.
Châu Âu đang dẫn đầu so với Hoa Kỳ về các quy định liên quan đến AI, các nhà lập pháp ở đó đã soạn thảo các quy tắc về AI. Pháp, Đức và Ý cũng mới gần đây đạt thỏa thuận về cách quản lý, ủng hộ “tự quản lý bắt buộc thông qua các quy tắc ứng xử” đối với mô hình nền tảng của AI.
Chính quyền Biden đã đang thúc đẩy các nhà lập pháp để đưa ra các quy định về trí tuệ nhân tạo, nhưng tình hình Quốc Hội hiện nay đang chia rẽ, nên chưa có nhiều tiến triển trong việc thông qua các quy định hiệu quả.
Tòa Bạch Ốc đã tìm cách giảm thiểu các rủi ro của trí tuệ nhân tạo đối với người tiêu dùng, người lao động và các nhóm thiểu số đồng thời tăng cường an ninh quốc gia thông qua một sắc lệnh hành pháp mới vào tháng 10.