
Chính quyền Biden cho biết họ đang lấy ý kiến của công chúng về các biện pháp quy trách nhiệm đối với các hệ thống trí tuệ nhân tạo (Artificial Intelligence – AI). (Nguồn: pixabay.com)
WASHINGTON – Chính quyền Biden cho biết họ đang lấy ý kiến của công chúng về các biện pháp quy trách nhiệm đối với các hệ thống trí tuệ nhân tạo (AI) vì ngày càng có nhiều nghi vấn về tác động của nó đối với an ninh và giáo dục quốc gia, theo tin Reuters.
ChatGPT, một chương trình AI gần đây đã thu hút sự chú ý của công chúng nhờ khả năng viết câu trả lời nhanh chóng cho nhiều loại truy vấn, đặc biệt đã thu hút sự chú ý của các nhà lập pháp Hoa Kỳ khi nó trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử với hơn 100 triệu người dùng hoạt động hàng tháng.
Cơ Quan Kiểm Soát Thông Tin và Viễn Thông Quốc Gia (National Telecommunications and Information Administration – NTIA), một cơ quan của Bộ Thương Mại tư vấn cho Tòa Bạch Ốc về chính sách viễn thông và thông tin, muốn có ý kiến đóng góp vì “sự quan tâm về pháp lý ngày càng tăng” đối với “cơ chế về trách nhiệm” của AI.
Cơ quan này muốn biết liệu có biện pháp nào có thể được đưa ra để đảm bảo “rằng các hệ thống AI là hợp pháp, hiệu quả, có đạo đức, an toàn và đáng tin cậy hay không.”
Quản trị viên NTIA Alan Davidson cho biết: “Các hệ thống AI có thể mang lại những lợi ích to lớn, nhưng chỉ khi chúng ta giải quyết được những hậu quả và tác hại tiềm ẩn của chúng. Để các hệ thống này phát huy hết tiềm năng, các công ty và người tiêu dùng cần có thể tin tưởng chúng.”
Tuần trước, Tổng thống Joe Biden cho biết vẫn còn phải chờ xem liệu AI có nguy hiểm hay không. Ông nói: “Theo quan điểm của tôi, các công ty công nghệ có trách nhiệm đảm bảo sản phẩm của họ an toàn trước khi đưa ra thị trường.”
ChatGPT, đã khiến một số người dùng kinh ngạc với những câu trả lời nhanh chóng cho các câu hỏi, nhưng cũng khiến một số người khó chịu với những thông tin thiếu chính xác. ChatGPT được tạo bởi OpenAI, có trụ sở tại California, và được hỗ trợ bởi Microsoft Corp.
Trung Tâm Center for Artificial Intelligence and Digital Policy đã yêu cầu Federal Trade Commission ngăn OpenAI phát hành các bản phát hành thương mại mới của GPT-4 vì cho rằng nó “thiên vị, lừa đảo và có rủi ro đối với quyền riêng tư và an toàn công cộng.”