
Các quan chức từ National Cyber Security Centre (NCSC) của Anh cảnh báo các công ty, tổ chức cần cẩn trọng trong việc tích hợp các chatbot AI vào hoạt động kinh doanh của mình. (Nguồn: pixabay.com)
Các viên chức Anh cảnh báo các công ty, tổ chức về việc tích hợp các chatbot dựa trên trí tuệ nhân tạo (AI) vào hoạt động kinh doanh của họ, chỉ ra rằng AI có thể bị kẻ xấu lừa để thực hiện các nhiệm vụ gây hại, theo Reuters.
Trong hai bài đăng trên blog hôm thứ Tư (30/8), National Cyber Security Centre (NCSC) của Anh cho biết các chuyên gia vẫn chưa nắm bắt được các vấn đề bảo mật tiềm ẩn gắn liền với các thuật toán có thể tạo ra các tương tác giống con người – còn được gọi là mô hình ngôn ngữ lớn (Large Language Model – LLM).
Các công cụ hỗ trợ AI đang sớm được sử dụng dưới dạng chatbot, và nhiều người đoán rằng chúng sẽ thay thế không chỉ các tìm kiếm trên Internet mà còn cả các cuộc gọi chào hàng và dịch vụ chăm sóc khách hàng.
NCSC cho biết điều đó có thể mang lại rủi ro, đặc biệt nếu những mô hình như vậy được đưa vào quy trình kinh doanh của các bộ phận khác của tổ chức. Các học giả và nhà nghiên cứu đã nhiều lần tìm ra cách để ‘qua mặt’ các chatbot bằng cách đưa cho chúng những lệnh lừa đảo, hoặc đánh lừa chúng phá vỡ các rào chắn bảo vệ tích hợp sẵn của chính chúng.
Thí dụ: một chatbot hỗ trợ AI do ngân hàng triển khai có thể bị lừa thực hiện giao dịch trái phép nếu tin tặc cấu trúc truy vấn đúng cách.
Trong một bài đăng trên blog, NCSC cho biết: “Các tổ chức xây dựng dịch vụ có sử dụng LLM cần phải cẩn trọng. Nó cũng giống như khi họ đang sử dụng một sản phẩm hoặc thư viện mã hóa đang ở giai đoạn thử nghiệm.”
Các nhà chức trách trên toàn thế giới đang vật lộn với sự gia tăng của LLM, chẳng hạn như ChatGPT của OpenAI, mà các công ty đang kết hợp vào một loạt dịch vụ, bao gồm cả bán hàng và chăm sóc khách hàng. Vấn đề bảo mật của AI cũng đang được chú trọng, khi các nhà chức trách ở Hoa Kỳ và Canada nhận thấy các nhóm tin tặc đã nắm bắt và lợi dụng công nghệ này.
Theo một cuộc thăm dò gần đây của Reuters/Ipsos, nhiều nhân viên của các công ty đang sử dụng các công cụ như ChatGPT để trợ giúp các công việc cơ bản, chẳng hạn như soạn thảo email, tóm tắt nội dung tài liệu và thực hiện nghiên cứu sơ bộ.
Khoảng 10% số người được hỏi cho biết các ‘sếp’ của họ có ra lệnh cấm rõ ràng đối với các công cụ AI bên ngoài, và 25% không biết liệu công ty của họ có cho phép sử dụng công nghệ này hay không.
Oseloka Obiora, giám đốc công nghệ của công ty an ninh mạng RiverSafe, cho biết cuộc đua tích hợp AI vào các hoạt động kinh doanh sẽ gây ra “hậu quả thảm khốc” nếu không có đủ các biện pháp kiểm tra cần thiết.