Các nhà nghiên cứu vừa phát hiện ra một lỗ hổng bảo mật nghiêm trọng trên chatbot AI, cho phép tin tặc đánh cắp dữ liệu cá nhân của người dùng thông qua các câu lệnh (prompt) độc hại được ngụy trang tinh vi.
Cụ thể, tin tặc có thể chèn các đoạn mã độc hại vào trong những câu lệnh tưởng chừng như vô hại, chẳng hạn như lời nhắc để viết thư xin việc. Khi người dùng sử dụng những lời nhắc này, chatbot sẽ bị "lừa" để tiết lộ thông tin cá nhân như tên, số ID, thông tin thẻ tín dụng, địa chỉ email, …
Tuyệt đối không cung cấp thông tin cá nhân cho chatbot AI. |
Các nhà nghiên cứu từ Đại học California, San Diego (UCSD) và Đại học Công nghệ Nanyang (Singapore) đã thử nghiệm thành công phương pháp tấn công này trên chatbot LeChat của Mistral (Pháp) và ChatGLM (Trung Quốc). Hiện phía Mistral đã nhanh chóng vá lỗ hổng, trong khi các công ty AI khác cũng đang nỗ lực để ngăn chặn hình thức tấn công mới này.
Lời khuyên cho người dùng:
- Hạn chế cung cấp thông tin cá nhân cho chatbot AI.
- Cẩn trọng khi sử dụng các lời nhắc được chia sẻ trên mạng, đặc biệt là những câu lệnh có chứa các đoạn mã khó hiểu.
- Nên tự viết các câu lệnh bằng ngôn ngữ tự nhiên thay vì sao chép từ nguồn không rõ ràng.
Sự việc này một lần nữa nhấn mạnh tầm quan trọng của việc bảo vệ dữ liệu cá nhân khi sử dụng các sản phẩm AI. Người dùng cần nâng cao cảnh giác và thận trọng hơn trong việc tương tác với chatbot, tránh để lộ thông tin nhạy cảm.
Trong tương lai, khi AI ngày càng phát triển và được ứng dụng rộng rãi hơn, việc bảo vệ dữ liệu cá nhân trên các nền tảng AI sẽ trở nên quan trọng hơn bao giờ hết. Các công ty AI cần phải nỗ lực hơn nữa để phát triển các biện pháp bảo vệ mạnh mẽ, ngăn chặn các cuộc tấn công mạng và bảo vệ thông tin người dùng.