Điểm đáng lo ngại là lỗ hổng này không đòi hỏi bất kỳ thao tác nào từ phía người dùng, làm dấy lên những cảnh báo mới về an ninh mạng trong bối cảnh các mô hình trí tuệ nhân tạo (AI) ngày càng kết nối sâu với dữ liệu cá nhân.
Tài liệu “nhiễm độc” dẫn đến rò rỉ dữ liệu
Tại hội nghị bảo mật Black Hat ở Las Vegas (Mỹ) ngày 6/8, hai chuyên gia Michael Bargury và Tamir Ishay Sharbat đã trình diễn một phương thức tấn công mang tên AgentFlayer.
Cuộc tấn công này khai thác lỗ hổng trong Connectors – tính năng liên kết ChatGPT với các dịch vụ bên ngoài như Google Drive, Gmail hay Microsoft Calendar.
Michael Bargury, Giám đốc Công nghệ (CTO) công ty bảo mật Zenity, cho biết: “Người dùng không cần làm gì để bị xâm nhập hoặc rò rỉ dữ liệu. Chúng tôi đã chứng minh điều này hoàn toàn không cần nhấp chuột”.
Quá trình tấn công bắt đầu bằng việc kẻ xấu chia sẻ vào Google Drive của nạn nhân một tài liệu bị “nhiễm độc”. Tài liệu này chứa một lời nhắc (prompt) độc hại dài khoảng 300 từ, được viết bằng chữ trắng cỡ chữ 1 – gần như vô hình với mắt thường nhưng máy tính vẫn đọc được.
Bên ngoài, văn bản được ngụy trang như ghi chú cuộc họp. Thực chất, nó chứa hướng dẫn cho ChatGPT tìm và trích xuất các khóa API nhạy cảm trong tài khoản Google Drive của nạn nhân.
Thay vì tóm tắt nội dung như người dùng yêu cầu, lời nhắc ẩn này buộc AI gửi các khóa API tìm được tới máy chủ bên ngoài thông qua một liên kết Markdown. Dữ liệu bị trích xuất dưới dạng hình ảnh, cho phép máy chủ ghi lại toàn bộ thông tin.
OpenAI đã xử lý, nhưng rủi ro vẫn tồn tại
Sau khi nhận báo cáo từ Bargury, OpenAI đã nhanh chóng triển khai biện pháp giảm thiểu. Andy Wen, Giám đốc cấp cao phụ trách quản lý sản phẩm bảo mật tại Google Workspace, nhấn mạnh: “Cần phát triển các cơ chế bảo vệ mạnh mẽ trước những cuộc tấn công tiêm mã độc diễn ra nhanh chóng”.
Dù đã được vá, vụ việc cho thấy rõ rủi ro tiềm ẩn khi kết nối các mô hình ngôn ngữ lớn (LLM) với hệ thống bên ngoài. Khi AI được tích hợp ngày càng sâu vào đời sống và công việc, bề mặt tấn công mà tin tặc có thể khai thác cũng mở rộng.
Các chuyên gia cảnh báo, hình thức indirect prompt injection (tiêm mã lệnh nhắc nhở gián tiếp) có thể trở thành mối đe dọa nghiêm trọng, cho phép kẻ tấn công chiếm quyền điều khiển nhiều hệ thống thông minh, từ nhà thông minh đến hạ tầng doanh nghiệp.
Bargury kết luận: “Việc kết nối LLM với nguồn dữ liệu bên ngoài mang lại sức mạnh lớn, nhưng như thường thấy với AI, càng mạnh thì càng rủi ro”.
Theo Dân Trí
You need to login in order to like this post: click here
YOU MIGHT ALSO LIKE