Lỗ hổng bảo mật trong Microsoft Copilot: Cảnh báo mới về nguy cơ rò rỉ dữ liệu từ AI

Lỗ hổng bảo mật trong Microsoft Copilot: Cảnh báo mới về nguy cơ rò rỉ dữ liệu từ AI

bởi

trong
Lỗ hổng bảo mật trong Microsoft Copilot: Cảnh báo mới về nguy cơ rò rỉ dữ liệu từ AI

EchoLeak và nguy cơ tiềm ẩn từ trí tuệ nhân tạo

Khi trí tuệ nhân tạo (AI) dần trở thành một phần trong mọi công việc, từ hỗ trợ viết báo cáo, trả lời email đến phân tích dữ liệu, người dùng dường như đang sống trong kỷ nguyên thuận tiện chưa từng có. Nhưng mặt trái của sự tiện lợi cũng bắt đầu lộ rõ, đặc biệt là trong vấn đề bảo mật. 

Một lỗ hổng bảo mật có tên EchoLeak mới đây đã khiến người dùng dịch vụ Microsoft Copilot có nguy cơ bị rò rỉ dữ liệu nhạy cảm mà không cần thực hiện bất kỳ hành động nào.

Khi AI trở thành lỗ hổng bảo mật

Theo tìm hiểu của Tuổi Trẻ Online, EchoLeak là lỗ hổng bảo mật vừa được ghi nhận với mã CVE-2025-32711 được giới chuyên môn đánh giá mức độ nguy hiểm lên tới 9.3/10 theo thang của NIST. 

Điều khiến giới bảo mật lo ngại là nó mang tính chất “zero-click”: kẻ tấn công có thể khai thác dữ liệu từ Copilot mà người dùng không cần nhấp chuột, không mở file, thậm chí không hề biết có sự việc gì đang diễn ra.

Đây không phải là một lỗi đơn giản. Nhóm nghiên cứu Aim Labs, đơn vị phát hiện lỗ hổng, cho rằng EchoLeak phản ánh một dạng khiếm khuyết thiết kế phổ biến trong các hệ thống AI dựa trên RAG (retrieval-augmented generation) và agent. Vì Copilot là một phần trong bộ ứng dụng Microsoft 365 vốn đang nắm giữ email, tài liệu, bảng tính hay lịch họp của hàng triệu người dùng khiến cho nguy cơ rò rỉ dữ liệu trở nên rất nghiêm trọng.

Vấn đề không chỉ nằm ở đoạn mã cụ thể mà ở cách các mô hình ngôn ngữ lớn (LLM) vận hành. AI cần nhiều ngữ cảnh để đưa ra phản hồi chính xác, và vì thế, chúng được cấp quyền truy cập lượng lớn dữ liệu nền. Nếu không có kiểm soát rõ ràng về luồng vào – ra, AI hoàn toàn có thể bị “lái” theo cách mà người dùng không hề hay biết. Điều đó tạo ra một dạng “cửa hậu” mới không phải do lỗ hổng trong mã, mà do AI hành xử ngoài tầm hiểu biết của con người.

Microsoft đã nhanh chóng phát hành bản vá, và hiện chưa ghi nhận tổn thất thực tế. Nhưng bài học từ EchoLeak là rõ ràng: Khi AI được tích hợp sâu vào hệ thống làm việc, chỉ một sai lệch nhỏ trong cách nó hiểu ngữ cảnh cũng có thể dẫn tới những hậu quả lớn về bảo mật.

AI càng tiện, dữ liệu cá nhân càng mong manh

Sự cố EchoLeak đặt ra câu hỏi đáng lo ngại: người dùng có đang quá tin tưởng vào AI mà không nhận ra mình có thể bị theo dõi hoặc lộ thông tin cá nhân chỉ sau một tin nhắn? Lỗ hổng vừa được phát hiện cho phép hacker âm thầm trích xuất dữ liệu mà người dùng không cần nhấn bất kỳ nút nào là điều từng chỉ thấy trong phim viễn tưởng, nay đã trở thành hiện thực.

Trong khi các ứng dụng AI ngày càng phổ biến từ trợ lý ảo như Copilot, chatbot trong ngân hàng, giáo dục, đến các nền tảng AI viết nội dung, xử lý email thì hầu hết người dân không hề được cảnh báo về cách dữ liệu của mình được xử lý và lưu trữ ra sao. 

Việc “trò chuyện” với một hệ thống AI giờ không chỉ là gửi vài câu hỏi cho tiện lợi, mà còn có thể vô tình tiết lộ vị trí, thói quen, cảm xúc, hay thậm chí thông tin tài khoản.

Tại Việt Nam, nhiều người đã quen với việc sử dụng AI trên điện thoại, máy tính mà không có kiến thức cơ bản về an toàn số. Không ít người chia sẻ thông tin riêng tư với AI vì tin rằng “nó chỉ là máy”. Nhưng thực tế, phía sau đó là một hệ thống có thể ghi nhận, học hỏi và truyền tải dữ liệu sang nơi khác, nhất là khi nền tảng AI đến từ bên thứ ba và chưa được kiểm định rõ ràng về bảo mật.

Để hạn chế rủi ro, người dùng không nhất thiết phải từ bỏ công nghệ, nhưng cần có ý thức rõ ràng hơn: nên kiểm tra kỹ ứng dụng AI mình đang dùng có nguồn gốc đáng tin cậy không, dữ liệu có được mã hóa, và đặc biệt là đừng chia sẻ thông tin nhạy cảm như số CMND, tài khoản ngân hàng, thông tin sức khỏe… với bất kỳ hệ thống AI nào nếu chưa được cảnh báo rõ ràng. 

Giống như khi internet mới ra đời, AI cũng cần thời gian để hoàn thiện và trong thời gian đó, người dùng nên là người chủ động bảo vệ mình trước tiên.

Có khi nào bạn chia sẻ quá nhiều với AI?

Khi gõ dòng lệnh “viết lại giúp tôi báo cáo này nhưng nhẹ nhàng hơn” hay “tóm tắt nội dung cuộc họp hôm qua”, nhiều người không nghĩ rằng mọi thông tin mình nhập vào kể cả những chi tiết nội bộ, cảm xúc cá nhân hay thói quen công việc đều có thể bị AI ghi lại. Chúng ta dần quen với việc trò chuyện cùng công cụ thông minh mà quên mất ranh giới giữa tiện lợi và riêng tư.