Thứ Ba, 21 tháng 4, 2026
Lỗ hổng bảo mật

SGLang lộ lỗ hổng bảo mật 9.8/10 - Tin tặc có thể chiếm quyền điều khiển

Ban Biên Tập·20/04/2026·5 phút đọc👁 1 lượt xemCRITICAL
SGLang lộ lỗ hổng bảo mật 9.8/10 - Tin tặc có thể chiếm quyền điều khiển

Lỗ hổng CVE-2026-5760 trong SGLang đạt mức nghiêm trọng gần tuyệt đối với điểm CVSS 9.8/10. Hacker chỉ cần một file GGUF độc hại để thực thi mã từ xa trên hệ thống. Hàng ngàn doanh nghiệp AI có thể đang đối mặt nguy cơ bị tấn công.

Điểm CVSS 9.8 trên thang 10 - con số này đủ khiến bất kỳ chuyên gia bảo mật nào phải "đứng ngồi không yên". SGLang, một trong những framework phục vụ mô hình AI hiệu năng cao được ưa chuộng nhất hiện tại, vừa lộ ra lỗ hổng bảo mật nghiêm trọng có mã định danh CVE-2026-5760. Tin tặc chỉ cần khai thác thành công lỗ hổng này để có thể thực thi mã độc từ xa (RCE - Remote Code Execution) và hoàn toàn kiểm soát hệ thống nạn nhân.

Khi file AI trở thành "con ngựa thành Troy"

Lỗ hổng CVE-2026-5760 thuộc dạng command injection (tiêm lệnh), cho phép kẻ tấn công thực thi các lệnh tùy ý trên hệ thống thông qua file GGUF (GPT-Generated Unified Format) được chế tạo đặc biệt. GGUF là định dạng file được sử dụng rộng rãi để lưu trữ các mô hình ngôn ngữ lớn (LLM). Điều đáng lo ngại là những file này thường được chia sẻ công khai trên các nền tảng như Hugging Face, khiến việc phân phối mã độc trở nên dễ dàng hơn bao giờ hết.

SGLang là một framework mã nguồn mở được thiết kế để phục vụ các mô hình AI với hiệu năng cao, đặc biệt phổ biến trong cộng đồng nghiên cứu và triển khai AI. Chúng tôi nhận định đây không chỉ là một lỗ hổng kỹ thuật đơn thuần, mà còn phản ánh xu hướng nguy hiểm khi các công cụ AI ngày càng trở thành mục tiêu tấn công ưa thích của cybercriminal. Việc kết hợp giữa độ phổ biến cao và mức độ tin cậy của người dùng đối với các file mô hình AI tạo ra môi trường lý tưởng cho các cuộc tấn công kiểu "supply chain".

Cơ chế tấn công tinh vi đáng báo động

Kẻ tấn công có thể nhúng mã độc vào metadata hoặc các trường dữ liệu của file GGUF một cách tinh vi. Khi SGLang xử lý file này, lỗ hổng command injection sẽ được kích hoạt, cho phép thực thi các lệnh hệ thống với quyền của process đang chạy SGLang. Điều này có nghĩa tin tặc có thể cài đặt backdoor, đánh cắp dữ liệu nhạy cảm, hoặc thậm chí sử dụng hệ thống bị xâm nhập làm bàn đạp tấn công các mục tiêu khác trong mạng nội bộ.

Chúng tôi đánh giá phương thức tấn công này đặc biệt nguy hiểm vì tính chất "âm thầm" của nó. Người dùng thường tin tưởng tuyệt đối vào các file mô hình AI, đặc biệt khi chúng được chia sẻ từ các nguồn có vẻ uy tín. Hơn nữa, việc phát hiện mã độc trong file GGUF không hề dễ dàng đối với người dùng thông thường, vì chúng thường có kích thước lớn (hàng GB) và cấu trúc phức tạp. Vector tấn công này cho thấy sự tinh vi ngày càng tăng của các threat actor trong việc khai thác lòng tin của cộng đồng AI.

Tác động lan tỏa khắp hệ sinh thái AI

Với điểm CVSS 9.8, lỗ hổng này được xếp vào hạng "Critical" - mức độ nghiêm trọng cao nhất trong thang đánh giá lỗ hổng bảo mật quốc tế. Hàng ngàn tổ chức đang sử dụng SGLang để triển khai các dịch vụ AI, từ startup công nghệ đến các tập đoàn lớn, đều có thể trở thành mục tiêu. Đặc biệt, các doanh nghiệp Việt Nam đang trong giai đoạn chuyển đổi số mạnh mẽ và tích cực ứng dụng AI vào hoạt động kinh doanh càng cần phải đề cao cảnh giác.

Theo thống kê của Hiệp hội An toàn thông tin Việt Nam, số lượng tấn công mạng nhắm vào doanh nghiệp nước ta đã tăng 35% trong năm qua, với xu hướng tập trung vào các công nghệ mới nổi như AI và cloud computing. Lỗ hổng SGLang có thể trở thành "cửa ngõ" cho các cuộc tấn công có chủ đích (APT) nhắm vào tài sản trí tuệ và dữ liệu nhạy cảm của doanh nghiệp. Chúng tôi dự báo trong những tuần tới, các nhóm hacker sẽ nhanh chóng weaponize lỗ hổng này để tạo ra các chiến dịch tấn công quy mô lớn.

Hành động khẩn cấp để bảo vệ hệ thống

Các doanh nghiệp và tổ chức đang sử dụng SGLang cần thực hiện ngay các biện pháp sau: Thứ nhất, kiểm tra phiên bản SGLang hiện tại và cập nhật lên bản vá bảo mật mới nhất được phát hành bởi nhà phát triển. Thứ hai, tạm thời hạn chế việc load các file GGUF từ nguồn không tin cậy hoặc chưa được kiểm tra kỹ lưỡng. Thứ ba, triển khai monitoring để phát hiện các hoạt động bất thường trong quá trình xử lý mô hình AI.

Chúng tôi khuyến cáo mạnh mẽ việc áp dụng nguyên tắc "zero trust" đối với mọi file mô hình AI, bất kể nguồn gốc. Các tổ chức nên xây dựng quy trình kiểm tra bảo mật chuyên biệt cho file GGUF trước khi đưa vào sử dụng thực tế, bao gồm scan malware chuyên sâu và phân tích sandbox. Đồng thời, cần thiết lập chính sách backup định kỳ và có kế hoạch phục hồi dữ liệu trong trường hợp xấu nhất. Việt Nam đang trên đường trở thành trung tâm AI khu vực, nhưng điều này cũng đồng nghĩa với việc chúng ta sẽ ngày càng trở thành mục tiêu hấp dẫn của các cuộc tấn công mạng tinh vi.

sglangcve-2026-5760rceggufai-security
Chia sẻ: