Bài viết & Thông báo

Cập nhật bài viết và thông báo mới nhất từ khoa An toàn Thông tin

5 kết quả#Agentic AI

AI SOC không nằm ở chỗ hiểu alert nhanh hơn, mà ở chỗ xử lý được công việc đến cùngblogs
#Cybersecurity#SOC#SIEM#SOAR#Agentic AI#AI

AI SOC không nằm ở chỗ hiểu alert nhanh hơn, mà ở chỗ xử lý được công việc đến cùng

Nhiều hệ thống AI SOC hiện nay mới chỉ giúp analyst đọc alert nhanh hơn, gom context nhanh hơn và viết tóm tắt đẹp hơn. Giá trị thực chỉ xuất hiện khi AI đi vào workflow, thực hiện được các bước xử lý có kiểm soát, phối hợp được nhiều công cụ, ghi lại đầy đủ dấu vết và chỉ đẩy con người vào các điểm cần phán đoán hoặc phê duyệt.

cyberdump 16 tháng 4, 2026 3
Chạy Gemma 4 26B Cục Bộ với LM Studio 0.4.0 và Kết Nối Claude Code Offlineblogs
#LLM#Agentic AI

Chạy Gemma 4 26B Cục Bộ với LM Studio 0.4.0 và Kết Nối Claude Code Offline

Chạy model ngôn ngữ lớn 26 tỷ tham số trên laptop cá nhân từng là điều không tưởng. Với Gemma 4 26B-A4B và LM Studio 0.4.0, điều đó giờ chỉ cần một lệnh terminal và 48 GB RAM. Bài viết phân tích tại sao kiến trúc Mixture-of-Experts cho phép Gemma 4 đạt Elo 1441 cạnh tranh với các model 400 tỷ tham số, cách daemon headless llmster biến LM Studio thành inference server chạy hoàn toàn không cần GUI, và đặc biệt là cách kết nối Claude Code với Gemma 4 qua endpoint tương thích Anthropic để có môi trường lập trình AI hoàn toàn offline. Kèm theo là phân tích bộ nhớ chi tiết theo từng ngưỡng context window, lý do không nên bật speculative decoding với MoE, và con số thực tế: 51 token mỗi giây cho chat độc lập, giảm còn khoảng 28 khi chạy qua Claude Code.

cyberdump 17 tháng 4, 2026 8
LLM Firewall Lỗi Thời Trước Khi Kịp Ra Đời: Vì Sao Bảo Vệ Chatbot Không Còn Đủ Trong Thế Giới AI Agentblogs
#Cybersecurity#Agentic AI#LLM Firewall#Agent Runtime Security#AI Agent Security#Indirect Prompt Injection#Memory Poisoning#Tool Call Security#Multi Agent Security#Execution Tracing#RAG Integrity#Runtime Guardrails

LLM Firewall Lỗi Thời Trước Khi Kịp Ra Đời: Vì Sao Bảo Vệ Chatbot Không Còn Đủ Trong Thế Giới AI Agent

LLM Firewall không phải là sản phẩm tệ. Nó là sản phẩm đúng cho đúng thời điểm, nhưng thời điểm đó đã qua. Với bất kỳ tổ chức nào đang triển khai AI agent trong môi trường thực tế, câu hỏi không còn là "có nên bảo mật AI không" mà là "công cụ bảo mật mình đang dùng có được thiết kế cho đúng bài toán không".

cyberdump 14 tháng 4, 2026 5
Chuyện Gì Xảy Ra Khi Hệ Thống Trí Tuệ Nhân Tạo Không Có Khóa Cửa?blogs
#Cybersecurity#Honeypot#AI Agent#Agentic AI#MCP#Reconnaissance#Threat Detection#Least Privilege

Chuyện Gì Xảy Ra Khi Hệ Thống Trí Tuệ Nhân Tạo Không Có Khóa Cửa?

Hạ tầng AI đang được triển khai nhanh hơn nhiều so với tốc độ mà cộng đồng bảo mật có thể theo kịp. Các đội ngũ kỹ thuật tập trung vào việc làm cho AI hoạt động, làm cho sản phẩm ra đời nhanh, và phần bảo vệ bị bỏ lại phía sau. Kẻ tấn công nhận ra điều này sớm hơn nhiều người nghĩ. Nếu tổ chức bạn đang dùng MCP trong môi trường thực tế, đây là thời điểm để kiểm tra lại cấu hình. Không phải vì ai đó đang nhắm vào bạn cụ thể, mà vì các scanner tự động không cần nhắm vào ai cụ thể. Chúng quét tất cả, và chúng không nghỉ.

cyberdump 14 tháng 4, 2026 12
Tấn công Prompt Injection vào các Mô hình Ngôn ngữ Lớnblogs
#Cybersecurity#AI Agent#Agentic AI#Secure AI#Prompt Injection#LLM

Tấn công Prompt Injection vào các Mô hình Ngôn ngữ Lớn

Tấn công Prompt Injection (PI) vào các Mô hình Ngôn ngữ Lớn đã được OWASP xếp hạng là lỗ hổng bảo mật số một (LLM01:2025) trong danh sách OWASP Top 10 cho Ứng dụng LLM năm 2025. Phân tích cho thấy rằng mặc dù các cơ chế phòng thủ hiện tại ngày càng tinh vi, các cuộc tấn công thích ứng (adaptive attacks) vẫn có thể vượt qua hơn 90% các biện pháp phòng thủ được công bố. Điều này phản ánh một nghịch lý kiến trúc cơ bản: LLM không có khả năng phân biệt "dữ liệu" và "lệnh" ở cấp độ cú pháp tất cả đều là văn bản thuần túy.

cyberdump 14 tháng 4, 2026 22