Bài viết & Thông báo

Cập nhật bài viết và thông báo mới nhất từ khoa An toàn Thông tin

2 kết quả#LLM

Chạy Gemma 4 26B Cục Bộ với LM Studio 0.4.0 và Kết Nối Claude Code Offlineblogs
#LLM#Agentic AI

Chạy Gemma 4 26B Cục Bộ với LM Studio 0.4.0 và Kết Nối Claude Code Offline

Chạy model ngôn ngữ lớn 26 tỷ tham số trên laptop cá nhân từng là điều không tưởng. Với Gemma 4 26B-A4B và LM Studio 0.4.0, điều đó giờ chỉ cần một lệnh terminal và 48 GB RAM. Bài viết phân tích tại sao kiến trúc Mixture-of-Experts cho phép Gemma 4 đạt Elo 1441 cạnh tranh với các model 400 tỷ tham số, cách daemon headless llmster biến LM Studio thành inference server chạy hoàn toàn không cần GUI, và đặc biệt là cách kết nối Claude Code với Gemma 4 qua endpoint tương thích Anthropic để có môi trường lập trình AI hoàn toàn offline. Kèm theo là phân tích bộ nhớ chi tiết theo từng ngưỡng context window, lý do không nên bật speculative decoding với MoE, và con số thực tế: 51 token mỗi giây cho chat độc lập, giảm còn khoảng 28 khi chạy qua Claude Code.

cyberdump 17 tháng 4, 2026 8
Tấn công Prompt Injection vào các Mô hình Ngôn ngữ Lớnblogs
#Cybersecurity#AI Agent#Agentic AI#Secure AI#Prompt Injection#LLM

Tấn công Prompt Injection vào các Mô hình Ngôn ngữ Lớn

Tấn công Prompt Injection (PI) vào các Mô hình Ngôn ngữ Lớn đã được OWASP xếp hạng là lỗ hổng bảo mật số một (LLM01:2025) trong danh sách OWASP Top 10 cho Ứng dụng LLM năm 2025. Phân tích cho thấy rằng mặc dù các cơ chế phòng thủ hiện tại ngày càng tinh vi, các cuộc tấn công thích ứng (adaptive attacks) vẫn có thể vượt qua hơn 90% các biện pháp phòng thủ được công bố. Điều này phản ánh một nghịch lý kiến trúc cơ bản: LLM không có khả năng phân biệt "dữ liệu" và "lệnh" ở cấp độ cú pháp tất cả đều là văn bản thuần túy.

cyberdump 14 tháng 4, 2026 22