Дослідники знайшли серйозні баги в AI-фреймворках🔎

Дослідники виявили серйозні вразливості в AI-фреймворках від Meta, Nvidia та Microsoft, які дозволяють виконувати довільний код. За даними The Hacker News від 14 листопада баги в Meta Llama, Nvidia Triton Inference Server та Microsoft ONNX Runtime дозволяють зловмисникам обійти захист та виконувати шкідливий код на серверах. Атаки зафіксовані в реальних сценаріях, де хакери використовують ці фреймворки для крадіжки даних з AI-моделей. Вразливості, класифіковані як критичні, вимагають взаємодії користувача, але можуть призвести до повного контролю над системою. Експерти зазначають, що це частина хвилі атак на AI-інфраструктуру, де баги експлуатуються для data poisoning чи шпигунства.

Тренд 2025: атаки на AI зросли на 50% через зростання використання моделей в бізнесі. Рекомендації: оновіть фреймворки до останніх версій; впровадіть sandbox для тестування моделей (як Docker); моніторте трафік на аномалії за допомогою інструментів як Splunk; уникайте запуску невідомих моделей без перевірки. Для розробників: використовуйте інструменти як Adversarial Robustness Toolbox для тестування. Якщо система заражена, ізолюйте її та скануйте антивірусами (як ESET). Компанії радять впровадити Zero Trust для AI-серверів. Це нагадує про ризики відкритих фреймворків, де 30% атак починаються з них. Загалом, це підкреслює потребу в швидких патчах для захисту AI-екосистеми, з акцентом на співпрацю між вендорами.