Google б’є тривогу: Крадії використовують API для копіювання AI-моделей
Зростаюче використання штучного інтелекту (ШІ) призвело до emergence нової загрози – атак на моделі, відомих як «екстракційні атаки» або «атаки дистиляції». Цей феномен, згідно з даними групи розвідки загроз Google, стає все більш підступним для організацій, які інтегрують великі мовні моделі (LLM) у свою діяльність.
Під час таких атак зловмисники використовують свій легальний доступ до LLM, щоб витягувати дані, які можуть бути використані для навчання нових моделей. Це дозволяє зловмисникам швидше та дешевше розробляти власні AI-моделі, продовжуючи порушувати законодавство у сфері інтелектуальної власності. Дистиляція може бути законною, однак її використання без дозволу розглядається як крадіжка інтелектуальної власності.
Згідно з відомостями GTIG, спеціалізовані логіки та специфічне навчання LLM стали цінними цілями для зловмисників. В історичному контексті, щоб вкрасти високотехнологічні можливості, злочинці зазвичай використовували традиційні методи ураження комп’ютерних систем. Однак сьогодні, багато AI-технологій, доступних як послуги, дозволяють зловмисникам користуватися легітимним API-доступом для спроби «клону» інтелектуальних можливостей.
Упродовж 2025 року GTIG разом з Google DeepMind виявили та нейтралізували численні атаки на моделі, які були спрямовані на дослідників та приватні компанії з усього світу. Ризик таких атак існує для розробників моделей та постачальників послуг, але, як зауважувалося, середньостатистичні користувачі в цілому не піддаються цьому ризику, оскільки такі атаки не загрожують конфіденційності і цілісності AI-сервісів.
GTIG рекомендує організаціям, які надають AI-моделі як послугу, уважно моніторити доступ до API на наявність патернів екстракції чи дистиляції. Наприклад, спеціалізовані моделі, налаштовані на фінансову аналітику, можуть стати мішенню для комерційних конкурентів, які прагнуть створити похідний продукт. З аналогічними намірами можуть діяти й інші групи, які хочуть повторити можливості кодового моделювання.
Згідно з квартальним звітом GTIG AI Threat Tracker, зловмисники продовжують інтегрувати AI для підвищення ефективності своїх атак. Серед нових способів використання технології – підтримка розвідки й розвитку цілей, вдосконалення фішингу, а також сприяння розробці нових інструментів. У попередньому звіті GTIG за листопад наголошувалося, що зловмисники почали використовувати AI не лише для підвищення продуктивності, а й для створення інноваційних операцій, що підтримуються ШІ.
Згідно з даними Всесвітнього економічного форуму, 94% опитаних керівників вважають, що ШІ стане мультиплікатором сил у сферах як оборони, так і атаки в кібербезпеці. З іншого боку, звіт PYMNTS Intelligence показав, що 55% головних операційних директорів заявили про впровадження систем автоматизованого управління безпекою даних на основі AI.