IBM Виявила Неправильні Контролі в 97% Випадків Порушення Безпеки Даних, Пов’язаних з Штучним Інтелектом
1 min read

IBM Виявила Неправильні Контролі в 97% Випадків Порушення Безпеки Даних, Пов’язаних з Штучним Інтелектом

Дослідження, проведене компанією IBM, виявило істотну прогалину в контролі за штучним інтелектом серед організацій, які зазнали витоків даних.

«Подумайте про це: вражаючі 97% компаній, що зазнали витоків даних через інциденти з AI, заявили, що у них відсутні належні контролі доступу до штучного інтелекту», — зазначила компанія, представляючи результати свого звіту про витрати на витоки даних.

Крім того, 63% опитаних організацій повідомили, що у них немає політик управління штучним інтелектом, які б регулювали використання “хмарного AI” — неперевірених AI-інструментів, які використовують працівники, заявила IBM. Ці дані були опубліковані наприкінці липня та підкреслені в звіті CPO Magazine у серпні.

«Ця прогалина в контролі за штучним інтелектом несе значні фінансові та операційні витрати», — додала компанія у своєму оголошенні. «Звіт показує, що високий рівень використання “тіньового AI”, при якому працівники завантажують або використовують неперевірені AI-інструменти, додав 670 000 доларів до середньої вартості витоку по світу.»

Крім того, витоки даних, пов’язані зі штучним інтелектом, викликають „широке порушення даних та операцій“, що може перешкоджати організаціям в обробці замовлень, наданні обслуговування клієнтів та управлінні ланцюгами постачань.

Звіт також містить позитивні новини: середні світові витрати на витоки даних впали вперше за п’ять років — з 4.88 мільйона до 4.44 мільйона доларів, що становить зниження на 9%.

«Причина? Швидше реагування на витоки завдяки захисту на основі AI», — зазначила компанія, стверджуючи, що організації змогли ідентифікувати та зупинити витік даних за середній час 241 день — найнижчий показник за останні дев’ять років.

Дослідження PYMNTS Intelligence виявило, що все більше компаній впроваджують AI-інструменти для захисту кібербезпеки.

Частка керівників операцій (COOs), які зазначили, що їхні компанії впровадили такі заходи, становила 55% у серпні минулого року — порівняно з 17% у травні.

Ці COOs, як повідомляв PYMNTS раніше цього року, «переходять до проактивних структур на основі AI — і відходять від реактивних підходів до безпеки — оскільки нові системи, основані на штучному інтелекті, можуть ідентифікувати шахрайські дії, виявляти аномалії та забезпечувати оцінки загроз у реальному часі.»

Нещодавнє дослідження PYMNTS також вивчило використання агентного AI в зусиллях кібербезпеки та ризики, пов’язані з цим.

Ці системи, за визначенням, працюють незалежно, що вводить нові виклики для управління та виконання норм. Хто буде відповідати, якщо AI помилково заблокує критично важливу систему? Що буде, якщо AI не зможе виявити витік?

«Це не технічне оновлення; це революція в управлінні», — сказала Кетрін Маккол, керівник юридичного та комплаєнс-відділів у компанії Trustly у червні в інтерв’ю PYMNTS.