Фінансові операції під загрозою: FINRA виявила прогалини в нагляді на фоні стрімкого зростання генетичної штучної інтелекту
У світлі нещодавніх результатів аналізу, проведеного FINRA, стає очевидним, що використання генеративного штучного інтелекту в фінансових установах супроводжується низкою суттєвих недоліків щодо управління, прозорості і безпеки. Згідно з даними, організації все частіше інтегрують великі мовні моделі у свої бізнес-процеси, однак далеко не завжди враховують ризики, що з цим пов’язані.
Регулятор зазначає, що фінансові компанії активно використовують новітні технології для автоматизації таких функцій, як обслуговування клієнтів, внутрішні дослідження та створення контенту. Хоча багато компаній підкреслюють підвищення ефективності, зауважено, що у багатьох випадках відсутні формальні оцінки ризиків, належна документація або чітка відповідальність, що ускладнює контроль і підзвітність.
Один із ключових висновків стосується проблеми неналежної документації, яка охоплює етапи вибору, налаштування та використання генеративних інструментів. Багато керівників не можуть детально пояснити, які моделі використовуються, яким чином формуються їхні результати, а також чи зберігаються запити та відповіді. Це створює додаткові труднощі в контролі якості та безпеки.
Відзначено також й проблеми із наглядом за змістом, створеним штучним інтелектом. Є випадки, коли компанії використовують ці технології для підготовки комунікацій з клієнтами або маркетингових матеріалів без належної перевірки. Відсутність документованих процедур, які б регламентували необхідність людського контролю, може призвести до публікації недостовірної інформації.
Ще один важливий аспект – надмірна залежність від сторонніх постачальників. FINRA вказала на те, що багато організацій користуються можливостями генеративного штучного інтелекту, інтегрованими у платформи постачальників, часто без глибокого розуміння обробки даних і механіки цих технологій. Це може відкривати додаткові ризики, оскільки зловмисники можуть використовувати довіру до постачальників для атаки на саму компанію.
У зв’язку з даними проблемами, контроль за обробкою даних і безпекою інформації також викликає занепокоєння. FINRA зафіксувала випадки, коли співробітники вводили чутливу інформацію в зовнішні інструменти без достатніх обмежень, що підвищує ризик витоку даних.
Дослідження також наголошує на тому, що структура управління штучним інтелектом у фінансових установах переважно знаходиться на стадії формування. Обов’язки з нагляду за AI під часто розподілені між різними відділами, що ускладнює відповідальність за можливі інциденти. Багато компаній лише починають розробляти політики щодо використання AI, але їх не вистачає для нормального функціонування системи контролю.
Таким чином, незважаючи на обіцяючі можливості генеративного штучного інтелекту, фінансові установи стикаються з численними викликами, які потребують уважного розгляду та систематичного підходу до управління відповідними ризиками.