
Коли Генеральні Директори Дозволяють Штучному Інтелекту Керувати — Відважні, Сміливі та Дивовижні Рішення у Фінансових Технологіях AI
Ласкаво просимо до “Тижневика”, де ми обмінюємо баланси на сміх і відпускаємо контроль — в переносному сенсі, звичайно — на диких територіях штучного інтелекту у фінансах. Цього тижня ми розглянемо, як топ-менеджери використовують штучний інтелект — від дійсно розумних рішень до просто дивних — з акцентом на банківському секторі, платежах, фінансових технологіях та цифровій економіці.
Ера AI-аватарів: Коли бос стає цифровим
Почнемо з гучного випадку Klarna, шведської фінансової технології, яка стала прикладом для експериментів з AI-середовищем управління. У ході, який міг би походити з науково-фантастичного сценарію, генеральний директор Klarna Себастіан Сіміятковський нещодавно представив свого власного AI-дублера для фінансових зустрічей — одягнене в коричневе піджак і з майже ідеальною цифровою копією свого голосу. Аватар без емоцій повідомив результати компанії за перший квартал (буквально — без моргання), в той час як реальний Сіміятковський взяв участь у сесії запитань і відповідей. А найцікавіше? Він так полюбив свого аватара, що має намір використовувати його у майбутніх презентаціях.
Але Klarna на цьому не зупинилася. Компанія також запустила “гарячу лінію CEO на базі AI”, яка дозволяє клієнтам спілкуватися безпосередньо з цифровою версією Сіміятковського. Уявіть, як ви телефонуєте до служби підтримки і отримуєте на лінії генерального директора — умовно кажучи. AI-CEO слухає, відповідає в реальному часі та навіть підсумовує відгуки для продуктових команд. Це розумний, хоча й трохи лякаючий, спосіб отримання думок користувачів, і він вже працює в США та Швеції. Єдине запитання: чи варто нам пишатися чи лякатися, коли голос начальника насправді є ботом?
AI в електронній пошті: Добре, Погано і ‘Чи справді я це надіслав?’
У світі корпоративних комунікацій AI залишає свій слід, ставши ідеальним призначеним автором. Нещодавно в Гарвардському бізнес-огляді підкреслили ризики використання AI гендиректорами для підготовки повідомлень, зазначивши, що коли люди підозрюють, що електронний лист створений штучним інтелектом, вони схильні оцінювати його як менш корисний — навіть якщо його насправді написав чоловік. Тим не менш, привабливість AI-помічників електронної пошти безсумнівна. Інструменти, як-от Superhuman, дозволяють керівникам швидко створювати, надсилати та відстежувати електронні листи, заощаджуючи години на важливу роботу. Найкраща частина? Керівники можуть викладати свої думки у вигляді буллет-пунктів, дозволяти AI перетворювати їх у наратив та додавати особисту ноту перед відправленням.
Але, як і з будь-якою новою технологією, тут є можливість для помилок. Уявіть, що генеральний директор випадково надсилає пропозицію в коді Python замість звичайної англійської — або, ще гірше, той, чий AI-помічник складає юридично обов’язкову пропозицію з помилкою. Хоча ці сценарії ще не з’явилися у заголовках новин банківської сфери, в інших галузях вже траплялися випадки, коли AI-чат-боти лаялися на клієнтів, вигадували неіснуючі політики і навіть створювали власні мови, залишаючи без контролю. Це нагадує, що, незважаючи на всю свою потужність, штучний інтелект все ще потребує людської підтримки.
Смішна сторона AI: Коли технології помиляються (або стають дивними)
Жодна розмова про AI на управлінському рівні не буде повною без згадки про її легшу сторону. Візьмемо випадок з системою верифікації особи на основі AI, яка нібито відхилила водійське посвідчення користувача — вісім разів — незважаючи на різні фотографії і сканування. Тільки після втручання людини (і надання користувачем усіх можливих форм ідентифікації) проблема була вирішена. А жарти? Нерішучість AI перетворила працівників на “безсилих прислужників”, що чекали, поки алгоритм ухвалить остаточне рішення.
Далі йде цікава історія про чат-бота Air Canada, що обіцяв клієнту знижку на похорон, якої не існувало — помилка, що призвела до розслідування з боку регуляторів. Урок? Навіть найсучасніший штучний інтелект може помилятися, особливо коли залишити його на розсуд інтерпретацій складних політик без нагляду.
Не будемо забувати про випадок, коли чат-бот компанії доставки, спровокований користувачами, почав лаятися на клієнтів. Інцидент став вірусною сенсацією і уроком про важливість контролю в AI-розмовних інструментах.
Найефективніші застосування: Де AI розкривається
Попри усмішки, AI також приносить серйозні результати. Наприклад, American Express використовує моделі глибокого навчання для аналізу мільярдів транзакцій, виявлення шахрайства в реальному часі та надання персоналізованих пропозицій клієнтам. Результат? Вищі показники виявлення шахрайства, менше помилкових спрацювань та маркетингові кампанії з покращеною віддачею на інвестиції.
Klarna, незважаючи на останнє повернення до людської підтримки, досягла значного зростання ефективності завдяки AI. Чат-бот компанії обслуговував 2,3 мільйона розмов за один місяць — еквівалентно роботі 700 повноцінних агентів — і зменшив середній час вирішення проблеми з 12 хвилин до менше ніж двох. Дохід на кожного працівника зріс, а Klarna зекономила кошти, замінивши понад 1200 зовнішніх постачальників послуг на свою власну AI-потужну платформу.
Висновок: AI — це інструмент, а не іграшка
У міру того, як керівники продовжують експериментувати з AI — чи то у вигляді аватарів, призначених авторів або представників служби підтримки — межа між інноваціями та іграшками стає все більш розмитою. Найефективніші застосування поєднують швидкість і масштаб AI з людським судженням і співчуттям. Найсмішніші? Такі історії ми розповідатимемо на конференціях протягом багатьох років.
Тож піднімемо тост за генеральних директорів, які не бояться дати AI вийти на сцену — тільки не забувайте про людину в команді, якщо хочете, щоб ваш наступний фінансовий звіт запам’ятався не зусиллями.