
Використання Вібрацій”: Злочинці Озброюють Штучний Інтелект За Допомогою Біткоїна, Зазначає Anthropic – Decrypt
Коротко
- Новий звіт від Anthropic показує, як кіберзлочинці застосовують штучний інтелект для ведення кампаній з вимагання, використовуючи біткоїн як засіб оплати.
- Північнокорейські фахівці використовують штучний інтелект, щоб імітувати технічні навички та отримувати роботу у західних IT-компаніях, спрямовуючи мільйони на програми озброєння, часто відмиваючи гроші через криптовалюту.
- Актор з Великобританії продає набори розробки програм-вимагачів на форумах темного вебу, розрахунки здійснюються в криптовалюті.
У середу Anthropic опублікував новий звіт про загрози в кібербезпеці.
У ньому йдеться про те, як зловмисники більше не просто запитують у штучного інтелекту кодерські поради, вони використовують його для здійснення атак в реальному часі, застосовуючи криптовалюту для розрахунків.
Видатний випадок, згаданий у звіті, — це те, що дослідники називають «вимаганням з настроєм». У цій кампанії кіберзлочинець використав Claude Code від Anthropic — асистента з програмування, який працює в терміналі — для проведення масової операції з вимагання, охоплюючи щонайменше 17 організацій, включаючи державні, медичні та релігійні установи.
Замість використання класичних програм-вимагачів, злочинець покладався на Claude для автоматизації розвідки, збору облікових даних, проникнення в мережі та екстракції чутливих даних. Claude не лише надавав поради; він виконував «прямі» дії, такі як сканування VPN-ендпоінтів, написання користувацького шкідливого програмного забезпечення та аналіз викрадених даних, щоб визначити, які жертви здатні заплатити більше.
Потім розпочалася вимагальна кампанія: Claude згенерував індивідуальні HTML-вимоги, адаптовані до кожної організації з фінансовими цифрами, кількістю співробітників та загрозами з боку регуляторів. Суми вимог варіювалися від $75,000 до $500,000 в біткоїнах. Один оператор, армійований штучним інтелектом, мав потужність цілої команди хакерів.
Криптовалюта підживлює злочини з використанням штучного інтелекту
Хоча звіт охоплює різноманітні теми — від державного шпигунства до романтичних шахрайств, спільним є те, що вся ця діяльність обертається навколо грошей, і багато з них проходять через канали криптовалюти. Кампанія «вимагання з настроєм» вимагала виплат до $500,000 у біткоїнах, при цьому вимоги автоматично генерувалися Claude і містили адреси гаманців та специфічні загрози для жертв.
Окремий магазин програм-вимагачів реалізує набори шкідливого програмного забезпечення на форумах темного вебу, де криптовалюта є основною валютою. У глобальному геополітичному контексті північнокорейська шахрайська діяльність із використанням AI приносить мільйони до програма озброєння, часто відмиваючи гроші через криптовалютні канали.
Іншими словами, штучний інтелект масштабує види атак, які вже використовують криптовалюту як для виплат, так і для відмивання, роблячи криптовалюту ще більш тісно пов’язаною з економікою кіберзлочинності.
Схема IT-фахівців з Північної Кореї на основі штучного інтелекту
Ще одне відкриття: Північна Корея глибоко інтегрувала AI у свої стратегії обходу санкцій. IT-фахівці режиму отримують фальшиві віддалені роботи в західних IT-компаніях, імітуючи технічні компетенції за допомогою Claude.
Згідно зі звітом, ці працівники майже повністю залежать від штучного інтелекту у своїй щоденній діяльності. Claude створює резюме, пише супровідні листи, відповідає на запитання під час інтерв’ю в режимі реального часу, налагоджує код і навіть складає професійні електронні листи.
Ця схема приносить прибуток. ФБР оцінює, що ці віддалені працівники виводять сотні мільйонів доларів щорічно до програм озброєнь Північної Кореї. Те, що раніше вимагало років елітного навчання в університетах Пхеньяна, тепер можна імітувати на льоту за допомогою штучного інтелекту.
Програми-вимагачі на продаж: безкодові, на основі AI
Якщо цього було недостатньо, звіт описує актора з Великої Британії (ідентифікованого як GTG-5004), який керує магазином безкодових програм-вимагачів. З допомогою Claude оператор продає набори ransomware-as-a-service (RaaS) на форумах темного вебу, таких як Dread і CryptBB.
За ціною від $400 нові злочинці можуть купити DLL-файли та виконувані файли із застосуванням шифрування ChaCha20. Повний набір із PHP-консоллю, інструментами управління та обходу аналізу коштує $1,200. Ці пакети включають хитрощі, такі як FreshyCalls і RecycledGate, методи, що зазвичай вимагають глибоких знань внутрішньої архітектури Windows для обходу систем виявлення.
Тривожною деталі є те, що продавець, здається, не здатний написати цей код без допомоги штучного інтелекту. Звіт Anthropic підкреслює, що AI стер бар’єри навичок — тепер будь-хто може створити і продавати розвинені програми-вимагачі.
Державні операції: Китай і Північна Корея
У звіті також підкреслюється, як державні актори впроваджують AI у свої операції. Китайська група, що націлена на критичну інфраструктуру В’єтнаму, використовувала Claude у 12 з 14 тактик MITRE ATT&CK — від розвідки до привілейованого ескалації та латерального руху. Цільовими об’єктами були телекомунікаційні провайдери, державні бази даних та сільськогосподарські системи.
Окремо, Anthropic повідомляє, що він автоматично зірвав кампанію північнокорейського шкідливого програмного забезпечення, пов’язану з відомою схемою «Заразлива співбесіда». Автоматизовані заходи безпеки заблокували та заборонили акаунти, перш ніж вони змогли здійснити атаки, змусивши групу відмовитися від своїх намірів.
Ланцюг шахрайства, підживлюваний AI
Окрім резонансних випадків вимагання та шпигунства, звіт описує, як AI тихо підживлює шахрайство в масштабах. Кримінальні форуми пропонують послуги синтетичної ідентичності та магазини карток на основі AI, здатні перевіряти вкрадені кредитні картки по кільком API з надійністю корпоративного рівня.
Навіть існує Telegram-бот, призначений для романтичних шахрайств, де Claude рекламується як «модель з високим EQ» для створення емоційно маніпулятивних повідомлень. Бот підтримує кілька мов і щомісяця обслуговує понад 10,000 користувачів, згідно зі звітом. Штучний інтелект не лише пише зловмисний код — він також складає любовні листи жертвам, які не знають, що їх обманюють.
Чому це важливо
Anthropic розглядає ці викриття як частину своєї більшої стратегії прозорості: продемонструвати, як їхні моделі були неправильно використані, а також надати технічні індикатори партнерам, щоб допомогти більшій екосистемі протистояти зловживанням. Акаунти, пов’язані з цими операціями, були заборонені, а нові класифікатори були розгорнуті для виявлення подібних зловживань.
Проте важливіше те, що штучний інтелект фундаментально змінює економіку кіберзлочинності. Як прямо зазначає звіт, «Традиційні уявлення про співвідношення між складністю актора і складністю атаки більше не справджуються».
Одна особа, маючи правильного AI-помічника, тепер може імітувати роботу цілої команди хакерів. Програми-вимагачі доступні за підпискою SaaS. І ворожі держави впроваджують AI у кампанії шпигунства.
Кіберзлочинність вже була прибутковим бізнесом. За допомогою штучного інтелекту вона стає неймовірно масштабованою.
Розумний інформаційний бюлетень
Щотижневий шлях у світ штучного інтелекту, розповідається генеративною AI моделлю.