Росія використовує ШІ для генерації голосу, щоб дезінформувати Європу
Згідно з останнім звітом компанії Recorded Future, російська кампанія дезінформації “Операція Undercut” використовувала штучний інтелект для створення підроблених новинних відео. У них було згенеровано голоси, які, включали технології стартапу ElevenLabs. Кампанія мала на меті підірвати підтримку України в Європі.
Як працювала кампанія
Фейкові відео, орієнтовані на європейську аудиторію, пропагували меседжі про корумпованість українських політиків, неефективність військової допомоги Україні та сумнівність технічних характеристик американських танків Abrams. Завдяки використанню інструментам ШІ для генерації голосу ці ролики виглядали досить переконливими.
Дослідники Recorded Future зазначили, що голоси, згенеровані штучним інтелектом, звучали без акценту, говорили кількома європейськими мовами, і це контрастувало з роликами, де людські голоси мали помітний російський акцент.
Recorded Future припускає, що серед інструментів, використаних у кампанії, була технологія ElevenLabs. Це підтвердило тестування аудіо на класифікаторі мовлення, розробленому самою компанією ElevenLabs. Стартап не надав коментарів щодо звинувачень.
Технології ШІ також дозволили швидко перекладати відео на кілька європейських мов, включаючи турецьку, що значно розширило охоплення кампанії.
Кампанія “Операція Undercut” була пов’язана з російською організацією Social Design Agency. Її звинувачують у керуванні мережею підроблених новинних сайтів і поширенні оманливого контенту від імені російського уряду. У березні 2024 року США запровадили проти цієї організації санкції.