Irregular залучає 80 мільйонів доларів для забезпечення передових моделей штучного інтелекту
1 min read

Irregular залучає 80 мільйонів доларів для забезпечення передових моделей штучного інтелекту

В середу компанія Irregular, яка спеціалізується на безпеці у сфері штучного інтелекту, оголосила про залучення $80 мільйонів у новому раунді фінансування, очолюваному Sequoia Capital та Redpoint Ventures, з участю генерального директора Wiz Ассафа Раппапорта. За словами джерела, близького до угоди, ця фаза оцінює Irregular у $450 мільйонів.

«На нашу думку, незабаром багато економічної діяльності буде зосереджено на взаємодії людини з AI та взаємодії між AI», — зазначив співзасновник Дан Лахав у коментарі для TechCrunch. «Це призведе до порушень у безпеці на багатьох рівнях».

Раніше відома як Pattern Labs, компанія Irregular вже стала помітним гравцем у сфері оцінки AI. Робота компанії цитувалася в оцінках безпеки для моделей Claude 3.7 Sonnet, а також о3 і o4-mini від OpenAI. Загалом, їхня система оцінювання здатності виявлення вразливостей (названа SOLVE) широко використовується в індустрії.

Хоча Irregular вже провела значну роботу над ризиками існуючих моделей, компанія збирає кошти з метою реалізації ще більш амбіційної мети: виявлення нових ризиків і поведінки, перш ніж вони з’являться у реальному світі. Для цього було створено складну систему симульованих середовищ, що дозволяє проводити детальне тестування моделей перед їх випуском.

«У нас є складні симуляції мереж, де AI виконує роль як атакуючого, так і захисника», — розповідає співзасновник Омер Нево. «Тому, коли виходить нова модель, ми можемо бачити, де захист працює, а де ні».

Безпека стала важливою темою обговорення в індустрії штучного інтелекту, оскільки з’являються нові ризики. Цього літа OpenAI переглянула свої внутрішні заходи безпеки, звернувши увагу на можливу корпоративну шпигунство.

У той же час AI-моделі все більше навчаються знаходити вразливості в програмному забезпеченні — ця здатність має серйозні наслідки як для атакуючих, так і для захисників.

Для засновників Irregular це лише початок численних проблем з безпекою, спричинених зростаючими можливостями великих мовних моделей.

«Якщо мета передового дослідницького лабораторії полягає в створенні все більш складних і потужних моделей, то наша мета — забезпечити безпеку цих моделей», — підсумував Лахав. «Але це постійно змінюваний аспект, тому, звичайно, роботи в цьому напрямку ще багато».