Дослідження Оксфорда: Які глобальні стандарти безпеки необхідні для штучного інтелекту?
1 min read

Дослідження Оксфорда: Які глобальні стандарти безпеки необхідні для штучного інтелекту?

Дослідження, проведене Оксфордською ініціативою з управління штучним інтелектом, ставить під сумнів необхідність створення абсолютно нової системи регулювання для штучного інтелекту. Натомість автори стверджують, що усіма відомими засобами безпеки та стандартами ризиків можна скористатися для вдосконалення вже існуючих підходів, використовуваних у таких сферах, як авіація, енергетика та фінанси.

Документ досліджує, як новітні безпечні фрейми для “фронтального” штучного інтелекту, розроблені провідними лабораторіями, відповідають та відрізняються від міжнародних стандартів, таких як ISO 31000 та ISO/IEC 23894. Висновок простий: найбільш ефективним підходом є не скасування, а адаптація та розширення наявних стандартів.

Автори підкреслюють, що питання полягає не в тому, чи потрібно регулювати штучний інтелект, а в тому, як існуючі системи можуть еволюціонувати, щоб управляти технологіями, що розвиваються з неймовірною швидкістю.

Об’єднання двох світів

Аналіз Оксфорда виявляє існування двох паралельних підходів. Дослідники описують так звані фрейми безпеки фронтального штучного інтелекту (FSF), які є внутрішніми політиками розробників, такими як OpenAI, Anthropic та Google DeepMind, призначеними для управління ризиками, пов’язаними з моделями. Ці фрейми включають механізми оцінки моделей, звітність про інциденти та пороги можливостей, які вказують, коли система набуває статусу, що вимагає додаткової уваги.

Хоча ці фрейми гнучкі та оперативні, їх межі можуть значно відрізнятися, адже більшість з них розроблені для конкретних організацій, а не як загальноіндустріальні стандарти. Водночас міжнародні стандарти безпеки мають багаторічну історію у регульованих галузях, зосереджуючи увагу на безперервному вдосконаленні, чіткому визначенні ролей, простежуваності та управлінських процесах.

Оскільки традиційні стандарти не призначені для швидко розвиваючихся самонавчаючих технологій, Оксфордське дослідження пропонує, що обидва підходи можуть вирішити недоліки один одного. Фрейми фронтального штучного інтелекту пропонують швидкість, а встановлені стандарти забезпечують дисципліну та можливість порівняння. Таким чином, модель управління, що поєднує обидва ці концепти, буде краще пристосована для забезпечення інноваційного балансу з відповідальністю.

Створення спільної мови ризику

Дослідження Оксфорда передбачає інтеграцію порогових значень у структуровані процеси, які вже відомі командам з дотримання стандартів: виявлення, аналіз, оцінка та управління ризиками. Коли модель перетинає певний поріг, наприклад, демонструючи несподівані розумові здібності, це має автоматично ініціювати формальну перевірку, документацію та план пом’якшення ризиків.

Таке дотримання процедур забезпечить більшу прозорість надзорним органам і страховим компаніям. Воно також допоможе уточнити, як організації визначають ризики та коли втручання є необхідним.

Ідея створення “спільної мови ризику” є суттєвою для масштабування управління штучним інтелектом. Без такої узгодженості держави та розробники продовжать говорити на різних мовах, що заважатиме ефективному вирішенню спільних проблем.

Втілення в життя

Дослідження підкреслює, що цей процес – це практична еволюція, а не теоретична дискусія. Мета полягає у перетворенні управління штучним інтелектом на функціональну, вимірювальну і сумісну з існуючими інститутами практику. Автори вважають, що безпекові фрейми не мають покладатися виключно на саморегулювання компаній, але мають бути підлягати перевірці згідно з процесами, визнаними міжнародними стандартами.

Таке бачення відображає зміщення в підході від тривожних наративів, що оточують фронтальні моделі. Замість того, щоб зосереджуватися на екзистенційних ризиках, дослідники Оксфорда акцентують на інструментах, які вже існують для роботи з високими ризиками, від реєстрів ризиків до сторонніх перевірок і сертифікаційних програм.

Висновки цього дослідження гармонійно вписуються у ширше прагнення до кодифікації управління штучним інтелектом шляхом стандартизації, а не випадкових правил. Наприклад, Європейський акт про штучний інтелект покладеться на узгоджені стандарти для забезпечення відповідності, перетворюючи абстрактні юридичні вимоги на вимірювальні технічні практики. В США, Ніст розробив Рамку управління ризиками в штучному інтелекті, яка може служити добровільним планом для організацій у оцінці та зниженні ризиків у всьому життєвому циклі штучного інтелекту.