OpenAI оголошує конкурс на посаду директора з безпеки штучного інтелекту: чи здатна організація запобігти технологічним катастрофам?
1 min read

OpenAI оголошує конкурс на посаду директора з безпеки штучного інтелекту: чи здатна організація запобігти технологічним катастрофам?

OpenAI оголосила про створення нової посади «Голови підготовки», яка стане відповідальною за управління ризиками, що виникають у сфері штучного інтелекту, зокрема в контексті безпеки комп’ютерних систем та психічного здоров’я. Цей крок є реакцією компанії на зростаючі виклики, пов’язані з розвитком нових технологій. Генеральний директор OpenAI Сем Альтман зазначив, що з розвитком моделей штучного інтелекту зросла й їхня здатність виявляти критичні уразливості в системах безпеки.

Він підкреслив, що потенційний вплив таких моделей на психічне здоров’я став зрозумілим ще у 2025 році. Наразі OpenAI активно готує свою стратегію для уникнення серйозних ризиків, які можуть загрожувати як фізичній, так і психологічній безпеці. Виклик, який постає перед компанією, полягає у необхідності адаптуватися до нових умов, де штучний інтелект може використовуватися як в конструктивних, так і в деструктивних цілях.

У своєму оголошенні Альтман уточнив, що нова роль передбачає формування структур, здатних пояснити підхід OpenAI до подолання загроз, які виникають унаслідок використання передових технологій. У 2023 році компанія вже створила команду з підготовки, що займалася вивченням потенційних катастрофічних ризиків — від загроз, пов’язаних з фішингом, до більш абстрактних питань, таких як ядерні атаки.

За інформацією, оприлюдненою виданням TechCrunch, попередній керівник цієї команди, Олександр Мадрі, був переведений на іншу посаду, пов’язану з розробкою AI-логіки, в той час як інші спеціалісти з безпеки залишили компанію. Це свідчить про те, що внутрішня структура OpenAI продовжує еволюціонувати, аби адаптуватися до швидкого розвитку технологій. Не так давно компанія також підкреслила необхідність впровадження нових заходів безпеки для своїх AI-моделей, враховуючи ризики, пов’язані з їх застосуванням.

Зазначається, що прогрес в AI-моделях вже помітний. Наприклад, показники участі в навчальних змаганнях з «захоплення прапора» зросли з 27% у серпні до 76% у листопаді. OpenAI продовжує очікувати, що нові моделі, які з’являться в майбутньому, будуть здатні досягати високих рівнів безпеки, вимірюючи їх відповідно до власної структури підготовки.

Ситуація з безпекою в сфері штучного інтелекту показує, що AI стає не тільки інструментом, але й мішенню для кіберзагроз. Багато керівників продуктів погоджуються, що генетивні AI-технології потребують людського контролю для забезпечення адекватних заходів безпеки. Крім того, OpenAI запровадила нові батьківські контролі та анонсувала систему автоматичного визначення віку користувачів, реагуючи на критику та юридичні позови, спричинені трагічними випадками, пов’язаними зі зловживанням технологіями.