Anthropic та OpenAI змінюють підхід до ШІ
1 min read

Anthropic та OpenAI змінюють підхід до ШІ

Компанія Anthropic видалила зі свого веб-сайту частину добровільних зобов’язань щодо безпечного розвитку ШІ, які вона взяла на за часів каденції Байдена у 2023 році. Подібні зміни в публічній політиці помічені й в інших великих гравців ринку ШІ, зокрема в OpenAI.

Компанії переглядають свої зобов’язання

Зміни у розділі прозорості компанії Anthropic помітила організація The Midas Project, що стежить за розвитком штучного інтелекту. Зокрема, компанія видалила обіцянки ділитися інформацією про управління ризиками ШІ між галуззю та урядом. Крім того зникла згадка про намір досліджувати упередженість та дискримінацію в алгоритмах ШІ. При цьому інші зобов’язання, зокрема ті, що стосуються запобігання сексуальному насильству за допомогою ШІ, залишилися.

Anthropic не коментувала ці зміни. Однак через кілька годин після їх публічного розголосу заявила, що компанія все ще дотримується зобов’язань Байдена і додасть до сайту новий розділ для уточнення позиції.

Ще в липні 2023 року адміністрація Байдена досягла угоди з ключовими компаніями у сфері штучного інтелекту. Вони погодилися проводити внутрішнє та зовнішнє тестування систем ШІ перед їх запуском. А також зголосилися інвестувати в кібербезпеку для захисту даних та позначати водяними знаками контент, створений штучним інтелектом.

Проте з приходом адміністрації Трампа політика щодо штучного інтелекту почала змінюватися. У січні 2025 року Трамп скасував виконавчий наказ Байдена, який зобов’язував Національний інститут стандартів і технологій розробити правила для виявлення проблем в алгоритмах ШІ.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *