
ШІ від OpenAI відтворює стереотипи: як Sora формує уявлення про стать, расу та вік
Модель штучного інтелекту Sora від OpenAI, призначена для створення відеоконтенту, демонструє сексистські, расистські та ейджистські упередження.
Про це розповіло видання Wired.
Виявлено, що цей штучний інтелект генерує стереотипи, пов’язані з професіями, віковими категоріями, кольором шкіри та стосунками, що вказує на проблеми з навчальними даними. Це може погіршити ситуацію в рекламі та маркетингу, підсилюючи існуючі стереотипи.
У результаті дослідження було встановлено, що Sora часто відображає стереотипні ролі: чоловіки займають “сильні” професії, такі як пілоти, керівники чи лікарі, тоді як жінки зображуються у ролях, які традиційно вважаються “жіночими” — медсестри, бортпровідниці чи виховательки. Водночас жінки на відео майже завжди усміхнені, що може бути наслідком соціальних очікувань щодо жіночої поведінки.
Щодо вікових упереджень, Sora в основному генерує молодих людей віком від 18 до 40 років, з деякими винятками для політичних і релігійних лідерів, які зображуються старшими.
Колір шкіри в зображеннях варіюється, але залишаються стереотипи. Наприклад, політичні лідери можуть бути різних рас, проте професії, як пілот чи професор, зображуються в основному людьми зі світлою шкірою. Також спостерігається надмірне зображення темношкірих людей у стереотипних ролях, наприклад, у сценах бігу.
Sora також генерує зображення людей з ідеальною зовнішністю — стрункими, здоровими і красивими, навіть коли запитують про людей з інвалідністю чи із зайвою вагою. Це вказує на обмежене розуміння фізичної різноманітності.
Щодо стосунків, модель компанії OpenAI показує упередженість, зокрема у відображенні гетеросексуальних і гомосексуальних пар, де білим людям надається перевага. У межах промптів на міжрасові стосунки Sora зазвичай зображує однорасові пари, що свідчить про обмежене сприйняття різноманіття людських відносин.