Штучний інтелект схильний до упередженого ставлення
1 min read

Штучний інтелект схильний до упередженого ставлення

Віртуальні помічники, такі як Alexa від Amazon і Siri від Apple, створені для того, щоб шукати інформацію, пропонувати щось нове, підтримувати розмову та навіть демонструвати співчуття. Однак останні дослідження показали, що штучний інтелект схильний до невірних інтерпретацій та упередженого ставлення.

Віртуальні помічники працюють на базі великих мовних моделей (LLM), які поглинають величезну кількість даних, створених людиною. Саме тому вони демонструють ті ж упередження, що й люди, котрі їх навчали.

Дослідники з Корнельського університету, Олінського коледжу та Стенфордського університету вирішили перевірити цю теорію. Вони змусили віртуального помічника проявити співчуття у розмові з 65 різними людьми. В ході експерименту виявилося, що віртуальний помічник на базі ШІ здатен відповідати на запит на основі своєї підготовки, але не може розуміти його глибше. Також він виносить ціннісне судження щодо певних ідентичностей та може підтримувати групи пов’язані зі шкідливими ідеологіями. 

Андреа Куадра, докторант Стенфордського університету, вважає, що автоматизована емпатія може бути корисною для ментального здоров’я користувача. Однак важливо, мати інструменти для мінімізації шкоди, яку може завдати штучний інтелект, критично висловлюючись про важливі аспекти. 

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *