Приховані фільтри OpenAI: що “лякає” штучний інтелект ChatGPT
Популярний AI-помічник від компанії OpenAI демонструє нестандартну поведінку при взаємодії з певними антропонімами.
Технологічне видання ARSTechnica висуває припущення про запровадження жорстких фільтраційних механізмів. Вони спричинені попередніми інцидентами генерації неправдоподібного контенту про реальних персоналій.
Нещодавно користувачі виявили специфічну особливість: штучний інтелект раптово перериває діалог при появі конкретних іменувань. Зокрема, спостерігалося блокування на прізвищі David Mayer, що викликало низку спекулятивних припущень у мережевій спільноті Reddit. Хоча в первісних версіях натякали на зв’язок з родиною Ротшильдів, офіційних підтверджень цьому не існує.
Окрім зазначеного випадку, чат-бот ChatGPT демонструє аналогічну реакцію на імена Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber та Guido Scorza. Причини такої поведінки приховують глибший контекст: раніше ChatGPT генерував відверто неправдиві наративи про цих людей.
Найяскравіші приклади дезінформації включають хибні твердження про Браяна Гуда як корупціонера (насправді він викривач порушень) та вигадану сексуальну інтригу навколо професора Джонатана Терлі.
Подібна практика створює подвійний негативний ефект: легітимні користувачі втрачають можливість повноцінної комунікації, водночас як потенційні зловмисники отримують інструмент для навмисної деструкції роботи системи.