ChatGPT став інструментом для викрадення даних: у чому полягає нова вразливість
Дослідник у сфері кібербезпеки Йоганн Рейбергер виявив вразливість у чат-боті ChatGPT, яка дозволяє зловмисникам вводити хибну інформацію в пам’ять чат-бота через шкідливі запити. Це може становити загрозу для конфіденційності користувацьких даних.
Про це повідомляє Embrace The Red.
ChatGPT використовує довготривалу пам’ять, щоб зберігати інформацію про користувачів, включаючи вік, стать та вподобання, що робить взаємодію з ботом зручнішою. Однак Рейбергер встановив, що хакери можуть використовувати спеціальні запити для зміни цих даних на неправдиві.
Дослідник продемонстрував, як за допомогою непрямих ін’єкцій — наприклад, через документи або посилання — можна змусити ШІ сприйняти, що користувач мешкає в “Матриці” або вірить у пласку Землю. Подальші діалоги базуватимуться на цих підроблених даних. Особливу небезпеку становить використання зовнішніх сховищ, таких як Google Диск або OneDrive.
Спочатку цей факт залишили без уваги
У травні Рейбергер повідомив про проблему OpenAI, але його запит спочатку залишили без належної уваги. Згодом він надав приклади атак і продемонстрував, як шкідливі посилання можуть дозволити зловмисникам отримати доступ до всіх бесід користувача, включаючи нові сеанси.
OpenAI частково усунули цю вразливість, але дослідник вважає, що ризик шкідливих ін’єкцій все ще існує. Користувачам радять слідкувати за моментами додавання нової інформації в пам’ять ШІ та перевіряти її на наявність помилкових даних.
OpenAI також випустила інструкцію щодо управління функцією пам’яті, щоб допомогти користувачам захищати свої дані.