
OpenAI Виправила Недолік, Який Загрожував Даним Gmail
OpenAI, за повідомленнями, виправила вразливість у безпеці ChatGPT, що могла поставити під загрозу дані електронної пошти користувачів.
Згідно з інформацією Bloomberg News, дослідники з кіберкомпанії Radware виявили цю проблему. Вразливість була виявлена в DeepResearch — агенті ChatGPT, який був запроваджений у лютому для допомоги користувачам у аналізі великих обсягів інформації. Ця недолік давала можливість хакерам викрадати чутливі дані з корпоративних або особистих акаунтів Gmail.
Radware виявила цю вразливість, і дослідники повідомили, що немає жодних ознак того, що нападники її використали. OpenAI повідомила Radware, що виправлення було внесене 3 вересня.
Представник OpenAI наголосив, що безпека моделей компанії є важливою, і вони постійно вдосконалюють стандарти для захисту від таких атак. «Дослідники часто перевіряють ці системи в умовах супротиву, і ми вітаємо їхні дослідження, оскільки це допомагає нам вдосконалюватися», — сказав представник.
У звітi зазначено, що хоча хакери використовували інструменти штучного інтелекту для проведення атак, виявлення Radware є відносно рідкісним прикладом того, як самі AI-агенти можуть бути використані для викрадення інформації клієнтів.
Паскаль Гіененс, директор із дослідження загроз у Radware, повідомив, що цільові особи не повинні були навіть нічого натискати, щоб хакери могли викрасти їхні дані. «Якщо б корпоративний акаунт був скомпрометований, компанія навіть не дізналася б, що інформація вийшла», — сказав він.
Раніше цього року Google оголосила, що розробляє автономні системи, які можуть виявляти та реагувати на загрози в режимі реального часу — у багатьох випадках без участі людей. «Наш AI-агент Big Sleep допоміг нам виявити та запобігти неминучому витоку», — написав Сундар Пічаї, гендиректор компанії, у пості на соціальній платформі X. «Ми вважаємо, що це перший випадок для AI-агента — але точно не останній — що дає захисникам кібербезпеки нові інструменти для зупинки загроз до того, як вони поширяться».
Як зазначали в PYMNTS невдовзі після цього, ця нова реальність може поставити нові запитання перед керівниками бізнесу, зокрема головними директорами з інформаційної безпеки (CISO) та головними фінансовими директорами (CFO).
«Чи готові корпоративні організації до захисту на швидкості машини? Яка вартість відмови від цих інструментів? Хто відповідає, коли системи AI приймають рішення?»
Для CISO це означає появу нового класу інструментів, які є платформами профілактики загроз на основі AI, що не чекають на сигнали, а шукають слабкі місця в коді, конфігураціях чи поведінці та автоматично вживають заходів.
«Для CFO це сигналізує про зміну в економіці кібербезпеки», — додали в PYMNTS. «Профілактика в таких масштабах потенційно є дешевшою та масштабованішою, ніж моделі з участю людей з минулого. Але це можливо лише за умови, що AI є точним і підзвітним».