OpenAI звинувачують в порушеннях законів ЄС про конфіденційність
За даними італійського регулятора в галузі даних Garante, OpenAI може порушувати європейські закони про конфіденційність своїм чатботом на базі штучного інтелекту.
Про це повідомляє TechCrunch.
Garante повідомив компанію про можливі порушення закону про захист особистих даних.
«Garante звернувся до компанії OpenAI, яка розробляє платформу штучного інтелекту ChatGPT, з приводу скарги на порушення закону про захист особистих даних. OpenAI має 30 днів, щоб надати свої аргументи в захист від заявлених порушень, які були оскаржені», — сказано в повідомленні Garante.
Минулого року OpenAI потрапила під пильний нагляд італійських органів, які висунули претензії щодо дотримання компанією Загального регламенту захисту даних (GDPR). У зв’язку з цим було прийнято рішення тимчасово припинити локальну обробку даних ChatGPT, на якій базувався чатбот. Garante, італійський орган з питань захисту даних, вказав на відсутність правового підґрунтя для збирання та обробки особистих даних з метою навчання алгоритмів, які становлять основу ChatGPT. Орган також звинуватив OpenAI у порушенні низки статей GDPR.
Попри велику кількість можливих порушень, OpenAI вдалося швидко відновити роботу ChatGPT в Італії, виконавши деякі заходи для усунення недоліків. При цьому італійська влада повідомила, що продовжує розслідування можливих недотримань конфіденційності.
Наразі Garante не розкриває, які з можливих порушень були підтверджені на цій стадії. За даними TechCrunch, виявлення недотримань європейського закону може призвести до штрафів до 20 мільйонів євро, або до 4% глобального річного доходу компанії. Крім того, орган з охорони даних може вимагати від OpenAI внести зміни до методів обробки даних.