Технології

ChatGPT навчився красти дані користувачів: як це працює

Експерт із кібербезпеки виявив уразливість у ChatGPT, яка дає змогу зловмисникам впроваджувати неправдиві дані в пам’ять ШІ через шкідливі запити, що може загрожувати безпеці персональних даних.

Дослідник у галузі кібербезпеки Йоганн Рейбергер виявив уразливість у ChatGPT, яка дає змогу зловмисникам впроваджувати неправдиву інформацію в пам’ять чат-бота за допомогою шкідливих запитів. Ця проблема може загрожувати конфіденційності даних користувачів.

ChatGPT використовує довготривалу пам’ять для зберігання інформації про користувача, включно з віком, статтю та особистими уподобаннями. Це спрощує спілкування, оскільки чат-бот пам’ятає важливі дані з попередніх розмов. Однак Рейбергер з’ясував, що зловмисники можуть використовувати спеціальні запити, щоб підмінити ці дані на неправдиві.

Дослідник продемонстрував, як через непрямі ін’єкції – наприклад, за допомогою документів або посилань – можна змусити ШІ повірити, що користувач живе в “Матриці” або вважає Землю плоскою. Усі подальші діалоги будуть засновані на цих фальшивих даних. Особливо небезпечним стало використання зовнішніх файлових сховищ, таких як Google Диск або OneDrive.

У травні Рейбергер повідомив про цю проблему в OpenAI, але його звернення закрили, не надавши їй великого значення. Пізніше, надавши модель злому, він показав, як шкідливі посилання дають змогу хакеру отримати доступ до всього листування користувача, включно з новими сеансами спілкування.

OpenAI частково усунула вразливість, але дослідник вважає, що ризик ін’єкцій через шкідливі запити все ще існує. Користувачам рекомендується стежити за часом додавання нової інформації в пам’ять ШІ і перевіряти її на предмет помилкових даних.

OpenAI також випустила інструкцію з управління функцією пам’яті, щоб допомогти користувачам захистити свої дані.


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Back to top button