Нова скарга щодо порушення правил захисту даних проти ChatGPT демонструє серйозність проблеми галюцинацій штучного інтелекту, оскільки система згенерувала абсолютно неправдиву інформацію про норвезького громадянина, звинувативши його у вбивстві власних дітей.

Від неточностей до серйозних звинувачень
Організація захисту приватності Noyb підтримала скаргу від норвезького громадянина Арве Хьялмара Холмена, який виявив, що ChatGPT видає шокуючу та цілком вигадану інформацію про нього. У відповідь на запит про цю особу, система штучного інтелекту OpenAI неправдиво стверджувала, що він був засуджений за вбивство двох своїх дітей і замах на вбивство третього.
Раніше проблеми з неточністю персональних даних у генеративних ШІ-системах зазвичай обмежувалися відносно незначними помилками, такими як неправильні дати народження або неточні біографічні деталі. Ця нова скарга підкреслює потенційну шкоду, яку можуть завдати системи ШІ, коли вони “галюцинують” неправдиву інформацію серйозного характеру про реальних людей.
Нормативні вимоги GDPR щодо точності даних
Однією з ключових проблем, на яку вказує Noyb, є відсутність у OpenAI механізму, який дозволив би людям виправляти фальшиву інформацію, що генерується про них. Замість цього компанія зазвичай пропонує просто блокувати відповіді на подібні запити.
Загальний регламент захисту даних ЄС (GDPR) надає європейцям чіткі права щодо їхніх персональних даних, включаючи право на виправлення неточної інформації. Порушення цих правил може призвести до значних штрафів – до 4% світового річного обороту компанії.
Регуляторні відповіді та попередні втручання
Європейські регулятори з питань захисту даних вже мали прецеденти втручання в роботу ChatGPT. Навесні 2023 року італійський наглядовий орган із захисту даних тимчасово заблокував доступ до сервісу в країні, що змусило OpenAI внести зміни до своєї політики. Пізніше компанія була оштрафована на 15 мільйонів євро за обробку даних без належних правових підстав.
Однак з того часу спостерігається певна обережність з боку європейських регуляторів щодо генеративного ШІ. Комісія із захисту даних Ірландії, яка має провідну роль у розгляді попередніх скарг на ChatGPT, раніше закликала до виваженого підходу, а не до заборони інструментів генеративного ШІ. Скарга, яка розслідується польським органом із захисту даних з вересня 2023 року, досі не отримала жодного рішення.
Нова скарга від Noyb видається спробою привернути увагу регуляторів до небезпеки галюцинацій штучного інтелекту та змусити серйозно поставитися до питання точності персональних даних у час швидкого розвитку генеративних систем ШІ.
Випадок Арве Хьялмара Холмена, який зазнав шокуючої дезінформації про себе, демонструє, що проблеми точності в системах ШІ виходять далеко за межі незначних неточностей і потребують системного вирішення з урахуванням основних прав людей на захист персональних даних.