Штучний інтелект

ЄС може оштрафувати OpenAI через неправдиву інформацію в ChatGPT

OpenAI стикається з новою скаргою у Європі після того, як ChatGPT поширив неправдиву інформацію. Регулятори можуть оштрафувати компанію та змусити змінити алгоритми.


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Нова скарга щодо порушення правил захисту даних проти ChatGPT демонструє серйозність проблеми галюцинацій штучного інтелекту, оскільки система згенерувала абсолютно неправдиву інформацію про норвезького громадянина, звинувативши його у вбивстві власних дітей.

by @Phonlamaistudio

Від неточностей до серйозних звинувачень

Організація захисту приватності Noyb підтримала скаргу від норвезького громадянина Арве Хьялмара Холмена, який виявив, що ChatGPT видає шокуючу та цілком вигадану інформацію про нього. У відповідь на запит про цю особу, система штучного інтелекту OpenAI неправдиво стверджувала, що він був засуджений за вбивство двох своїх дітей і замах на вбивство третього.

Раніше проблеми з неточністю персональних даних у генеративних ШІ-системах зазвичай обмежувалися відносно незначними помилками, такими як неправильні дати народження або неточні біографічні деталі. Ця нова скарга підкреслює потенційну шкоду, яку можуть завдати системи ШІ, коли вони “галюцинують” неправдиву інформацію серйозного характеру про реальних людей.

Нормативні вимоги GDPR щодо точності даних

Однією з ключових проблем, на яку вказує Noyb, є відсутність у OpenAI механізму, який дозволив би людям виправляти фальшиву інформацію, що генерується про них. Замість цього компанія зазвичай пропонує просто блокувати відповіді на подібні запити.

“GDPR чіткий. Персональні дані повинні бути точними”, – наголошує Йоаким Седерберг, юрист із захисту даних Noyb, у своїй заяві. “Якщо це не так, користувачі мають право вимагати, щоб вони були змінені для відображення правди. Показувати користувачам ChatGPT крихітне застереження про те, що чат-бот може робити помилки, явно недостатньо. Ви не можете просто поширювати неправдиву інформацію, а в кінці додати невелике застереження про те, що все, що ви сказали, може просто не відповідати дійсності”.

Загальний регламент захисту даних ЄС (GDPR) надає європейцям чіткі права щодо їхніх персональних даних, включаючи право на виправлення неточної інформації. Порушення цих правил може призвести до значних штрафів – до 4% світового річного обороту компанії.

Регуляторні відповіді та попередні втручання

Європейські регулятори з питань захисту даних вже мали прецеденти втручання в роботу ChatGPT. Навесні 2023 року італійський наглядовий орган із захисту даних тимчасово заблокував доступ до сервісу в країні, що змусило OpenAI внести зміни до своєї політики. Пізніше компанія була оштрафована на 15 мільйонів євро за обробку даних без належних правових підстав.

Однак з того часу спостерігається певна обережність з боку європейських регуляторів щодо генеративного ШІ. Комісія із захисту даних Ірландії, яка має провідну роль у розгляді попередніх скарг на ChatGPT, раніше закликала до виваженого підходу, а не до заборони інструментів генеративного ШІ. Скарга, яка розслідується польським органом із захисту даних з вересня 2023 року, досі не отримала жодного рішення.

Нова скарга від Noyb видається спробою привернути увагу регуляторів до небезпеки галюцинацій штучного інтелекту та змусити серйозно поставитися до питання точності персональних даних у час швидкого розвитку генеративних систем ШІ.

Випадок Арве Хьялмара Холмена, який зазнав шокуючої дезінформації про себе, демонструє, що проблеми точності в системах ШІ виходять далеко за межі незначних неточностей і потребують системного вирішення з урахуванням основних прав людей на захист персональних даних.


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Back to top button