Компанія розробила систему водних знаків і визначення текстів, створених ChatGPT, але поки що її не впроваджує, повідомляє The Wall Street Journal.
OpenAI близько року тому розробила систему для маркування тексту, створеного за допомогою ChatGPT, повідомляють ЗМІ з посиланням на джерела в компанії. Систему “водних знаків” доповнює метод для перевірки такого контенту, однак компанія не поспішає впроваджувати нововведення, мабуть, щоб не втратити користувачів.
Система водних знаків і розпізнавання контенту, створеного за допомогою нейромереж, могла б допомогти університетам і вчителям виявляти плагіат і згенеровані ШІ роботи, а громадським організаціям боротися з дезінформацією і пропагандою в мережі. Але в OpenAI, як пишуть журналісти, немає єдиної думки про те, чи варто випускати її.
The Wall Street Journal повідомляє, що в тестуванні компанія виявила, що водяні знаки не вплинули на якість тексту. При цьому в опитуванні, замовленому компанією, “люди по всьому світу підтримали ідею виявлення ШІ з перевагою чотири до одного”, пишуть журналісти. При цьому близько 30% користувачів сказали, що будуть рідше використовувати ChatGPT, якщо водяні знаки будуть реалізовані.
Після публікації в блозі OpenAI з’явився запис, який підтверджує роботу компанії над системою водяних знаків і дає альтернативне пояснення того, чому його не впроваджують. Компанія заявляє, що метод дуже точний. Але при цьому перефразування за допомогою іншої нейромережі дає змогу обійти перевірку. Компанія також заявляє, що стурбована, що маркування стигматизує використання ШІ в діловому листуванні під час спілкування іноземною мовою.