Технології

ChatGPT сфабрикував документи для суду: юрист не знав, як працюють такі системи

Невдале використання ChatGPT юристом призвело до створення підроблених матеріалів у справі в американському суді, повідомляє The New York Times.

Photo by form PxHere

Юрист з Нью-Йорка Стівен Шварц використовував чат-бот від компанії OpenAI для підготовки матеріалів для суду. ШІ впорався із завданням, але використовував посилання на вигадані справи і судові рішення. «Помилка вилізла» на зовні, коли суддя попросив надати документи, зазначені в тексті.

Незвичайна історія сталася при розгляді в федеральному суді Манхеттена цивільного позову між пасажиром і авіакомпанією Avianca. Позивач звернувся до суду зі скаргою на травму від металевої тарілки під час польоту в серпні 2019 року з Сальвадору в Нью-Йорк. Авіакомпанія звернулася до суду з проханням закрити справу, щоб підготувати заперечення на цю заяву Стівен Шварц і використовував ChatGPT.

ШІ написав відповідь, в якій з посиланням на більш ніж пів дюжини різних судових рішень, обґрунтовував необхідність продовження судового розгляду. Він містив не тільки згадки цих рішень, а й цитати з них та інших матеріалів, пов’язаних з розглядами цих справ. Коли суддя попросив надати документи, які вказані у відповіді, виявилося, що таких справ не існує, а всі цитати — вигадані.

На розгляді через надані в суд недостовірних відомостей Стівен Шварц зізнався, що використовував чат-бот для підготовки відповіді. За його словами, про ChatGPT йому розповіли діти-студенти, і він вперше використав його в професійній діяльності. На слуханнях в суді юрист вибачився і сказав, що, думав, що ChatGPT має більший охоплення, ніж стандартні бази даних. «Я чув про цей новий сайт, який, як я помилково припустив, був чимось на зразок суперпошуковика», — додав він.

Незвичайний випадок розкриває велику проблему, пов’язану з використанням систем ШІ, відзначили експерти опитані The New York Times. «Більшість людей, які грають з ними і використовують їх, насправді не розуміють, що вони з себе представляють і як працюють, і, зокрема, які їхні обмеження».


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються ваші дані коментарів.

Back to top button