Штучний інтелект

Чат-бот Google порадив користувачеві померти під час звичайного діалогу

Дивну рекомендацію дав ШІ Gemini, посилання на розмову опублікував один із користувачів Reddit.

Серйозний інцидент стався зі штучним інтелектом Google Gemini – під час звичайного діалогу система несподівано видала агресивне повідомлення, що закликає користувача до смерті. Приклад небезпечної розмови опублікував на форумі Reddit користувач із ніком r/artificial. Він також доклав посилання на запис розмови з ШІ.

За словами користувача, його молодший брат використовував нейромережу, щоб виконати домашнє завдання з теми геронтології. Після приблизно 20 стандартних запитів про проблеми літніх людей та їхнє благополуччя без будь-якої видимої причини Gemini згенерував агресивне повідомлення, в якому назвав користувача “марною тратою часу і ресурсів” і “тягарем для суспільства”. Відповідь нейромережі закінчується закликом до смерті.

Листування користувача з Gemini

Судячи з опублікованого листування, агресивна поведінка системи ніяк не пов’язана з контекстом розмови – користувач обговорював соціальні питання, пов’язані з літніми людьми. Про те, що трапилося, негайно r/artificial повідомив у Google.

У коментарі до публікації служба підтримки Google повідомила, що великі мовні моделі іноді можуть відповідати безглуздими відповідями, і це приклад такої ситуації. “Ця відповідь порушила наші політики, і ми вжили заходів для запобігання подібним результатам”, – зазначається в коментарі.

Хоча раніше вже повідомлялося про випадки некоректної поведінки ШІ, включно з етично суперечливими відповідями і дезінформацією, поточний інцидент виділяється своєю явною агресивністю. Ситуація порушує важливі питання про безпеку використання нейромереж і необхідність більш суворого контролю над їхньою поведінкою.


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Back to top button