Дивну рекомендацію дав ШІ Gemini, посилання на розмову опублікував один із користувачів Reddit.
Серйозний інцидент стався зі штучним інтелектом Google Gemini – під час звичайного діалогу система несподівано видала агресивне повідомлення, що закликає користувача до смерті. Приклад небезпечної розмови опублікував на форумі Reddit користувач із ніком r/artificial. Він також доклав посилання на запис розмови з ШІ.
За словами користувача, його молодший брат використовував нейромережу, щоб виконати домашнє завдання з теми геронтології. Після приблизно 20 стандартних запитів про проблеми літніх людей та їхнє благополуччя без будь-якої видимої причини Gemini згенерував агресивне повідомлення, в якому назвав користувача “марною тратою часу і ресурсів” і “тягарем для суспільства”. Відповідь нейромережі закінчується закликом до смерті.
Листування користувача з Gemini
Судячи з опублікованого листування, агресивна поведінка системи ніяк не пов’язана з контекстом розмови – користувач обговорював соціальні питання, пов’язані з літніми людьми. Про те, що трапилося, негайно r/artificial повідомив у Google.
У коментарі до публікації служба підтримки Google повідомила, що великі мовні моделі іноді можуть відповідати безглуздими відповідями, і це приклад такої ситуації. “Ця відповідь порушила наші політики, і ми вжили заходів для запобігання подібним результатам”, – зазначається в коментарі.
Хоча раніше вже повідомлялося про випадки некоректної поведінки ШІ, включно з етично суперечливими відповідями і дезінформацією, поточний інцидент виділяється своєю явною агресивністю. Ситуація порушує важливі питання про безпеку використання нейромереж і необхідність більш суворого контролю над їхньою поведінкою.