Група з 9 нинішніх і 9 колишніх співробітників OpenAI опублікувала відкритий лист із закликом захистити інформаторів в індустрії ШІ. Вони стверджують, що OpenAI ставить прибуток і зростання вище за безпеку та етику, що створює потенційні загрози для людства. Співробітники готові дати свідчення проти компанії, якщо їм забезпечать захист. У листі також сказано, що компанія використовує жорсткі тактики запобігання витокам інформації, включно з обов’язковими угодами про недискредитацію для співробітників, які звільняються. Нагадаємо, на нещодавній конференції Сем Альтман не зміг пояснити, як працюють нейромережі OpenAI, та уникнув відповіді на питання щодо їхньої безпеки.
Серед інсайдерів, які б’ють на сполох, особливо примітний Деніел Кокотайло, який у 2022 році приєднався до OpenAI як дослідник з питань управління. На цій посаді він прогнозував швидкість розвитку ШІ і не був оптимістичним. Спочатку Кокотайло вважав, що універсальний штучний інтелект (AGI), рівний людині за здібностями, з’явиться до 2050 року. Зараз він вважає, що такий ШІ з’явиться вже до 2027 року з ймовірністю 50%. Крім того, аналітик упевнений, що просунутий ШІ знищить людство або катастрофічно зашкодить йому з ймовірністю 70%. В індустрії цю похмуру статистику називають p (doom) (у вільному перекладі “звіздецом”).
Працюючи в OpenAI, Кокотайло помітив, що компанія вкрай рідко проводить належні випробування перед випуском продуктів. Спільна з Microsoft рада з безпеки ніколи не сповільнювала розгортання нових моделей, щоб переконатися в їхній безпеці. Наприклад, у 2022 році Microsoft почала таємно тестувати в Індії нову версію пошуковика Bing на основі, як припускається, GPT-4, найбільш просунутої на той момент моделі. На це компанія не запитувала дозвіл ради з безпеки. Кокотайло каже, що коли пошуковий сервіс почав дивно поводитися і неадекватно відповідати на запитання користувачів, тестування і не думали згортати. Утім, прес-секретар Microsoft Френк Шоу стверджує, що пошуковик не містив GPT-4 або будь-яку іншу модель OpenAI.
Минулого року Кокотайло говорив з Альтманом про необхідність виділяти більше часу і ресурсів питанням безпеки. Гендиректор погодився з ним, проте жодних дій не вжив. У квітні 2024 року Данило покинув компанію, розчарувавшись у її підході до безпеки. Через місяць компанію покинули ще 2 ключових дослідники з питань безпеки – Ілля Суцкевер і Ян Лейке. Їхній відхід частина співробітників сприйняла як крок назад. Вони не підписали відкритого листа, але Лейке публічно критикував OpenAI і говорив, що компанія надто зациклилася на продуктах, що привертають увагу, і на прибутку, тому безвідповідально ставиться до потенційних ризиків.
До листа також долучилися Вільям Сондерс, Керолл Вейнрайт, Джейкоб Гілтон і Деніел Циглер, які звільнилися з OpenAI, Вільям Сондерс, Керолл Вейнрайт, Джейкоб Гілтон і Деніел Циглер. Сондерс сказав, що йому не сподобався підхід розробників: “Спочатку випустимо продукт, потім будемо виправляти проблеми з ним”. Решта підписували звернення анонімно, бо боялися переслідування з боку компанії – вона зобов’язує співробітників, які йдуть, назавжди відмовитися від критики колишнього роботодавця. В іншому разі вони можуть втратити всі свої акції та понести фінансову відповідальність.
Раніше Альтман говорив, що такий захід розглядався як можливий, але на практиці його не застосовують. Однак, найімовірніше, він бреше: Кокотайло повідомив, що наразі ризикує втратити $1,7 млн в акціях OpenAI через те, що виступив із критикою компанії.
Цікаво, що лист також підписали 2 співробітники Google, один колишній і один нинішній. Автори ініціативи вважають, що в майбутньому до них приєднаються співробітники й інших компаній, що займаються розробкою ШІ. Вони заручилися підтримкою відомого юриста та активіста Лоуренса Лессіга, професора права з Гарварду. Він відомий боротьбою за авторські права в епоху інтернету.
У листі активісти вимагають, щоб розробники ШІ відмовилися від угод про нерозголошення в питаннях, що стосуються ризиків і загроз від певних моделей; вони також просять уряд та інші соціальні інститути захищати інформаторів від помсти роботодавців під час розголошення інформації, що стосується безпеки. Вони закликають компанії підтримувати культуру відкритої критики і дозволяти співробітникам висловлюватися про ризики їхніх технологій.
Крім того, ті, хто підписався, просять налагодити анонімний процес скарг на потенційні ризики продуктів не лише до ради директорів, а й до інших регулюючих органів і громадських організацій. У багатьох розробників ШІ є свої анонімні лінії довіри, проте автори ініціативи вважають, що внутрішнього регулювання недостатньо: у компаній занадто велика спокуса замовчувати будь-які проблеми заради підвищення прибутку.