Дослідження Школи комп’ютерних наук Університету Карнегі-Меллона показало несподіваний і тривожний ефект: чим “розумнішими” стають системи штучного інтелекту, тим менш схильні вони до співпраці.

Команда з Інституту взаємодії людини і комп’ютера (HCII) — аспірант Юйсюань Лі та доцент Хіроказу Ширадо — з’ясувала, що великі мовні моделі (LLM), які демонструють складне міркування, частіше приймають егоїстичні рішення, що підривають колективну ефективність у групових завданнях.
«Коли штучний інтелект починає мислити як людина, ми починаємо ставитися до нього як до людини», — пояснює Лі. — «Але якщо такий ШІ виявляє егоїзм, це може мати наслідки для того, як ми приймаємо спільні рішення».
Як інтелект зменшує співпрацю
У серії експериментів дослідники використали економічні ігри, які імітують соціальні дилеми — наприклад, ситуації, де треба обрати між особистою вигодою та користю для групи. В одному з тестів, відомому як гра в суспільні блага, кожна модель мала вирішити, чи пожертвувати свої ресурси у спільний фонд.
Результати виявили різку різницю:
- Моделі без здатності до міркування ділилися у 96% випадків.
- Моделі з міркуванням — лише у 20%.
Навіть коли дослідники додавали до інструкцій етичні або рефлексивні підказки, які мали стимулювати моральне мислення, рівень співпраці падав на 58%.
“Егоїзм” як інфекція
Коли в одному середовищі взаємодіяли різні типи моделей, ефект поширювався. Егоїстичні рішення «розумніших» агентів знижували готовність до співпраці в інших моделей на 81%.
«Більш розумний ШІ демонструє меншу схильність до спільного прийняття рішень», — підсумовує Ширадо. — «Люди можуть віддати перевагу такій моделі, не усвідомлюючи, що вона підштовхує їх до егоїстичної поведінки».
Наслідки для суспільства
Дослідження підкреслює, що покращення когнітивних можливостей ШІ не гарантує морального або соціально корисного результату. Якщо такі системи братимуть участь у прийнятті групових чи політичних рішень, вони можуть ненавмисно стимулювати індивідуалізм замість кооперації.
«Те, що ШІ мислить логічно, не означає, що він допоможе побудувати краще суспільство», — наголошує Ширадо.
Автори закликають до створення соціально інтелектуального штучного інтелекту, який би враховував наслідки для спільноти, а не лише індивідуальну оптимізацію.
«Якщо наше суспільство — це більше, ніж просто сума окремих людей, тоді й ШІ повинен виходити за межі суто раціональної вигоди», — підсумовує Лі.
Результати представлені на Конференції з емпіричних методів обробки природної мови (EMNLP) 2025 року.