Нове дослідження показує, що чат-боти зі штучним інтелектом (ШІ), які надають фактичну інформацію, можуть зменшити віру людей у теорії змови та підтримувати цей ефект щонайменше протягом двох місяців.
Це дослідження, проведене Томасом Костелло з Массачусетського технологічного інституту, досліджує потенціал ШІ у вирішенні соціальної проблеми поширення теорій змови. Деякі з цих теорій мають невинний характер, але інші можуть бути небезпечними, зменшуючи довіру до державних інституцій та науки, зокрема щодо вакцинації та заходів проти зміни клімату. У крайніх випадках віра в конспірологічні теорії може мати летальні наслідки.
Незважаючи на негативний вплив, теорії змови дуже “липкі”, тобто після формування таких переконань людина важко змінює свою думку. Причиною цього є глибокі соціальні зв’язки в групах прихильників змов та їхня недовіра до зовнішніх джерел інформації.
Вплив чат-ботів зі штучним інтелектом
З поширенням генеративного штучного інтелекту постало питання, як ШІ впливає на поширення дезінформації. Однак дослідження показує, що чат-боти, налаштовані на надання фактичної інформації, можуть допомогти переконати частину людей відмовитися від віри в теорії змови.
У дослідженні взяли участь понад 2000 осіб, які мали змогу поспілкуватися з чат-ботом ШІ після опису теорії змови, в яку вони вірили. Більша частина учасників отримала персоналізовані відповіді від чат-бота, який намагався переконати їх у помилковості їхніх переконань, використовуючи фактичні аргументи. Інша група мала загальні дискусії з ботом. Після трьох раундів розмов, близько 20% учасників зменшили свою віру в теорії змови, і цей ефект зберігався через два місяці після експерименту.
Використання ШІ для боротьби з теоріями змови
Однією з причин ефективності чат-ботів у такій ситуації є їхня нейтральність. Оскільки ШІ не сприймається як людина з “порядком денним”, інформація, яку вони надають, виглядає більш об’єктивною. Це особливо важливо для тих, хто втратив довіру до традиційних джерел інформації. Крім того, чат-боти можуть аргументувати свої позиції, що є ефективнішим підходом, ніж просте перерахування фактів.
Однак варто зазначити, що така тактика працює не для всіх. Чат-боти були менш ефективними для тих, у кого віра в теорії змови мала сильні соціальні або особисті причини. Такі люди часто інтегровані в спільноти, які підкріплюють їхні переконання, тому прості факти не здатні їх переконати.
Ризики використання ШІ
Хоча чат-боти можуть бути корисними у боротьбі з дезінформацією, вони також можуть її поширювати, якщо їхні базові дані містять помилки або упередження. Крім того, існують версії ШІ, спеціально налаштовані на поширення хибних переконань, таких як теорії змови про пласку Землю.
Інший ризик полягає в тому, що чат-боти можуть ненавмисно підкріплювати упередження користувачів через спотворені запити. Якщо людина вже вірить у конспірологічну теорію, вона може отримати підтвердження своїх переконань від ШІ, що збільшує ризик поширення дезінформації.
Висновки
Чат-боти зі штучним інтелектом можуть бути корисними інструментами для зменшення віри у теорії змови, але вони не є панацеєю. Вони можуть переконати деяких людей відмовитися від антинаукових переконань, проте залишаються ризики щодо їхнього потенціалу для поширення дезінформації. Для успішного використання ШІ у боротьбі з теоріями змови важливо налаштовувати ці системи на об’єктивну і точну інформацію, а також враховувати соціальні й психологічні аспекти таких переконань.