Штучний інтелект

58 відсотків людей кажуть ШІ змінив їхні погляди


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Пошукові системи повертали посилання — і людина сама вирішувала, що читати і чому вірити. Чат-боти роблять щось принципово інше: вони формулюють відповідь за вас, впевнено й без застережень. І, за новими даними, мільйони людей вже відчули, як ця відповідь змінила те, що вони думають. Дослідження Shift Browser (2026 AI Consumer Insights Survey), проведене серед 1 448 репрезентативних американців, опублікував StudyFinds 17 березня 2026 року — і його висновки змушують по-новому поглянути на роль ШІ у повсякденному мисленні.

by @user850788

Що відомо коротко:

  • 58% опитаних кажуть, що відповіді ШІ вплинули на їхні думки хоча б іноді
  • Лише 16% довіряють ШІ-системам «значною мірою» — але 60% довіряють «хоча б якоюсь мірою»
  • 32% опитаних не розуміють, як саме ШІ генерує відповіді
  • 81% турбуються про доступ ШІ до особистих даних
  • 79% підтримують певний рівень державного регулювання ШІ-систем

Що таке «ефект переконання» з боку ШІ

Штучний інтелект не нейтральний. Він не просто відображає факти — він вибудовує наратив: обирає, що включити у відповідь, в якому порядку, з яким акцентом. На відміну від Google, що повертає список сайтів для самостійної оцінки, чат-бот видає висновок — впевнений, плавний, написаний бездоганною мовою без «з іншого боку» і «деякі науковці вважають інакше».

Ця впевненість формує когнітивну пастку. Людина отримує відчуття, що питання вже вирішене, джерела перевірені, а думка — «правильна». Вплив відбувається нижче рівня свідомості: дослідник медичного симптому, споживач, що оцінює продукт, або громадянин, що досліджує політичне питання, може не помітити, скільки ваги він надав відповіді алгоритму.

Деталі відкриття

Результати опитування Shift Browser відкривають парадокс довіри та використання: переважна більшість людей продовжує регулярно використовувати ШІ-системи, навіть усвідомлюючи їхні вади. 36% назвали точність відповідей своєю другою найбільшою проблемою — але зупинятись не збираються. Зручність миттєвої читабельної відповіді переважає обережність, що змусила б перевірити факти в кількох джерелах.

Проблему загострює непрозорість. Близько 32% опитаних не розуміють, як ШІ-системи формують відповіді. Без розуміння механізму — немає критерію оцінки: чи спирається відповідь на авторитетні джерела, чи це «галюцинація»? Традиційна журналістика і наукові публікації мають норми атрибуції і підтвердження джерел. Більшість ШІ-відповідей — ні.

Щоденно використовують ШІ найчастіше молоді спеціалісти 25–34 роки: вони інтегрують його у робочі процеси — для дослідницької допомоги (54%), узагальнення матеріалів (34%) і автоматизації завдань (32%). Що частіше людина звертається до чат-ботів, то більше можливостей для накопичувального впливу.

Що показують нові спостереження

Особливо показова цифра: 79% підтримують державне регулювання ШІ-відповідальних систем, причому 35% виступають за жорсткий нагляд. Це майже консенсус — і він свідчить, що суспільство вже відчуло проблему навіть там, де не може її точно сформулювати.

81% стурбовані доступом ШІ до їхніх особистих даних, а 44% турбуються, що ШІ може вчиняти дії без їхньої санкції. Остання цифра зазвичай стосується автономних функцій на кшталт планування зустрічей — але автори дослідження вказують: вплив на формування думки є теж «дією», навіть якщо ця дія когнітивна, а не практична.

Зв’язок із ширшою картиною очевидний: ризики ШІ в освіті полягають саме в поступовій заміні самостійного мислення готовими відповідями. А окреме дослідження про гомогенізацію мислення через LLM показує: проблема не лише в окремих «неточних» відповідях — а в системному тиску на різноманітність думок.

Чому це важливо для суспільства

ШІ-системи стають новими інформаційними воротарями — але якісно іншими, ніж пошукові системи. Пошук повертав варіанти; ШІ видає висновок. Це фундаментально змінює стосунки між користувачем і технологією: замість того, щоб допомогти людині самостійно оцінити джерела, ШІ заохочує пасивне споживання переробленої інформації.

58% відсотків, що повідомляють про вплив ШІ, можуть недооцінювати його масштаб. Вплив часто діє нижче рівня свідомості, формуючи припущення та рамки без того, щоб людина це усвідомлювала. З розвитком цих інструментів ефект накопичуватиметься. Питання — чи встигнуть користувачі, регулятори та розробники побудувати системи, що інформують без переконання і відповідають без рішень за людину.

Цікаві факти

📊 Парадокс довіри і використання. Всього 16% довіряють ШІ «значною мірою» — але 60% довіряють «хоча б якоюсь». Це нагадує динаміку соціальних мереж: люди усвідомлюють проблему, але продовжують користуватись. За даними Pew Research Center, більшість користувачів ШІ не перевіряють отримані відповіді в альтернативних джерелах.

🧠 Впевнений тон = переконливість. Дослідження в галузі когнітивної психології показують: впевнений спікер сприймається як більш компетентний, незалежно від точності його слів. ШІ-системи говорять завжди впевнено — навіть коли помиляються. Це посилює так зване «ілюзорне перевагу знань»: відчуття розуміння теми без реального заглиблення у факти.

🔒 Приватність vs. персоналізація. Чим більше ШІ знає про вас — ваші пошуки, переваги, попередні запити — тим точніше він може «підлаштувати» відповідь під ваш контекст. Це підвищує корисність, але й підвищує ефективність можливого впливу: персоналізований ШІ знає, якою мовою до вас говорити.

📰 Журналістика під тиском. Якщо люди все частіше отримують «відповіді» напряму від ШІ, минаючи редакційно перевірені публікації, це підриває базову функцію незалежних медіа — верифікацію фактів і представлення різних точок зору. За даними Reuters Institute, частка людей, що довіряють новинам, вже кілька років поспіль падає — і ШІ-генеровані «новини» прискорюють цей тренд.

FAQ

Чи дійсно чат-боти «переконують» — чи просто підтверджують вже існуючі погляди? Обидва ефекти реальні. ШІ може підсилювати вже наявні переконання (ефект луна-камери), підбираючи підтверджуючі формулювання. Але може й поступово змінювати погляди через повторюваний вплив — якщо людина регулярно отримує однотипно сформульовані відповіді. Дослідження Shift Browser не розрізняє ці два механізми, але обидва є формою когнітивного впливу.

Що означає, що 32% не розуміють, як ШІ генерує відповіді? Це критична проблема медіаграмотності нової епохи. Людина, яка не знає, що чат-бот може «галюцинувати» (вигадувати правдоподібні факти), не може адекватно оцінити достовірність отриманої інформації. Без розуміння механізму — неможлива й критична оцінка. Це схоже на споживання їжі без будь-якого розуміння, як вона виготовлена і що в ній містить.

Що дасть регулювання ШІ-систем? 79% підтримки регулювання — надзвичайно висока цифра для будь-якого технологічного питання. На практиці регулювання може включати вимоги прозорості джерел (звідки ШІ бере інформацію), маркування ШІ-відповідей, стандарти точності та механізми апеляції для оскарження помилкових відповідей. Без таких норм технологія залишається «чорною скринькою», що формує суспільну думку без жодної підзвітності.

🤯 WOW-факт: Найпотужніші переконувачі в людській історії — релігійні проповідники, пропагандисти, майстри реклами — завжди мали обмеження: час, аудиторія, людська втома. ШІ не втомлюється, не має обмежень аудиторії і говорить персонально з кожним. 58% людей, що вже відчули його вплив на свої думки, — це не фінальна цифра. Це лише початок статистики, яка зростатиме з кожним роком.


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Back to top button