Технології

Нове дослідження не виявило в ШІ загрози для людей

Нове дослідження показало, що великі мовні моделі ШІ не становлять екзистенційної загрози для людства.

Нове дослідження демонструє, що великі мовні моделі штучного інтелекту (ШІ) є передбачуваними та контрольованими, що знижує їх потенційну екзистенційну загрозу для людства.

by @freepik

Історія страху перед штучним інтелектом почалася ще в середині XX століття, коли почали з’являтися перші комп’ютери. Зокрема, в 1960-х роках науковці почали замислюватися над можливістю створення машин, здатних перевершити людський інтелект. Ці страхи підживлювалися популярною культурою, зокрема в фільмі “Колос: Проєкт Форбіна”, де суперкомп’ютер бере контроль над ядерною зброєю, шантажуючи людство. Однак з того часу технології значно еволюціонували, і громадськість тепер має доступ до більш зрозумілих і корисних застосунків ШІ.

Великі мовні моделі, такі як GPT, здатні ефективно працювати з мовою та аналізом соціальних ситуацій, проте вони залишаються “керованими” — тобто їх можливості обмежені початково закладеними інструкціями. Хоча моделі демонструють вражаючі результати при виконанні завдань, вони не можуть розвивати нові навички без явних вказівок. Це означає, що побоювання щодо можливості ШІ стати неконтрольованими сутностями є перебільшеними.

Попри те, що ШІ не може розвинути “надінтелект”, він все ж становить певні ризики в інших сферах. Мовні моделі можуть бути використані для маніпуляцій із інформацією, створення дезінформації або фальшивих новин. Однак ці загрози виникають не через саму технологію, а через спосіб її застосування. Найбільшу небезпеку становить людський фактор, адже саме люди визначають, як використовувати штучний інтелект для досягнення своїх цілей.

Back to top button