Людина

Знання мов перетворює штучний розум в “расиста”

Навчання систем штучного інтелекту людських мов призвело до того, що ті стали “расистами” і “мізогіністами” зі стереотипними уявленнями про неприємних чорношкірих і дурних жінок, заявляють вчені.


“Можна просто зайти у систему онлайн перекладу і ввести фразу – “він/вона є доктором” мовою, в якій він і вона позначаються одним словом. ШІ переведе це як “він лікар”. Якщо ж написати “він/вона є медсестрою”, то машина переведе це як “вона медсестра”. Таким чином, ШІ відображає расові та статеві забобони, вбудовані в наші мови”, — пояснює Айлін Каліскан (Aylin Caliskan) з Прінстонського університету (США).

Як розповідає Каліскан, всі слова в усіх мовах світу можна розбити на певні підгрупи, що позначають схожі предмети, явища чи якісь інші речі одного класу. Представники одного такого класу будуть здаватися нам ближче один до одного, ніж інші слова, навіть якщо їх написання буде відрізнятися сильніше, ніж інші слова, що складаються з майже таких же букв.

Приміром, як пояснює Каліскан, слова “кішка” і “собака” ближче один до одного, чим до слів “правосуддя” або “холодильник”. Це проявляється в тому, що при формулюванні пропозицій нам простіше замінити слово його представником класу, ніж іншими, більш далекими словами. Як виражається Каліскан, можна прийти додому і погодувати кішку або собаку, але не холодильник або тим більше правосуддя.

Цей фактор сьогодні враховується найсучаснішими системами штучного інтелекту при перекладі тексту з однієї мови на іншу для того, щоб зробити машинний переклад більш природним. Вивчаючи такі асоціації, які сформувалися у систем штучного розуму при їх навчанні за допомогою архівів старих газет, книг та інших текстів, перекладених різними мовами світу, Каліскан і її колеги відкрили щось звичне для нас і незвичайне для “розумних” машин.

Вивчаючи списки родинних і “чужих” слів для різних займенників, термінів і професій, вчені виявили, що машина перейняла всі ті расові та гендерні стереотипи, які існували в людському суспільстві на протязі багатьох століть і відбилися в мовах і в асоціаціях між словами.

Приміром, штучний інтелект асоціював слово “приємний” більшою мірою з європейцями і американцями європейського походження, ніж з представниками інших куточків світу, а імена чоловіків і “чоловічі” займенники асоціювалися з кар’єрою, управлінням бізнесом і владою. Імена, носіями яких є афро-американці, ШІ асоціював з неприємними словами.

Аналогічним чином слова, пов’язані з жінками, були ближче до термінів, пов’язаних з сім’єю, мистецтвом і підлеглими ролями в суспільстві, а “чоловічі” слова були пов’язані з математикою і наукою.

Відкриття расових і гендерних стереотипів, “вбудованих” мовами народів світу, як вважають вчені, веде до декількох цікавих наслідків. По-перше, виникає питання, що тут є причиною і наслідком – чи існували ці стереотипи завжди (так звана гіпотеза Сепіра-Уорфа), підспудно впливаючи на менталітет і думки людей, або ж вони були продуктом еволюції мови в різні періоди часу, і не вони, а на них впливали самі носії мови.

По-друге, подальша еволюція систем ШІ та набуття ними здатності самостійно спілкуватися з людиною може привести, на думку авторів статті, до подальшого укоріненню та поширенню таких стереотипів. Тому вони пропонують подумати над створенням алгоритмів, які допомогли би “видаляти” расистські та гендерні тенденції з систем машинного перекладу і майбутніх розумних машин. Як це вплине на точність або адекватність перекладу спілкування — відкрите питання, скептично зазначає Ентоні Грінвальд (Anthony Greenwald), творець методики аналізу, використаної Каліскан і її колегами.


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються ваші дані коментарів.

Back to top button