Технології

Американський вчений назвав головну небезпеку штучного інтелекту

Штучний інтелект як технологія сам по собі не становить загрози, небезпека полягає в тому, як людина буде використовувати такі технології, вважає професор Міждисциплінарного центру біоетики Єльського університету США Венделл Валлах.

“Суть не в тому, що штучний інтелект, який ми будемо створювати в наступні 20 років, становить щось страшне. Іноді лякає сама людина і те, як вона буде використовувати створені технологи”, – сказав Валлах на полях форуму зі штучного інтелекту, організованого аналітичним центром “Тайхе” (Taihe).

Він відзначив, що технології можуть стати небезпечними, якщо хтось захоче використати їх для маніпуляції поведінкою і почуттями людей.

“Подумайте, що станеться, якщо у нас будуть сенсори, які знають, коли ви відчуваєте страх або вразливість… Для мене ляклива  уява використання штучного інтелекту в цілях стеження. Крім того, що буде, якщо штучний інтелект буде контролювати смертоносну зброю. Це дуже ризиковано, але нам не потрібно робити цього всього”, – сказав Валлах.

При цьому він скептично налаштований щодо того, наскільки швидко вчені зможуть створити щось подібне до людського мозку, перешкодою для цього можуть стати і етичні питання.

“Я думаю, що ми ще дуже далекі від створення чогось подібного до людського мозку, дуже далеко. Що це означає? Двадцять років, п’ятдесят років, сто років, я не знаю. Деякі мої колеги вважають, що протягом двадцяти років, я так не вважаю. Я вважаю, що ми будемо спотикатися більше, ніж ми думаємо. Я трохи більш скептичний, ніж більшість, тому що я дуже багато думав про етичні питання і я усвідомив, що все дуже непросто”, – сказав Валлах.

Однак, Валлах вважає, що в майбутньому технології будуть приносити більше користі, ніж приховувати в собі загрози, складність полягає в мінімізації небажаних наслідків для суспільства.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються ваші дані коментарів.

Back to top button