Тема розвиненого штучного інтелекту (ШІ) в майбутньому зазвичай несе з собою певні страхи — наприклад, те, що він буде здатний до самонавчання і стане настільки розвиненим, що люди вже будуть не в змозі його розуміти. У поганих руках, і навіть за власним почином, такий просунутий алгоритм зможе захопити уряди і армії, ввести оруелівські методи нагляду та маніпуляції, встановити контроль над суспільством, і навіть керувати армією автономних бойових дронів на полі бою.
Але деякі фахівці в області ШІ не вважають ці страхи обґрунтованими. Насправді, високорозвинений ШІ може бути здатний краще керувати світом, ніж люди. Такі страхи самі становлять небезпеку, тому що можуть перешкодити нам реалізувати таку можливість.
«Мабуть, впровадження ШІ представляє небезпеку для людства», — сказав дослідник в області ШІ компанії Facebook Томас Міколов на конференції в Празі, присвяченій проблемам створення на ШІ рівня людського інтелекту.
Міколов пояснює, що люди, як біологічний вид, дуже слабкі у прийнятті довгострокових рішень, покликаних принести благотворні результати. Люди вирубали тропічні ліси з метою видобутку сировини, не усвідомлюючи (або не цікавлячись), що тим самим вони сприяли деградації нашої планети — можливо, незворотньої.
Але розвинена система ШІ могла б захистити людство від його власної недалекоглядності.
«Люди погано вміють передбачати віддалене майбутнє, скажімо, на 20-30 років вперед. Можливо, створивши ШІ, який набагато розумніший за нас, ми допоможемо собі уникнути майбутньої катастрофи».
Звичайно, Міколов належить до меншості вчених, які вірять в те, що високорозвинений ШІ буде доброзичливим. В ході конференції багато доповідачів висловлювали широко поширений страх перед ШІ, частіше у зв’язку з його можливим застосуванням в небезпечних цілях зловмисними суб’єктами, небезпеку чого не слід недооцінювати.
Ми не знаємо напевно, стане можливим створення ШІ загального призначення, здатного виконати будь-яку розумову задачу, доступну людині, і, можливо, навіть краще неї.
Майбутнє розвиненого ШІ виглядає багатообіцяючим, але воно піднімає безліч проблем етичного характеру. Ми навіть не знаємо всіх питань, на які доведеться знайти відповідь.
Все ж більшість учасників празької конференції погодилися, що правила треба виробити до того, як вони знадобляться. Вже зараз треба створювати міжнародні договори, комітети з етики, і регулюючі органи при урядах, компаніях і наукових спільнотах. Впровадження таких інститутів та протоколів знизить ймовірність того, що ворожий уряд, необережний дослідник, або навіть дійсно божевільний «вчений» запустить у дію шкідливий ШІ або застосує в якості зброї складний алгоритм іншим способом. А в несприятливому випадку у нас будуть засоби захисту.
Впровадивши необхідні правила та заходи безпеки, ми зможемо в майбутньому жити в гармонії з високорозвиненим ШІ; можливо, одного разу він навіть врятує нас.