Технології

Стів Возняк не сумнівається в загрозі штучного інелекту

Роками співзасновник компанії Apple Стів Возняк заперечував, що технології, особливо штучний інтелект, можуть загрожувати людям. Проте в недавньому інтерв’ю виданню Australian Financial Review 64-річний винахідник визнав, що деякі прогнози починають збуватися, а людиноподібні комп’ютери представляють реальну небезпеку для людства. Він навіть пожартував: «Ким ми будемо: богами, домашніми тваринами або мурахами? Я не знаю ».

1-24-03-2015-600-340

Комп’ютери збираються перевершити людей. Якщо ми продовжимо створювати пристрої для полегшення життя, то врешті-решт вони стануть кмітливішими від нас і почнуть позбуватися людей, щоб ефективніше управляти компаніями, – заявив Стів Возняк.

[ads2] З приводу загрози штучного інтелекту вже висловилися такі відомі особистості, як Елон Маск і Стівен Хокінг. Обидва входять в організацію під назвою «Інститут майбутнього життя» (Future of Life Institute), яка нещодавно виступила з відкритим листом із закликом оцінити ризики, пов’язані з розробкою штучного інтелекту (ШІ).

Автори документа визнають не тільки величезний потенціал ШІ, але і загрозу. У короткостроковій перспективі машинний інтелект, наприклад, може залишити мільйони людей без роботи.

Читайте також: Інтелект роботів зрівняється з людським розумом приблизно через 25 років

Раніше в цьому місяці глава електромобілобудівної компанії Tesla Елон Маск заявив, що в найближчі роки керовані людьми автомобілі можуть опинитися поза законом. За його словами, роботи отримають перевагу на дорозі, а людина за кермом стане «занадто небезпечним» для учасників руху.

Вчені побоюються, що високорозвинені машини почнуть вчитися виконувати будь-яку роботу і будуть поступово витісняти людини. Підстави для занепокоєння є. Згідно з прогнозом аналітичної фірми Boston Consulting Group, до 2025 року кількість автоматизованих операцій збільшиться на 25 відсотків. Найбільш яскраво цей тренд зараз виражений в Японії.

Натхнення: hi-news.ru


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються ваші дані коментарів.

Back to top button