Технології

Вчені виступили проти термінаторів

Учені попередили про небезпеку використання штучного інтелекту (ШІ) при створенні бойової техніки і новітніх систем озброєння. Більше тисячі інженерів і дослідників підписали відкритий лист про це.

30-07-15-foto-600x338-1

«Якщо яка-небудь велика військова держава спробує вирватися вперед у розвитку зброї з штучним інтелектом, то глобальна гонка озброєнь практично неминуча. Кінцева точка цієї технологічної траєкторії очевидна: автономне зброя стане завтрашнім «Калашниковим»», — наголошується в документі.

Автори листа закликають відмовитися від використання ШІ при створенні бойової техніки. Вони попереджають, що гонка подібних озброєнь призведе до непередбачуваних наслідків.

Питання про створення бойових роботів обговорювалося в ООН. Міжнародна організація розглядає можливість заборони певних типів автономних бойових систем.

Серед підписантів — відомий фізик і космолог Стівен Хокінг, підприємець Елон Маск і один із засновників компанії Apple Стів Возняк. Документ планується передати делегатам міжнародної конференції по штучному інтелекту в Буенос-Айресі.

Натхнення: www.nanonewsnet.ru


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються ваші дані коментарів.

Back to top button