Технології

Microsoft пропонує DALL-E Пентагону для виявлення цілей

Генеративні ШІ для створення зображень не такі нешкідливі, як здається. Вони можуть виробляти дипфейки, а й допомагати тренувати системи управління бойовими діями, і навіть визначати мети ударів. Для цього DALL-E від OpenAI запропонували американській армії. Раніше компанія Сема Альтмана була проти використання ШІ у військових цілях, але її політика змінилася після інвестицій від Microsoft.

by @freepik

У жовтні 2023 року на презентації в Пентагоні Microsoft окреслила можливості використання DALL-E у військовій сфері. Компанія активно співпрацює з американськими військовими: наприклад раніше вона пропонувала їм використовувати свій продукт HoloLens. Наразі вона шукає способи інтегрувати штучний інтелект у військові технології.

Системи управління бойовими діями (BMS) надають керівництву армії дані для планування військових операцій, включаючи рух військ та призначення цілей для артилерії та авіації. Microsoft запропонувала використовувати DALL-E для створення штучних зображень, які покращать візуалізацію бойової обстановки та допоможуть системам точніше визначати цілі.

Повітряні сили США розробляють систему JADC2, яка має забезпечувати інтеграцію даних з усіх видів військ, включаючи дані з безпілотників, радарів та танків для координації військових дій. Microsoft бачить потенціал DALL-E як інструмент навчання цієї системи.

Незважаючи на представлення можливостей технології, Microsoft наголошує, що навчання з використанням DALL-E ще не розпочато. Воно сприймається як потенційний напрямок розвитку. OpenAI зазначає, що не брала участі у презентації та не поінформована про таке використання своїх технологій. Будь-які угоди з військовими регулюватимуться політикою Microsoft.

Експерти та аналітики наголошують, що рішення про застосування технологій у військових цілях приймається на політичному рівні, а не компанією-розробником. Також існують побоювання щодо надійності та точності генеративних моделей ШІ у ПЗ для військових. Наприклад, Хайді Хлааф, інженер з безпеки машинного навчання, яка раніше працювала в OpenAI, каже: «Ці генеративні моделі зображень навіть не можуть згенерувати правильну кількість кінцівок чи пальців. Як ми можемо покладатися на їхню точність щодо подій на полі бою?».


Підписуйтеся на нас в Гугл Новини, а також читайте в Телеграм і Фейсбук


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються ваші дані коментарів.

Back to top button