Microsoft пропонує DALL-E Пентагону для виявлення цілей

14.04.2024   21:27    5

Генеративні ШІ для створення зображень не такі нешкідливі, як здається. Вони можуть виробляти дипфейки, а й допомагати тренувати системи управління бойовими діями, і навіть визначати мети ударів. Для цього DALL-E від OpenAI запропонували американській армії. Раніше компанія Сема Альтмана була проти використання ШІ у військових цілях, але її політика змінилася після інвестицій від Microsoft.

by @freepik

У жовтні 2023 року на презентації в Пентагоні Microsoft окреслила можливості використання DALL-E у військовій сфері. Компанія активно співпрацює з американськими військовими: наприклад раніше вона пропонувала їм використовувати свій продукт HoloLens. Наразі вона шукає способи інтегрувати штучний інтелект у військові технології.

Останні новини:  Творці ChatGPT планують випустити власний браузер

Системи управління бойовими діями (BMS) надають керівництву армії дані для планування військових операцій, включаючи рух військ та призначення цілей для артилерії та авіації. Microsoft запропонувала використовувати DALL-E для створення штучних зображень, які покращать візуалізацію бойової обстановки та допоможуть системам точніше визначати цілі.

Повітряні сили США розробляють систему JADC2, яка має забезпечувати інтеграцію даних з усіх видів військ, включаючи дані з безпілотників, радарів та танків для координації військових дій. Microsoft бачить потенціал DALL-E як інструмент навчання цієї системи.

Останні новини:  Українці перетворюють дрон«Довбуш Т10» в авіаносець для FPV-камікадзе

Незважаючи на представлення можливостей технології, Microsoft наголошує, що навчання з використанням DALL-E ще не розпочато. Воно сприймається як потенційний напрямок розвитку. OpenAI зазначає, що не брала участі у презентації та не поінформована про таке використання своїх технологій. Будь-які угоди з військовими регулюватимуться політикою Microsoft.

Експерти та аналітики наголошують, що рішення про застосування технологій у військових цілях приймається на політичному рівні, а не компанією-розробником. Також існують побоювання щодо надійності та точності генеративних моделей ШІ у ПЗ для військових. Наприклад, Хайді Хлааф, інженер з безпеки машинного навчання, яка раніше працювала в OpenAI, каже: «Ці генеративні моделі зображень навіть не можуть згенерувати правильну кількість кінцівок чи пальців. Як ми можемо покладатися на їхню точність щодо подій на полі бою?».





cikavosti.com

Останні новини:  NASA виділяє $11,5 млн на розробку літака майбутнього