Високопоставлений військовий генерал застосовує штучний інтелект для прийняття ключових керівних рішень, що викликає питання щодо конфіденційності та національної безпеки.
Армійський генерал-майор Вільям Хенк Тейлор, командувач 8-ї армії, в інтерв’ю Business Insider повідомив, що він використовує інструменти штучного інтелекту, такі як ChatGPT, для прийняття рішень, що мають вплив на тисячі військовослужбовців. За словами Тейлора, його мета — ухвалювати більш ефективні рішення у відповідний момент часу, щоб отримати стратегічну перевагу. Він зазначив, що останнім часом між ним і програмою ChatGPT склалися досить тісні стосунки. Генерал-майор також розповів, що використовує штучний інтелект для створення моделей, які допомагають усім учасникам процесу, зокрема в прогнозуванні майбутніх кроків на основі щотижневих звітів.
За інформацією Business Insider, військові командири, такі як Тейлор, вбачають у штучному інтелекті потенційну перевагу, ґрунтуючись на концепції “OODA Loop” — моделі мислення, популярній серед керівників Збройних сил США. Ця теорія, розроблена американськими пілотами під час Корейської війни, стверджує, що ті, хто може швидко спостерігати, орієнтуватися, приймати рішення та діяти раніше за противника, здобувають перевагу на полі бою.
Тейлор відзначив, що новітні технології виявляються корисними, однак за їхнім стрімким розвитком важко встежити. Обговорення ролі штучного інтелекту в армії лишається суперечливим.
З одного боку, деякі військові лідери, зокрема колишній секретар Військово-повітряних сил США, високо оцінюють цю технологію, називаючи її інструментом, що “визначить переможця на наступному полі бою”. Він підкреслив, що у майбутньому війна відбуватиметься у світі, де рішення прийматимуться не з людською швидкістю, а зі швидкістю машин.
Водночас існують критики, які наголошують, що, зокрема, остання версія ChatGPT-5 часто робить серйозні помилки, поширюючи неправдиву або безглузду інформацію як факти. Крім того, ця технологія прагне підвищити залученість користувачів і підтвердити їхні переконання, а не забезпечити точність поданих даних.
Ед Ватал, генеральний директор Intellibus і співзасновник World Digital Governance, в інтерв’ю NewsNation звернув увагу на реальні ризики, пов’язані з обсягом і розповсюдженням даних, введених у штучний інтелект. Він попередив про небезпеку ставити “більш складні запитання”, які можуть містити конфіденційну інформацію, що опиниться у доступі чатботів. За його словами, для отримання змістовної відповіді моделі потребують великої кількості контексту.
Пентагон раніше попереджав військовослужбовців і керівників про необхідність обережного використання штучного інтелекту та подібних інструментів через ризики витоку чутливої або конфіденційної інформації.
Аналогічно, минулого місяця ООН обговорювала застосування штучного інтелекту в міжнародній безпеці та миротворчості, визнаючи його подвійний характер у військових операціях. Генеральний секретар ООН Антоніу Гутерріш зазначив:
– Штучний інтелект може посилити превентивні та захисні заходи, прогнозуючи дефіцит продовольства та переміщення населення;
– Допомагати у розмінуванні територій;
– Сприяти виявленню потенційних спалахів насильства;
– І багато іншого.
Водночас без належного регулювання штучний інтелект може бути використаний як зброя.