Головнокомандувач армії США, розташований у Південній Кореї, генерал-майор Вільям «Хенк» Тейлор заявив, що регулярно звертається до штучного інтелекту у вигляді чат-бота для опрацювання складних командних та особистих рішень. Це свідчить про те, що навіть провідні керівники Пентагону активно експериментують з генеративними AI-технологіями.
Під час конференції Асоціації армії США у Вашингтоні генерал-майор Тейлор розповів журналістам, що він використовує ChatGPT для вдосконалення процесу прийняття рішень, які впливають на долю тисяч військових. «З чат-ботом ми явно зблизилися останнім часом», — зауважив генерал під час прес-зустрічі в понеділок, однак уникнув конкретних прикладів особистого застосування.
ChatGPT — це продукт компанії OpenAI, і коментарі Тейлора відзначили медіаресурси, зокрема Business Insider. Командувач поділився, що він прагне створювати моделі, які допоможуть покращити процеси ухвалення рішень для всіх задіяних. За його словами, штучний інтелект він використовує не для безпосередніх бойових дій, а для управління щоденними лідерськими завданнями.
Генерал пояснив свої мотиви так:
1. Забезпечення кращої якості прийнятих рішень.
2. Вчасне ухвалення рішень, що дають стратегічну перевагу.
3. Розробка аналітичних моделей.
4. Підвищення ефективності мислення персоналу через навчання.
Крім цього, генерал Тейлор, який водночас є начальником штабу Об’єднаного командування ООН у Південній Кореї, розглядає штучний інтелект як інструмент, що може допомогти у підготовці персоналу.
Ці заяви відзначаються як одне з найбільш відкритих визнань високопоставленого американського військового офіцера про застосування комерційного чат-бота в допомозі лідерському та оперативному мисленню.
Американські військові вже незмінно прагнуть імплементувати штучний інтелект на різних рівнях діяльності, включно з:
– Логістикою
– Реалізацією стратегічної розвідки
– Тактикою ведення бою
Цей інтерес посилюється у світлі змагання з такими країнами, як Китай і Росія, які за рівнем впровадження AI також не відстають.
Представники оборонного відомства зазначають переваги AI-систем у прискоренні обробки даних і підвищенні точності вцілених дій, одночасно висловлюючи занепокоєння з огляду на:
– Надійність систем
– Відповідальність людини за рішення, що приймаються програмним забезпеченням
Пентагон наголошує, що майбутні бойові дії можуть розвиватися із «машинною швидкістю», де необхідні миттєві рішення, які перевищують спроможність людини. Колишній секретар ВПС США Френк Кендалл попередив, що стрімкий розвиток автономної зброї означає:
– Надзвичайно короткі терміни реагування
– Нерентабельність нездатності адаптуватися для командирів на наступному полі бою
Вже проведено випробування штучного інтелекту в бойових симуляціях. Зокрема, у спільному експерименті ВПС та Агентства перспективних оборонних дослідницьких проектів (DARPA) алгоритм керував модифікованим винищувачем F-16 під час макетного повітряного бою.
Інші проєкти використовують AI для:
– Аналізу супутникових даних
– Контролю логістичних операцій
– Оптимізації адміністративної документації у військових підрозділах на полі бою
Спеціальні сили армії США також впроваджують подібні технології для зниження «когнітивного навантаження» на операторів, застосовуючи AI для:
– Складання звітів
– Обробки даних про місії
– Масштабного аналізу розвідки
Водночас представники Пентагону закликають до обережності, звертаючи увагу на такі ризики генеративних AI-систем, як:
– Витік конфіденційної інформації
– Помилки або хибні висновки при обробці неповних чи іскажуваних даних
Генерал Тейлор визнав, що однією з проблем застосування сучасних технологій є швидкість їх розвитку, а також необхідність суворого дотримання військових стандартів безпеки.
ChatGPT вже зазнав значної уваги з боку урядів і комерційних структур, які намагаються оцінити як його потенціал, так і обмеження.
Хоча нові версії програми демонструють здатність до складних логічних роздумів та аналітики, вони іноді продукують невірну інформацію чи вигадки.