Як штучний інтелект впроваджується у військову галузь: технології, можливості та труднощі.

На початку серпня світ побачив запуск нової флагманської версії штучного інтелекту ChatGPT - GPT-5. Ця подія піднімає обговорення про майбутнє розвитку штучного інтелекту на новий рівень, зокрема, щодо його інтеграції у військову сферу, де він існує та в яких формах проявляється.

На початку серпня світ побачив нову флагманську версію штучного інтелекту ChatGPT - GPT-5. Ця подія підняла обговорення про майбутнє розвитку ШІ на новий рівень, зокрема, стосовно його впливу на військову сферу, де він активно інтегрується та проявляється в різних формах.

Випуск моделі штучного інтелекту GPT-5 не викликав такого резонансу, як запуск на початку року китайської моделі DeepSeek R1, яка має здатність до міркувань (і це сталося всього через кілька місяців після появи аналогічної американської моделі GPT-01). Тоді активно обговорювалися можливості технологічної конкуренції між США та Китаєм, адже досягнення в сфері штучного інтелекту можуть слугувати більш точним показником загального технологічного розвитку країни, ніж навіть ядерна зброя.

Зараз мова йде про нове оновлення великих мовних моделей (LLM). Це викликає інтерес, оскільки ці моделі все більше наближаються до концепції AGI (Artificial General Intelligence) — штучного загального інтелекту, який у своєму розумінні має потенціал виконувати завдання, подібні до тих, що виконує людина. Саме від LLM сподіваються на це технологічне досягнення — наближення до людського інтелекту.

GPT-5, за оцінкою розробників, не доходить до рівня AGI. Однак це вельми важлива подія.

По-перше, Китай прагне "відновити баланс" у технологічному суперництві, подібно до ситуації з GPT o1 та DeepSeek R1.

По-друге, незважаючи на початкові труднощі з маршрутизатором запитів, який не завжди зумів зберігати контекст бесіди, GPT-5 пропонує новий рівень ефективності для широкого спектра застосувань великих мовних моделей. Це також стосується оборонної сфери. Завдяки технологіям GPT-5, користувачі отримують можливість створювати спеціалізовані моделі, які сприяють прийняттю рішень у військових штабах, здійснюють відбір цілей у системах протиповітряної та протиракетної оборони, а також визначають оптимальні координати для ударів ракетами та дронами.

Американські компанії, такі як OpenAI (ChatGPT), Anthropic (Claude) та DeepMind (Gemini), в основному використовують закриту модель доступу: код, архітектура та повні набори даних для навчання залишаються під контролем компаній. Це допомагає зберегти технологічну перевагу, але також викликає занепокоєння щодо монополізації інформації та обмеження міжнародного співробітництва.

Китай, навпаки, активно просуває відкриті моделі (open-source), серед яких найвідомішою стала DeepSeek. Її можна, умовно кажучи, завантажити та скомпілювати на своєму комп'ютері, якщо вистачить місця й обчислювальних потужностей. Формально DeepSeek відповідає критеріям відкритості: її код можна завантажити та розгортати локально. Але ця відкритість має специфіку: у модель вбудовано фільтри контенту та алгоритмічні обмеження відповідно до китайського законодавства про кібербезпеку, а ліцензія передбачає можливість обмеження доступу у випадку "порушень".

Поряд з DeepSeek активно прогресують і інші китайські моделі, такі як Baidu (ERNIE Bot), Alibaba (Qwen) та Академія штучного інтелекту Пекіна (Wu Dao, Aquila). Їхні стратегії відкритості мають схожі риси: технічна доступність поєднується із централізованим контролем та інтегрованими механізмами управління.

Китайська відкритість сприймається США як інструмент демпінгового проникнення на глобальні ринки з метою їх захоплення. Водночас у США розробники ШІ також експериментують із відкритими моделями. З'явилися LLaMA від Meta, Mistral (європейський проєкт, але активний на американському ринку), а також рішення від Hugging Face і стартапів на кшталт Together AI.

Нарешті, на початку серпня 2025 року, після кількаразового перенесення термінів презентації, OpenAI представила свої перші open-weight моделі -- gpt-oss-120b та gpt-oss-20b -- під відкритою ліцензією Apache 2.0. Ця ліцензія дозволяє завантажувати, запускати й модифікувати програмний продукт вільно. Вона широко використовується в програмних продуктах, зокрема подвійного цивільного і військового застосування.

Це нагадує давню суперечку між комерційними продуктами Microsoft та відкритими рішеннями, розробленими міжнародними командами для Linux. Коли конкуренція посилилася, Microsoft в якийсь момент намагалася донести до суспільства думку, що Linux є небезпечним вірусом. Водночас серед прихильників Linux досі існує міф про те, що "Microsoft має зникнути". Проте, на практиці, закриті та відкриті програмні рішення продовжують співіснувати на ринку, зокрема в сфері військових технологій. Таким чином, можна припустити, що, подібно до того, як співіснують Microsoft і Linux, ChatGPT і DeepSeek також знайдуть своє місце поруч одне з одним.

Великі мовні моделі стали знаковим досягненням у розвитку штучного інтелекту для багатьох людей. Проте для нас, як нації, що бореться за своє існування, надзвичайно важливо розуміти, як це вплине на військову галузь.

Загалом, відомо, що штучний інтелект у військовій сфері знаходить своє застосування в таких сферах, як автоматичний переклад, створення аналітичних звітів та оперативна обробка інформації з відкритих джерел.

Але це лише невелика, найбільш відкрита частина цього застосування. Військове використання ШІ виходить далеко за межі синтезу змістовного тексту.

На рівні управління обороною важливу роль відіграють спеціалізовані системи підтримки прийняття рішень (DSS). В оперативній та тактичній сферах їх часто називають системами ситуаційної обізнаності. Це інтегровані комплекси, які обробляють інформацію з розвідувальних даних, супутникових зображень, радарів, сенсорних мереж та логістичних ресурсів, надаючи точну та своєчасну інформацію про конфлікти, битви та бойові дії.

Наприклад, ізраїльська система цілевказання Fire Weaver компанії Rafael інтегрує у єдину мережу спостережні датчики, розвідувальні платформи та озброєння, автоматично обираючи оптимальний варіант для вогневого впливу.

Stormcloud -- проєкт Королівського флоту Великої Британії, який у співпраці з AWS, Microsoft, стартапами та університетами створює хмарну систему бойової обізнаності й підтримки прийняття рішень. Вона поєднує збір даних з безпілотників, сенсорів, радарів, розвідки та супутників з їхньою обробкою у хмарі й на edge-пристроях, використовуючи алгоритми ШІ для розпізнавання цілей, прогнозування загроз і визначення пріоритетів. Результати аналізу швидко передаються у вигляді чітких команд на тактичний рівень, замикаючи kill-chain від виявлення до ураження. Інфраструктура побудована модульно: нові алгоритми чи сенсори можна підключати як "плагіни" через NavyPODS, що забезпечує швидке оснащення кораблів новими можливостями без повної заміни систем.

Ще одна область активного впровадження штучного інтелекту у військовій сфері – це автономні системи, такі як безпілотні літальні апарати (БПЛА), морські дрони, роботизовані бойові машини та стаціонарні бойові модулі. Завдяки штучному інтелекту ці системи можуть без втручання людини розпізнавати цілі, ухвалювати рішення щодо ураження та контролювати процес атаки. Наприклад, в ізраїльських баражуючих боєприпасах, таких як IAI Harop або Hero-120 від UVision, штучний інтелект обробляє дані з бортових камер, фільтрує помилкові цілі і вносить корективи в траєкторію на останніх етапах польоту.

Міжнародна оборонна та аерокосмічна виставка SAHA EXPO 2024, фото: Getty Images

У галузі протиповітряної оборони штучний інтелект відіграє важливу роль у прогнозуванні траєкторій ракет і безпілотників, а також у оптимізації використання боєприпасів і автоматичному визначенні пріоритетів загроз. Ізраїльська система Iron Dome використовує алгоритми, які прогнозують місця падіння ворожих снарядів, що дозволяє економити ресурси, не реагуючи на ті, що не є небезпечними. У свою чергу, американська протиракетна система Aegis від Lockheed Martin оснащена модулями для автоматичного розпізнавання та супроводу цілей.

Серед численних прикладів можна виділити естонську безпілотну бойову платформу THeMIS, здатну функціонувати в автономному режимі для патрулювання або перевезення боєприпасів. Також варто згадати турецькі бойові дрони Bayraktar Kızılelma, які, зокрема, оснащені українськими двигунами і розробляються із акцентом на інтеграцію систем штучного інтелекту для прийняття тактичних рішень у повітряних операціях.

Менш очевидний, але не менш суттєвий аспект використання штучного інтелекту – це військова логістика. Алгоритми, що відповідають за планування маршрутів, прогнозування потреб у паливі та боєприпасах, а також моделювання сценаріїв доставки в умовах бойових дій, знаходять своє застосування, приміром, у системі Joint Precision Airdrop System (JPADS) американської армії.

З огляду на це, у складних бойових системах інтелектуальна складова -- сенсори, алгоритми аналізу даних, системи автономного управління -- може становити від третини до майже половини загальної вартості. Наприклад, у сучасних винищувачах п'ятого покоління, на зразок F-35, вартість бортових сенсорних систем, систем обробки даних та алгоритмів ухвалення рішень може сягати третини вартості літака. Аналогічна ситуація на кораблях з авангардними комплексами протиракетної оборони рівня Aegis, де значну частину бюджету створення займає інтеграція радарів, програмних модулів та автоматизованих систем керування боєм.

Harop від Israel Aerospace Industries (IAI), фото: uk.wikipedia.org

У безпілотниках та роботизованих наземних платформах частка програмного забезпечення та алгоритмів може бути ще більш значною. Наприклад, у ізраїльських баражуючих боєприпасах Harop від Israel Aerospace Industries (IAI) та Hero-120 від UVision вартість корпусу та двигуна є відносно незначною в порівнянні з витратами на оптико-електронні сенсори та програмні модулі для автономного цілевказання. У таких випадках частка штучного інтелекту та супутніх компонентів може перевищувати 50% загальної вартості боєприпасу. Це ж спостерігається й у наземних платформах, таких як THeMIS від Milrem Robotics, де апаратна частина коштує менше за розробку систем автономної навігації, управління та інтеграції з бойовими модулями.

Це різні категорії учасників.

З одного боку, це традиційні оборонні корпорації, які інтегрують штучний інтелект у вузькоспеціалізовані військові продукти. Прикладами є IAI, UVision Air Ltd, Rafael, Lockheed Martin, Anduril і Milrem Robotics. Вони поєднують власні апаратні розробки з програмними системами, створеними або всередині компанії, або за партнерськими угодами.

З іншої сторони, існують підприємства, які з'явилися в галузі цивільного штучного інтелекту і поступово інтегруються у військові проекти. Наприклад, компанія Palantir розробляє аналітичні платформи для обробки розвідувальної інформації, тоді як Scale AI постачає інфраструктуру для навчання моделей на специфічних даних.

Розробники великих мовних моделей, такі як OpenAI, Anthropic, DeepMind і Meta, не займаються безпосереднім створенням бойових систем. Проте їхні технології можуть бути використані в військових цілях опосередковано, наприклад, через ліцензування API або за допомогою інтеграції відкритих моделей, таких як LLaMA або Mistral, сторонніми розробниками. Відомо, що OpenAI уклала контракт з Пентагоном на адаптацію моделі LLM для військових застосувань.

Загалом, чим більш складним є алгоритм і чим глибше штучний інтелект впроваджений у військове управління та бойові процеси, тим більша його доля у загальних витратах на систему. Ситуація, коли програмне забезпечення стає ключовим фактором вартості озброєння, вже не є віддаленою перспективою, а є реальністю, яка наближається.

Цивільно-військовий обмін у галузі штучного інтелекту має двосторонній характер. Це тісно пов'язано з викликами, які постають перед міжнародним гуманітарним правом. Норми і звичаї ведення війни, що закріплені в Женевських конвенціях та їхніх додатках, були розроблені ще до виникнення автономних бойових систем.

Більшість сучасних систем озброєнь формально зберігають концепцію "людина в циклі" (human-in-the-loop), що означає, що остаточне рішення щодо відкриття вогню приймає оператор.

Однак зростаюча швидкість бойових дій та величезні обсяги інформації сприяють переходу до режимів "людина в циклі" (human-on-the-loop) або навіть "людина поза циклом" (human-out-of-the-loop), коли штучний інтелект бере на себе прийняття рішень щодо ураження цілей. Це не обов'язково стосується "зоряних війн". Наприклад, майже неможливо швидко вразити дрон з кулемета на відстані в кілометр без допомоги штучного інтелекту, який автоматично активує спусковий гачок, коли умови для влучення стають сприятливими.

Одне з ключових питань стосовно відповідальності за дії штучного інтелекту залишається без чіткого регулювання: якщо автономна система завдає шкоди цивільному об'єкту, хто нестиме відповідальність — командир, розробник, оператор чи державний орган? Відповідь на це запитання буде залежати від того, яким чином міжнародна спільнота сформулює правовий статус алгоритмічних рішень у рамках воєнного права.

Відсутність єдиних міжнародних стандартів для військового штучного інтелекту є важливим фактором ризику. Держави можуть по-різному розуміти, що вважається прийнятним рівнем автономності, а розробники можуть впроваджувати різні механізми контролю за діями моделей. Така ситуація створює умови для технологічних змагань, де пріоритет віддається швидкості впровадження, а не безпеці та дотриманню правових норм.

Тож можна спрогнозувати, що у найближчі роки дискусія про військовий штучний інтелект вийде за межі технічних і стратегічних аспектів. Вона стане питанням міжнародних переговорів і правового регулювання, де слід знайти баланс між оборонною ефективністю та зобов'язаннями, що випливають із законів і звичаїв війни.

Замість післямови.

Штучний інтелект, не зволікаючи до моменту виходу нових версій ChatGPT та DeepSeek, вже зайняв важливе місце у сучасних військових конфліктах. Обговорення теми AGI, активізоване релізом GPT-5, відбувається паралельно з розвитком спеціалізованих моделей для армії.

Отже, наразі питання про AGI залишається риторичним. Проте, коли штучний інтелект досягне такого рівня розвитку, стане необхідним переглянути Женевські конвенції. Швидше за все, першим, хто зможе вести війну з використанням штучного інтелекту, встановить нові стандарти для законів і звичаїв у цій сфері. На сьогодні невідомо, чи це будуть США, чи Китай.

#Microsoft #Модель #Туреччина #Північна та Південна Америка #Дрон #Ракета. #ChatGPT #OpenAI #Штучний інтелект #Алгоритм #Конкуренція (економіка) #Китай (регіон) #Ліцензія #Протиповітряна оборона #Боєприпаси #Ізраїль #Пекін #Amazon Web Services #Військова розвідка #Сенсор. #Розвідка #Мета-платформи #Alibaba Group #Baidu #Getty Images #Радар. #Прогнозування #Траєкторія #Протиракетна оборона #Таблиця розділів GUID #DeepMind #Ізраїльська аерокосмічна промисловість #Linux #Локхід Мартін #Palantir Technologies

Читайте також

Найпопулярніше
Древко на гербі
У бібліотеку Ірландії повернули книгу, яка була втраченя більш ніж 50 років.
Акторку з популярного серіалу "Сексуальне виховання" викликали до суду у справі про сексуальне насильство: деталі ситуації.
Актуальне
Протести в Сербії перетворилися на насильницькі зіткнення та акти вандалізму.
Федоров повідомив, що через платформу "Дія" можна буде отримати 5 тисяч гривень для підготовки дитини до першого класу | УНН
Відкриття польських університетів: нові можливості для українських студентів.
Теги