Вищий рівень, ніж людська інтелектуальна діяльність. Протягом 12 годин США та Ізраїль здійснили близько 900 атак на Іран, застосовуючи технології штучного інтелекту.

Спільна операція США та Ізраїлю проти Ірану показала, як штучний інтелект скорочує час від збору даних до нанесення удару: за перші 12 годин військові здійснили близько 900 атак по іранських цілях. Такий темп раніше потребував би днів або навіть тижнів.

Цю інформацію повідомляє журнал Interesting Engineering.

Йдеться не лише про масштаб і кількість ударів, серед яких були вильоти стелс-бомбардувальників, пуски крилатих ракет і застосування дронів-камікадзе. Аналітики звертають увагу на те, що дедалі більшу роль у плануванні та аналізі операцій відіграє штучний інтелект.

Штучні інтелектуальні системи здатні обробляти величезні обсяги інформації, отриманої від безпілотників, супутників та перехоплених комунікацій, значно швидше, ніж це можуть зробити люди. Як повідомляє The Guardian, під час атак на Іран ці технології забезпечували рекомендації щодо цілей і скорочували планування з кількох днів або тижнів до годин чи навіть хвилин.

Старший викладач політичної географії з Newcastle University, Крейг Джонс, зазначив, що системи штучного інтелекту вже здатні рекомендувати цілі для атак, роблячи це з швидкістю, що в деяких випадках перевищує людське мислення. Як наслідок, різні види ударів — по командних пунктах, ракетним установкам та інфраструктурі — відбуваються синхронно, а не в послідовному порядку.

Професор етики технологій в Університеті Квін Мері в Лондоні Девід Леслі підкреслив, що це призводить до значного скорочення часу, відведеного на перевірку та обговорення прийнятих рішень. Хоча формально командира продовжують брати участь у процесі, можливості для глибокого аналізу стають значно обмеженими.

У військовій термінології цей процес відомий як "скорочення ланцюга ураження" — це означає, що етапи від виявлення цілі до отримання дозволу на атакування та запуску зброї значно скорочуються. Критики висловлюють занепокоєння, що в таких умовах люди можуть лише погоджуватися з рішеннями, які пропонуються алгоритмами, а можливість для сумнівів чи моральних роздумів стає обмеженою.

Питання особливо загострюється у випадках із жертвами серед цивільних. Під час одного з нещодавніх ударів на півдні Ірану загинули щонайменше 150 людей, багато з них -- школярки. В ООН назвали це серйозним порушенням гуманітарного права.

Міжнародне гуманітарне право вимагає, щоб рішення про нанесення удару ухвалювала людина, керуючись принципами пропорційності та розрізнення між цивільними і військовими об'єктами. Однак, коли штучний інтелект прискорює цей процес і створює варіанти атак за лічені хвилини, існує ймовірність, що правові перевірки можуть відступити на другий план через необхідність швидкого реагування.

Тема використання штучного інтелекту в оборонній сфері тісно пов'язана з технологічними компаніями. Наприклад, модель Claude, розроблена компанією Anthropic, була інтегрована в системи національної безпеки США для аналізу розвідувальної інформації та планування операцій у співпраці з Palantir Technologies. Однак Anthropic вирішила не дозволяти використання своїх технологій для повністю автономної зброї або внутрішнього спостереження. Напередодні можливих ударів по Ірану адміністрація США оголосила про поступове вилучення цієї моделі з певних оборонних систем через зазначені обмеження.

Після цього OpenAI підписала угоду з Пентагоном, що регулює застосування своїх моделей для військових цілей. Це свідчить про напруженість між бажанням досягти технологічної переваги та зусиллями встановити певні обмеження.

У симульованих військових іграх, які відтворювали сценарії ядерної кризи часів холодної війни, моделі ШІ у 95% випадків обирали застосування тактичної ядерної зброї та рідко пропонували деескалацію. Дослідники зазначають, що це не означає неминучість такого вибору в реальному конфлікті, але показує схильність алгоритмів до радикальних рішень під тиском.

Використання військового ШІ триває не лише в Ірані. У секторі Гази ізраїльська армія застосовує системи The Gospel і Lavender для автоматичного аналізу великих обсягів даних спостереження та формування списків цілей для перевірки аналітиками. За даними розслідувань, The Gospel генерує десятки цілей на день, а Lavender веде бази даних підозрюваних бойовиків і пов'язаних об'єктів.

США також експериментували з такими інструментами в інших регіонах. За повідомленнями ЗМІ, модель Claude використовували для підтримки аналізу розвідданих під час операції із затримання колишнього президента Венесуели Ніколаса Мадуро у 2026 році.

У 2017 році Пентагон ініціював проект під назвою Project Maven. Ця програма використовує технології машинного навчання для обробки зображень і сприяє в ідентифікації цілей у конфліктах, що відбуваються в Іраку, Сирії та Україні.

На міжнародному рівні США ініціювали "Політичну декларацію про відповідальне військове використання штучного інтелекту та автономії", яку підтримали десятки країн. Водночас великі військові держави, зокрема США та Китай, не завжди готові погоджуватися на жорсткі обмеження.

Окремі країни також розробляють зброю з елементами ШІ. У Туреччині крилата ракета Baykar Bayraktar Kemankeş 1 має систему автономного розпізнавання цілей. В Індії в межах проєктів Anumaan і Trinetra досліджують можливості об'єднання розвідданих для раннього виявлення загроз.

Кампанія проти Ірану характеризується не лише високою частотою атак, а й новими підходами до вибору цілей, які включають використання алгоритмів для спрощення процесу перевірки. Зменшуючи затримки між збором даних і відкриттям вогню, ми стикаємося з ситуацією, коли на обдумане людське рішення залишається все менше часу.

#Гардіан #Організація Об'єднаних Націй #Туреччина #Крилата ракета #Безпілотний літальний апарат #OpenAI #Штучний інтелект #Алгоритм #Індія #Китай (регіон) #Етика #Ізраїль #База даних #Сирія #Ірак #Венесуела #Автономія #Іран #Пентагон #Національна безпека #Ядерна зброя #Супутник #Машинне навчання #Холодна війна #Сектор Газа #Лондонський університет королеви Марії #Palantir Technologies #Ніколас Мадуро #Президент (урядова посада) #Міністерство оборони Сполучених Штатів Америки #Моральність #Університет Ньюкасла

Читайте також

Найпопулярніше
Древко на гербі
У бібліотеку Ірландії повернули книгу, яка була втраченя більш ніж 50 років.
Акторку з популярного серіалу "Сексуальне виховання" викликали до суду у справі про сексуальне насильство: деталі ситуації.
Актуальне
Уряд ухвалив новий порядок залучення іноземних викладачів, науковців та експертів для роботи в Україні за допомогою Фонду Президента.
Більше третини молодих українок не займаються навчанням і не мають роботи.
Людям не слід навіть мріяти. Ґрунт на Марсі вбиває організми, які здатні витримувати космічний вакуум, радіаційні випромінювання та екстремальні температури.
Теги