У Женеві завершилися зустрічі експертів у форматі Конвенції з негуманної зброї. Вони мали вирішити долю так званих бойових роботів – автономних озброєнь, які використовують штучний інтелект для ураження цілей. Проте ніяких домовленостей досягнути не вдалося. Сполучені Штати, Росія, Південна Корея, Ізраїль та Австралія були серед тієї меншини країн, якій вдалося заблокувати зворушення у напрямку повної заборони роботів-убивць.

Отже, хоча у світі ще немає робочої автономної зброї, технологія залишається так би мовити гуманною – її можна розробляти та досліджувати. Цікаво, що США та Росія, за даними Стокгольмського інституту дослідження миру (SIPRI), очолюють список найбільших експортерів зброї. Південна Корея, Ізраїль та Австралія теж не пасуть задніх у цьому рейтингу – вони входять у 20-ку найбільших гравців ринку.

І хоч Китай (п’ятий експортер зброї у світі, постійний член Радбезу ООН) виступає за заборону бойових роботів, переважити щаблі терезів у свій бік під час зустрічей йому не вдалося. Сьогодні заборону використання штучного інтелекту на війні відкрито підтримують 26 країн. Інші ухиляються від чіткої позиції. Франція та Німеччина (третій та четвертий експортери зброї) пропонують підписати документ, який би закріпив головування людини над штучним інтелектом, але вони скоріше на боці тих, хто хоче розробляти автономні бойові машини.

“Звісно розчаровує те, що маленька групка військових гігантів може стримати волю більшості”, – прокоментувала результат зустрічей у Женеві координатор кампанії “Зупиніть роботів-убивць” (Campaign to Stop Killer Robots) Мері Верхем.

І, дійсно, ситуація має вигляд змови збройних магнатів-монополістів, враховуючи, що США та Росія зазвичай не можуть досягти бодай якогось компромісу у важливих питаннях. Взяти хоча б сирійське: Вашингтон та Москва навзаєм заблокували резолюції один одного після використання хімічної зброї у Сирії весною цього року. Задушливі гази та інші отруйні речовини у військових цілях, до речі, раніше заборонила використовувати саме Конвенція з негуманної зброї.

Наступна зустріч щодо долі роботів-убивць відбудеться у Женеві у листопаді.

Чому хочуть заборонити автономну зброю

Прихильники заборони бойових роботів наполягають на тому, що поле бою – не місце для штучного інтелекту. На їхню думку, такі технології несуть величезну загрозу. Як мінімум, сьогодні не зрозуміло у який спосіб машина відрізнятиме комбатантів (тих, хто безпосередньо бере участь у бойових діях) від некомбатантів (обслуговуючий персонал армії, який може використовувати зброю лише для самооборони) та цивільних взагалі. Є вірогідність, що роботи вбиватимуть поранених та тих, хто здається у полон, що заборонено чинними правилами ведення війни.

Що взагалі заважає роботам перебити усі сторони конфлікту, навіть власників такої зброї? Елементи штучного інтелекту вже вдало використовують у військовій техніці, ракетах; роботів залучають для розвідки, але останнє слово все одно залишається за людиною. Автономна ж зброя не підпорядковуватиметься наказам командирів – на то вона й автономна. Саме тому військові генерали різних країн скептично ставляться до впровадження машин у ряди особового складу.

І ще одне відкрите питання – міжнародний тероризм. Технологія автономної зброї може потрапити не в ті руки, її врешті-решт можуть хакнути. Рік тому президент Росії Володимир Путін заявив, що володарем світу буде той, хто стане лідером у розробках штучного інтелекту. У випадку з автономною зброєю володарем світу стане той, хто отримає доступ до таких технологій. А для цього, по суті, потрібні лише комп’ютер та спритник, який пройде крізь системи захисту. Пентагон, між іншим, зламували не один раз. Отже, гарантій, що автономна зброя залишиться недоторканною, ніхто не може дати.

Також незрозуміло, хто нестиме юридичну відповідальність, якщо в результаті функціонування автономної системи озброєння буде здійснено військовий злочин. “Інженер, програміст, виробник або командир, який зброю задіяв? Якщо відповідальність не може бути визначена як того вимагає міжнародне гуманітарне право, чи можна визнати розгортання таких систем законним чи етично виправданим?”, – зазначають у Міжнародному комітеті Червоного Хреста.

Цікаво, що й науковці виступили за заборону бойових роботів. У липні цього року понад дві тисячі вчених, зокрема творець Tesla та SpaceX Ілон Маск і співзасновники компанії DeepMind, підписали документ, що не розроблятимуть смертельну автономну зброю. Те саме зробив Google. Технологічний гігант відмовився від роботи над проектом Пентагону Maven. А 2017-му низка науковців вже закликала ООН заборонити створювати роботів-убивць.

До речі, на порядку денному Організації Об’єднаних Націй питання штучного інтелекту на війні з’явилося наприкінці 2013 року, але відтоді практично нічого не змінилося. Лише цьогоріч почалися експертні зустрічі у форматі Конвенції з негуманної зброї. Тобто знадобилося понад чотири роки, щоб дійти якоїсь більш-менш практичної площини.

Чому не хочуть забороняти автономну зброю

Як би банально це не звучало, але гонка озброєнь – найголовніша причина, чому не хочуть забороняти роботів-убивць. Путін має рацію: хто перший отримає автономну зброю, той почне домінувати у світі. Офіційно ця причина на озвучується.

Найголовніший аргумент противників заборони – неможливість розділити цивільні розробки штучного інтелекту від військових. Мовляв, ми не будемо забороняти кухонні ножі лише через те, що їх можуть використати терористи. І дійсно відокремити цивільні розробки штучного інтелекту від військових практично не реально. Але наразі йдеться про заборону тієї зброї, яка зможе самостійно визначати та атакувати цілі. Такою може стати проект Maven, над яким працює Міноборони США разом із компанією Booz Allen Hamilton (Google відмовився від контракту).

Розробники Maven хочуть навчити безпілотники аналізувати зображення, зокрема, зі супутників та – потенційно – визначати цілі для атаки. Працювати над проектом Пентагон почав ще у квітні 2017-го і сподівався отримати перші робочі алгоритми до кінця року. Але через демарш працівників Google розробка затягнулася. Станом на червень цього року, за даними Gizmodo, система могла розрізняти елементарні об’єкти – автівки, людей, але виявлялася абсолютно нікчемною у складніших ситуаціях. Якщо ж заборону про автономну зброю все-таки ухвалять на рівні ООН, проект доведеться згорнути. У Пентагоні ж наголошують, що їхня розробка може рятувати життя, адже її можна запрограмувати на більш точну та надійнішу роботу, якщо порівнювати з людьми.

“Потрібно розуміти, що йдеться про техніку, що не має зразків, які б працювали. Уявлення про такі системи поки що дуже поверхневе, – зазначали напередодні зустрічі в Женеві у МЗС РФ. – На нашу думку, міжнародне право, зокрема, гуманітарну галузь, можна застосувати до автономних озброєнь. Вони не потребують модернізації або адаптації під такі системи, яких ще не існує”.

Ну, і ще одна реальна, але не озвучена, причина, – гроші. Сьогодні ринок технологій військового штучного інтелекту оцінюють у понад шість мільярдів доларів. Але вже до 2025 року показник збільшиться втричі – майже до 19 мільярдів, стверджують аналітики американської компанії MarketsandMarkets. Для найбільших експортерів зброї це непогана мотивація, щоби блокувати будь-які заборони розвитку роботів-убивць.

Прогрес не спинити

Прихильники заборони автономної зброї звертають увагу, що технології розвиваються дуже швидко і штучний інтелект врешті-решт стане зброєю – питання часу. Логіка у їхніх словах є. Штучний інтелект – невід’ємна частина четвертої науково-технічної революції, яка триває зараз. Необхідно враховувати, що технічний прогрес так чи інакше пов’язаний з бойовими діями. Третя науково-технічна революція тривала до середини 50-х років XX століття, тобто її пік припав на період Другої світової війни.

У 1949 році у Женеві ухвалили Конвенцію про захист цивільного населення під час війни. У післявоєнний період також доповнювали IV Гаазьку конвенцію 1907 року, яка визначала правила ведення війни. Тобто жахи Другої світової стали каталізатором цього процесу. Отже, правозахисники не хочуть чекати Третьої світової, щоб убезпечити людство від автономної зброї. Саме тому вирішити долю роботів-убивць необхідно зараз, наполягають вони.

На думку експертів Human Rights Watch використання бойових роботів суперечить декларації Мартенса – положення преамбули Гаазької конвенції про закони та звичаї війни 1899 року. Інакше кажучи, роботи-вбивці порушують закони людяності та вимог суспільної свідомості (положення підтвердили у IV Гаазькій конвенції).

“Ми повинні спільними зусиллями ввести превентивну заборону на подібні системи озброєнь, поки вони не поширилися по світу”, – переконана старша наукова співробітниця відділення з проблем зброї у Human Rights Watch Бонні Дохерті.

Що ж, заборонити роботів-убивць цього разу не вийшло. Прогнозовано, зустрічі у листопаді також будуть безрезультатними. Щоправда, майже всі країни погоджуються – технологію не можна пускати самопливом і бойовим роботам потрібний такий собі стоп-кран. Але досі не зрозуміло, чи буде у людства час смикнути його, коли в тому виникне потреба.


Владислав Недашківський, “Український інтерес”

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.