Наприкінці серпня у Женеві має відбутися конференція, на якій представники понад 80 країн та міжнародних організацій обговорюватимуть долю так званих бойових роботів. Перемовини Групи урядових експертів зі смертоносних автономних систем озброєння відбуватиметься з 27 до 31 серпня у форматі Конвенції з негуманної зброї. У межах саме цього формату свого часу народжувалися заборони використовувати задушливі гази, напалм, розривні кулі, касетні бомби, протипіхотні міни та інші наджорстокі засоби. Ця конференція стане вже третьою подібною зустріччю. Перемовини щодо використання штучного інтелекту в озброєнні почалися зовсім нещодавно – у грудні 2017 року, а продовжилися цьогоріч у квітні.

Думки делегатів, як це зазвичай буває, розділилися на два табори. Так звані радикали виступають за повну заборону штучного інтелекту в озброєнні. Сьогодні їх 26 країн. Зокрема Ватикан, Австрія, Аргентина, Єгипет, Ірак, Палестина і, неочікувано, Китай – постійний член Радбезу ООН. Інші не проти використовувати роботів у воєнних діях, але вважають, що повний контроль над подібними технологіями повинен залишитися за людиною. Франція та Німеччина навіть виступили з ініціативою ухвалити в ООН відповідну політичну декларацію. Ініціативу готова підтримати і Росія, але вона категорично проти заборони бойових роботів.

У російському МЗС пояснюють, що дієвих зразків подібних автономних систем ще немає, тому розуміння цієї теми “досить поверхневе”. Росіяни мають сумніви, що чинної міжнародно-правової бази недостатньо, щоб контролювати подібні технології.

З іншого боку, аналітики американської компанії MarketsandMarkets оцінили ринок технологій військового штучного інтелекту 2017 року у понад шість мільярдів доларів. Відповідно до їхніх прогнозів, цей показник до 2025 року збільшиться втричі – майже до 19 мільярдів.

От вже цей Google!

У середині липня понад дві тисячі науковців, зокрема творець Tesla та SpaceX Ілон Маск і співзасновники компанії DeepMind, підписали документ, що вони не розроблятимуть смертельну автономну зброю. І це при тому, що Маск цьогоріч порадував своїх фанатів досить-таки смертоносним вогнеметом. Щоправда уся відповідальність за його використання покладається на людський, а не штучний інтелект.

А у червні Google відмовився працювати з Пентагоном над проектом Maven. Цей проект передбачає створення штучного інтелекту, який обиратиме цілі для безпілотників. Технологічний гігант розірвав контракт із Міноборони США через тиск працівників – вони не хочуть, щоб їхню роботу використовували військові. Керівництво дослухалося до позиції своїх співробітників. Взагалі Google зайняв позицію, що усі розробки ШІ повинні приносити користь і гарантувати безпеку людству, а не навпаки.

Наразі ж Google переносить свою базу дослідження штучного інтелекту в Китай. В адресу компанії вже звучали звинувачення, що їхні розробки врешті-решт опиняться у китайських військових. Тому зараз позиція Піднебесної у питанні бойових роботів має обнадійливий вигляд.

У 2017 році низка науковців із 26 країн світу звернулася до ООН, щоб та заборонила створювати роботів-убивць. У їхніх рядах був і вже покійний астрофізик Стівен Гокінг, який неодноразово заявляв, що штучний інтелект – потенційна загроза існування нашої цивілізації.

Щоправда, військовий аналітик Пол Шарр, автор книжки про ведення війни у майбутньому, вважає, що подібні заклики навряд чи вплинуть на міжнародну політику. “Не думаю, що це докорінно змінить підхід таких великих держав, як Росія, США чи Китай до розвитку технологій штучного інтелекту”, – каже він.

Із початком XXI століття великі країни нарощували інвестиції у робототехніку. Зрозуміло, що найбільшими інвесторами виступили саме оборонні відомства. Той самий Пентагон у 2007-2013 роках вклав близько чотирьох мільярдів доларів у роботів. Це лише верхівка айсберга, бо видатки зростатимуть. Наприкінці липня стало відомо, що Міноборони США все-таки знайшло собі партнера для проекту Maven – компанію Booz Allen Hamilton. Контракт, який вони підписали, за даними The Wall Street Journal, оцінений у 885 мільйонів доларів. У вересні 2017 року президент РФ Володимир Путін заявив, що країна, яка буде лідером у розробках штучного інтелекту, “стане володарем світу”. Добре, що Росія відстає у дослідженнях від США та Китаю, але це пояснює позицію росіян щодо мораторію на бойових роботів.

Чому не хочуть робити роботів-убивць

Прихильники заборони автономної зброї пояснюють свою позицію дуже просто: технології розвиваються надшвидко, і поява повністю незалежних машин, які зможуть не тільки діяти, але й ухвалювати рішення без участі людини, не за горами. Саме тому, на їхню думку, критично важливо зберегти контроль за машинами. Будь-які рішення, тим паче щодо цілей атаки, мають залишатися в руках людей. Вони наполягають на підписанні офіційного юридичного документа, який би зобов’язав країни дотримуватися цієї чіткої норми. Позицію цих радикалів активно підтримують у суспільстві. Під петиціями підписуються не тільки науковці, представники IT-бізнесу, громадські діячі, інженери, а й звичайні громадяни тих чи інших країн. Глобальну кампанію “Зупиніть роботів-убивць” (Campaign to Stop Killer Robots) запустили у 2013 році, і сьогодні вона набирає обертів.

Кращі розуми покоління не виключають, що роботи вб'ють нас усіх. Фото: Unsplash/Craig Sybert
Кращі розуми покоління не виключають, що роботи вб’ють нас усіх. Фото: Unsplash/Craig Sybert

Противники заборони бойових роботів мають багато аргументів. Найголовніший – цивільні та військові розробки штучного інтелекту на практиці майже неможливо розмежувати. Коли йдеться про ШІ, будь-яку розробку можна використовувати для війни.

У чомусь вони мають рацію. Взяти для прикладу нещодавну розробку вчених Массачусетського технологічного інституту “RF-Pose”. Завдяки ній штучний інтелект навчився “бачити” крізь стіни. Спеціалісти кажуть, що робили систему щоб виявляти хворобу Паркінсона, різні види склерозів, мускульну дистрофію тощо. Рятувальники завдяки “RF-Pose” можуть шукати людей під завалами після землетрусів чи інших природних катаклізмів. Але технологію спокійнісінько можуть використовувати військові: від розвідників до коригувальників вогню.

У Пентагоні наголошують, що використання штучного інтелекту військовими може рятувати життя і мінімізувати ризики, які пов’язані із помилками людей, адже errare humanum est.

Слава роботам! Вбити всіх чєлавєкав!

Насправді, бойових роботів використовують вже давно. Та сама Росія у 2000 році успішно використовувала робота-розвідника “Васю”, щоб знаходити та знешкоджувати радіоактивні речовини в Чечні. У 2005-му росіяни вдало випробували підводного робота-розвідника. Під час радянсько-фінської війни Совєти використовували так звані телетанки, які керувалися по радіо без екіпажу. А німці у Другій світовій застосовували самохідні міни “Голіаф”.

Всі ці зразки виконували чіткі вказівки людини, яка їх контролювала. Вони не могли самостійно визначати цілі та вирішувати чи відкривати по них вогонь. Із розвитком штучного інтелекту це може змінитися. Саме цього і побоюються прихильники заборони бойових роботів. Правозахисники стверджують, що роботи без контролю почнуть вбивати поранених солдат чи противників, які здаються у полон. Також у них є сумніви, чи зможе машина відрізнити бійців від мирного населення.

Сьогодні у новітні військові розробки так чи інакше закладаються елементи штучного інтелекту. Це стосується як ракет, так і бойових машин. Але повну свободу дій штучному інтелекту ніхто не поспішає передавати. І фахівці не беруться навіть прогнозувати, коли це стане можливим. Технологія не розвинена, дорога, автономні машини можуть взламувати противники та отримувати контроль над смертоносними машинами. Сьогодні самі військові скептично ставляться до роботів та штучного інтелекту, особливо старший офіцерський склад. Отже, поки що війна вестиметься старими-добрими перевіреними засобами. Але це не означає, що ми мусимо відмахуватися від питання роботів на полі бою, бо інакше Третя світова війна буде війною людей проти машин.


Владислав Недашківський, “Український інтерес”

Читайте нас також у Facebook, Telegram, Twitter, дивіться в Instagram