Час роботів-вбивць

Автономне зброю ідеально для таких цілей, як замовні вбивства, національна дестабілізація, пригнічення населення, вибіркова ліквідація окремих етнічних груп. Роботи самі вирішують в кого стріляти і кому померти.

"Назад!"

Голос розноситься на відстань трьох кілометрів.

«Назад, або відкриваємо вогонь!»

Хто говорить - не людина, і люди не допомагають йому виявити мета і повертати дуло важкого кулемета, загрозливо слідуючи за що наближається автомобілем. Південнокорейський робот Super aEgisII робить усе це автоматично. Єдине, чого він не робить сам, - це стрілянина.

Вірніше, стріляти самостійно йому не можна.

«Прототип міг автоматично відкривати вогонь, але всі наші клієнти мали намір встановити бар'єр безпеки. Технічно це не проблема, але вони турбуються, що робот може помилитися », - розповідає BBC інженер з компанії-виробника робота DoDAAM Чен Сук Парк (Jungsuk Park).

Ось майбутнє військових технологій.

Завдання в демілітаризованій зоні між Північною і Південною Кореєю, де встановлені Super aEgisII, дуже прості - відстріляти тих, хто перетинає поле. Super aEgisII не відрізняється своїх від чужих, і - що, ймовірно, набагато критичніше - він не здатний вчитися на помилках.

Поки що.

Один грам вибухівки

Озброєний механізм може доставити великі неприємності, навіть якщо він не оснащений людським інтелектом.

Збройні дрони вже широко застосовуються, у всякому разі, американські Reaper - безпілотні літальні апарати, слухняно обстрілюють ракетами підозрюваних в тероризмі. Але Reaper - не роботи, ними керують з американських баз, і рішення про те, кого вбивати і як, приймаються людьми.

Повністю автономне зброю - це інша справа. Машини самі вирішують, кому померти, люди не впливають на їх вибір.

Коротше кажучи, мова йде про роботів-вбивць.

Стюарт Расселл (Stuart Russell), професор інформатики в Університеті Берклі в Каліфорнії, уточнює, що, кажучи про роботів-вбивць, ми не повинні уявляти собі Арнольда Шварценеггера (Arnold Schwarzenegger) в «Термінаторі», скоріше - тисячі квадрокоптера три-чотири сантиметри в діаметрі, кожен з яких оснащений одним грамом вибухівки - зарядом, достатнім, щоб пробити людський череп.

Такі дрони запрограмовані на пошук, розпізнавання і знищення тисяч об'єктів.

«З'являться виробники, що випускають мільйони таких озброєнь, і їх можна буде купити, як зараз купують рушницю, з тією лише різницею, що мільйон рушниць безглузді, якщо немає мільйона солдатів. А щоб запрограмувати і випустити дрони, потрібно всього три людини. Тільки уявіть собі, яке полювання на людей почнеться в багатьох частинах світу », - каже Стюарт Расселл Buzzfeed.

Він вважає, що вона може стартувати через два-три роки.

«Власне, не потрібно ніяких технологічних проривів. Кожна технологія вже є в комерційному доступі в тій чи іншій формі. Питання лише в розмірі інвестицій », - продовжує Стюарт Расселл.

потрібен заборона

Схоже на залякування або наукову фантастику?

Багато видатних учених в галузі штучного інтелекту так не думають. Вони відкрито вимагають заборонити автономне зброю. У відкритому листі, підписаному такими знаменитостями, як глава Tesla Ілон Маск (Elon Musk), фізик Стівен Хокінг (Stephen Hawking) і співзасновник Apple Стів Возняк (Steve Wozniak), підкреслюється, що автономне зброя може стати реальністю вже «в найближчі роки, а НЕ десятиліття ».

«Автономний зброю ідеально для таких цілей, як замовні вбивства, національна дестабілізація, пригнічення населення, вибіркова ліквідація окремих етнічних груп», - пишуть вчені, які також попереджають, що може початися нова гонка озброєнь.

Оточення і знищення кораблів

Але розвиток все більш автономних типів озброєнь триває, одні проекти відкриті, інші засекречені.

Агентство з перспективних оборонних науково-дослідних розробок США (DARPA) показало в програмі CODE, як зграя безпілотників Reaper обшукує позначений район, доповідає про знайдених цілях, наприклад, танках, і по команді знищує їх.

Американське Управління військово-морських досліджень (ONR) відкрито продемонстрував прийом, коли велика група човнів-роботів повністю автоматично і синхронно оточує ворожі кораблі. «Нова технологія дозволяє човнам знаходити, стримувати і знищувати атакуючого ворога», - повідомило ONR в проектному звіті. Роботи самі підтримують зв'язок один з одним, втручання людини в їх дії мінімально.

Роботи моральніше людей

Прихильники роботів-вбивць виділяють кілька вагомих переваг.

- Швидше за все, використання роботів буде дешевше, ніж навчання, зміст, транспортування і оснащення звичайних військових.

- Їх можна застосовувати в небезпечних ситуаціях, не ризикуючи життями солдатів.

- Роботи моральніше людей: якщо машина не запрограмована на вчинення військових злочинів, то вона і не буде цього робити.

- У них немає інстинкту самозбереження, вони не схильні приймати необдумані рішення через страх або неправильного розуміння ситуації.

Зниження порогу війни

Загрози не менше очевидні.

- Роботи знизять поріг розв'язування воєн. Застосувати військові засоби простіше, коли НЕ ризикуєш життям своїх солдатів.

- Доступ до новітніх озброєнь буде лише у багатих і могутніх гравців.

- Роботи стануть новим засобом гноблення населення в диктатури.

«Ними будуть користуватися диктатори і тирани, яким зараз нерідко буває важко переконати військових застосувати силу проти власного народу. Ми бачили таку ситуацію в Єгипті, військові відмовилися атакувати народ на площі Тахрір », - розповідає Пітер Уоррен Сінгер (Peter Warren Singer), фахівець з військових роботам і співробітник аналітичного центру New America в Вашингтоні.

Прогрес не зупинити

Професор інформатики в університеті Умео Тумас Хелльстрём (Thomas Hellström) очолює дослідницьку групу Intelligent Robotics, яка вивчає варіанти конструкцій бойових роботів.

Він вважає, що прогрес вже не зупинити.

«Якщо бути реалістом, то в довгостроковій перспективі це буде складно. Якщо результати досліджень виявляться застосовні на практиці, їх обов'язково використовують у військових цілях, не дивлячись на активні протести в середовищі вчених-робототехников, - каже Тумас Хелльстрём. - Розвиток дронів триває. Такі системи відносно легко забезпечити функцією автоматичної стрільби, а у політиків не виникне великих складнощів з приховуванням обставин. Думаю, мало кого хвилює, хто саме пустив ракету в Афганістані - сидить в Неваді оператор або сам літальний апарат ».

При цьому Хелльстрём не вважає неминучим поява думаючих антропоморфних роботів.

«Велика загальна проблема всіх роботів полягає в тому, що вони не здатні відчувати оточення і давати коректну оцінку того, що відбувається, що відмінно виходить у людей: мислити тверезо. Навіть людині буває непросто відрізнити мирного жителя від солдата, а для робота це за великим рахунком нереально. Це чисто технічний момент. І навіть якщо вирішити цю проблему, залишається питання етичних рамок. На підставі чого робот робить висновок про правильність чи неправильність дій? » - продовжує Тумас Хелльстрём.

Він не впевнений, що маленькі квадрокоптера, про які говорить Стюарт Расселл, здатні відрізняти друзів від ворогів.

«Це буде як касетна бомба, яка вбиває всіх без розбору. Комп'ютер не відрізнить дитини з прутиком від дорослого чоловіка з рушницею. Такі завдання не вирішуються навіть в перспективі ».

Роботи, які вже існують

Одна техаська фірма побудувала «Купідон» (Cupid) - літаючий безпілотник для охорони будинку. Виявивши зломщика, «Купідон» просить його піти, а якщо нещасний не підкоряється, то отримує електричний розряд в 80 тисяч вольт.

Американський флот вже давно використовує системи «Іджіс» (Aegis) і «Фаланкс» (Phalanx) для захисту від ворожих ракет. «Фаланкс» побудована на основі 20-міліметрової гармати Гатлінга і може самостійно, тобто без допомоги людини, виявляти, ідентифікувати і збивати наближаються снаряди.

Російські ЗМІ повідомляють, що Росія розробила «Залізної людини» - робота, «здатного замінити людини в бою».

У Північній Дакоті діє закон, що дозволяє поліції оснащувати свої безпілотники електрошоковим зброєю або зброєю, що стріляє гумовими кулями.