Искусственный интеллект на поле боя
26.03.18
Развитие технологий делает все ближе тот момент, когда принятие решений в боевой обстановке будет полагаться на искусственный интеллект. Процесс использования ИИ можно считать необратимым. В статье — перспективы и возможные последствия этого.
В рассказе «У меня нет рта, но я должен кричать» Харлана Эллисона военный суперкомпьютер уничтожил все человечество. В разгар Холодной войны подобный сюжет не вызывал особого удивления. Но даже сейчас известные деятели предостерегают от использования ИИ в военных целях. Подобное заявление не так давно сделал, например, Илон Маск. Он считает, что ИИ может нажать «красную кнопку», если решит, что это лучший способ добиться своих целей. Но даже если отбросить апокалиптические сценарии, использование полностью автономных боевых систем имеет ряд этических вопросов, ответы на которые рано или поздно придется давать.
Робототехника применяется во многих сферах — на земле, в воде и в воздухе, а габариты беспилотных устройств варьируются от нескольких сантиметров до аналогов полноценных боевых машин
На данный момент военные роботы обладают относительной автономностью — например, могут двигаться по заданному маршруту, собирать разведданные и информацию о текущем положении дел на поле боя, а также в некоторых случаях оснащаются дистанционно управляемым оружием.
Автономное перемещение беспилотных транспортных средств имеет несколько сценариев: «следуй за мной», для движения в колонне транспортных средств или за бойцами, следование по определенному заранее маршруту, автоматический возврат на базу в случае потери связи с оператором и др. Робототехника применяется во всех сферах — на земле, в воде и в воздухе, а габариты беспилотных устройств варьируются от нескольких сантиметров до аналогов полноценных боевых машин.
Системы искусственного интеллекта, которые могут принимать самостоятельные решения, в подобных устройствах на сегодняшний день не применяются. По крайней мере в тех, которые официально приняты на вооружение. Хотя, без сомнения, ведущие армии мира занимаются исследованиями в этой области и, возможно, имеют какие-то концепты или рабочие образцы. Например, в Китае более сотни специалистов начали работу в Академии военных наук — они занимаются разработками ИИ для применения в оборонной сфере. Это укладывается в задекларированные официальным Пекином планы стать мировым лидером в сфере ИИ к 2030 году. В США в апреле 2017 года появилось спецподразделение по ведению «алгоритмических боевых действий» (Project Maven). Его цель — ускорение внедрения систем ИИ в вооруженных силах США.
Одно из главных направлений для работы новых систем ИИ — анализ информации получаемой с беспилотников, в том числе из Сирии и Ирака. Сейчас многие специалисты в Пентагоне заняты в основном просмотром фото и видео с БПЛА. ИИ мог бы высвободить эти людские ресурсы, самостоятельно определяя на получаемых кадрах цели, нетипичное поведение людей и т. д. Пока в планы военных не входит автоматическое определение целей для ударов, однако такая возможность присутствует — компьютеру достаточно просто сверяться с библиотекой, в которой будут указаны основные признаки потенциальной цели. Самые продвинутые алгоритмы должны были быть введены в полноценную эксплуатацию уже в начале этого года.
Эксперты и ученые не сомневаются, что полностью автономные боевые системы, которые будут сами искать цели и принимать решения, появятся уже в ближайшие 20–30 лет. Степень их автономности можно разделить на три категории: «человек в системе-управления» (human-in-the-loop), «человек над системой управления» (human-on-the-loop) и «человек вне системы управления» (human-out-of-the-loop). Первая — когда робот может сам определить цель, но команду об открытии огня отдает оператор. Вторая — когда робот сам определяет цель и наносит удар, но оператор в любой момент может вмешаться в управление. И третья — это полностью автономные системы, работающие без участия человека.
В США еще в 2010 году была принята программа Unmanned Systems Integrated Roadmap FY 2011-2036 (План интеграции беспилотных систем на 2011–2036 годы. Согласно документу, до 2036 года количество беспилотных боевых систем должно постоянно увеличиваться, а сами они должны иметь контролируемую самостоятельность, а впоследствии — и полную.
Сегодня уже есть отдельные полностью автономные средства, которые работают без вмешательства оператора (когда речь идет об открытии огня). Это, например, израильская система «Железный купол», орудия Phalanx Gatling на кораблях ВМС США, которые могут уничтожать ракеты и самолеты противника, или система Aegis combat system, которая также может в автономном режиме уничтожать ракеты и самолеты противника. Работает она на кораблях США, Испании, Южной Кореи, Японии и Норвегии.
Правозащитники выражают опасения, что полностью автономные системы не смогут должным образом различать противников и мирное население, из-за отсутствия эмоций будут убивать раненых и сдающихся в плен. Также они могут стать идеальным инструментом для выполнения преступных приказов, например зачистки гражданского населения или подавления бунтов. Кроме этого в случае убийства гражданских такими устройствами почти невозможно будет установить личность, которая понесет за это наказание — тогда оно может расплыться от офицера, который дал приказ на использование устройства в операции, до военного руководства, которое санкционировало их использование. Но в любом случае это наказание не будет на 100 % справедливым.
Военные же, напротив, утверждают, что автономные боевые системы смогут снизить количество жертв как среди участников боевых действий, так и среди мирных жителей. Они также позволят существенно снизить расходы на страховку, медобслуживание и обучение военных, а также сократить численность вооруженных сил в целом, сосредоточившись на подготовке операторов и программистов боевых машин. В случае же, если один из роботов или целая часть система станет принимать неэтичные решения или попросту выйдет из под контроля, должен быть заложен механизм их деактивации как со стороны оператора, так и со стороны самой системы в целом.
Автономные боевые системы имеют еще и то преимущество, что могут использоваться там, где человек просто не выдержит физически. Например, в гиперзвуковых самолетах, условиях сильно загрязненной атмосферы и окружающей среды, глубоко под водой и т. д. С другой стороны, они могут быть уязвимыми для вещей, на которые человек не обращает внимание — тот же сильный электромагнитный импульс может вывести робота из строя, тогда как человек его попросту не заметит. Роботы также станут целью хакеров — зачем уничтожать боевую машину, если можно захватить ее, перепрограммировать и пустить на своих же бывших хозяев?
Подобных вопросов этичного и технологичного плана есть множество. Еще больше — ответов на них, причем зачастую диаметрально противоположных по смыслу. Очевидно одно: внедрение в вооруженных силах различных стран полноценных автономных систем летального оружия и искусственного интеллекта совершит очередную революцию в приемах ведения войны.
Редактор
Не пропустите интересное!
Підписывайтесь на наши каналы и читайте анонсы хай-тек новостей, тестов и обзоров в удобном формате!
Планшет Samsung Galaxy Tab S10 Ultra (SM-X926B): многое
Новый планшет Samsung Galaxy Tab S10 Ultra получил большой 14,6”-экран, топовый процессор Mediatek Dimensity 9300 и стилус S Pen. Попробуем разобраться для чего такой девайс
Смартфоны Oppo Reno13 и Reno13 Pro оснастили MediaTek Dimensity 8350, защиту IP69 и батарею до 5800 мАч MediaTek Oppo смартфон
Oppo представила новые смартфоны Reno13 и Reno13 Pro, ставшие первыми устройствами с чипсетом MediaTek Dimensity 8350
Самим заработать никак: США выплатит Intel грант на $7,9 млрд Intel бизнес США
Сначала Intel должна была получить $8,5 миллиарда, но из-за невыполнения определенных целей и внутренних финансовых трудностей грант сократили до $7,9 миллиарда