Глобальный взгляд Человеческие судьбы

Можно ли не допустить появления «роботов-убийц»?

Можно ли не допустить появления «роботов-убийц»?

Загрузить

Более тысячи ученых и технических экспертов в области искусственного интеллекта, собравшиеся на конференцию в Буэнос-Айресе, потребовали запретить разработку боевых роботов. Авторы открытого письма, и в их числе знаменитый ученый Стивен Хокинг, считают, что боевые автономные роботизированные системы представляют собой угрозу самому существованию человечества. Они предостерегают, что БАРС могут легко попасть в руки террористов и стать новыми «калашниковыми». Напомним, что так называемые «роботы-убийцы» смогут выискивать и оценивать цель и сами принимать решение о применении оружия. Эту проблему уже не раз обсуждали и в ООН. В свое время мы обратились за комментарием к профессору международного права Бахтияру Тузмухамедову.

*****

Я думаю, что эффективный или значительный человеческий контроль прекращается после момента загрузки программы в систему и даже, может быть, когда какой-нибудь служащий вытаскивает, вывозит эту систему на взлетно-посадочную полосу – если мы говорим об аэродинамической системе: все, человеческий контроль утрачивается. И, кстати, за этим следует вопрос и об ответственности. Если машина набедокурила, не имея тормозов этических, гуманных, расстреляла не только законную враждебную цель, но и, скажем, детей, женщин, стариков, которые не имеют отношения к враждебной деятельности, кто несет ответственность? Предположим, если мы говорим о современных беспилотных летательных аппаратах, мы знаем, что есть оператор. Оператор ведет машину, оператор дает последнюю оценку возможной цели и принимает решение на удар. А кто здесь несет ответственность? Тот, кто разрабатывал программу, тот, кто загружал программу в машину, а, может быть, кто-то, кто дистанционно воздействовал -враждебно воздействовал – на эту систему? Это, кстати, тоже, наверное, проблема: как можно защитить компьютер этой полностью автоматизированной системы оружия от внешнего, со стороны, ну, будем говорить так, хакеров. Вот еще одна проблема.

ЕВ: Кассетными боеприпасами начали заниматься после того, как стало понятно, что технология несовершенна, что эти «бомбочки», маленькие снаряды не разрываются, представляют огромную опасность для мирных жителей, особенно для детей. «Беспилотник» не всегда бьёт по нужной цели. Понятно, что рассчитывать, что эти роботы будут безупречны в выборе цели и проведении боевых действий, вряд ли можно. Не лучше ли, как считают некоторые, просто сразу запретить на корню, остановить все эти разработки, чтобы потом не иметь дело с последствиями, не создавать дополнительные протоколы, которые не всегда способны предотвратить жертвы?

БТ: Международное право, оно реактивно, оно реагирует на какую-то ситуацию. Если взять сферу вооружений, то можно вспомнить единичные случаи, когда международное право не реагировало бы на уже существующую ситуацию, а стремилось её предотвратить. В случае с автономными системами, джинн уже из бутылки вылетел.

Не знаю, как его можно было бы загнать назад: наложить всеобщий запрет? Тем более что, наиболее влиятельные государства, которые продвинулись в разработке таких систем дальше всего, они вряд ли пойдут на это. Другое дело, помимо протокола к Конвенции о некоторых видах обычного вооружения, можно было бы, если не подтянуть эти системы под действующие не международно-правовые режимы, то можно воспользоваться их опытом и создать новый режим. Например, есть режим контроля над ракетными технологиями, в котором участвуют основные производители ракет и, соответственно, сопутствующих технологий. Там есть определённые системы ограничений. Это не правовой документ, это не договор, в этом его слабость. Тем не менее, он действует, применяется. Конечно, комплексно решать её, т.е. здесь и Конвенция об обычных видах оружия, и какие-то новые толкования действующих норм международного гуманитарного права, подвёрствывание этих систем под существующие или создание новых внедоговорных режимов контроля над их распространением.

Photo Credit
Робот. Фото ООН.