Стоит признать, что робототехника за последние годы шагнула довольно далеко. Оружие, создаваемое оборонными компаниями, становится умнее, к нему подключают системы искусственного интеллекта, роботы обретают полную автономность и так далее. А это означает, что робот-убийца может стать реальностью раньше, чем мы думаем. По крайней мере, так считают представители PАХ, некоммерческой организации, базирующейся в Нидерландах и выступающей за мир во всем мире. Об этом они сообщили в своем докладе, опубликованном в журнале Quartz.
Зачем создавать роботов-убийц?
Роботы-убийцы предназначены для принятия решений о лишении жизни или сохранении ее самостоятельно, без человеческого контроля. Этот тревожный признак специалисты РАХ назвали «третьей революцией в войне» после изобретения пороха и атомной бомбы. Как активисты, так и государства призывают к созданию свода международных правил, регулирующих создание подобного оружия, или даже прямого запрета на его исплозование. Но некоторые страны, в том числе США, Китай и Российская Федерация, до сих пор не приняли мер по данному вопросу.
Специалисты РАХ выявили по меньшей мере 30 мировых производителей оружия, которые не имеют политики против разработки вышеобозначенных видов систем вооружения. В их число входят американские оборонные фирмы Lockheed Martin, Boeing и Raytheon, китайские государственные конгломераты AVIC и CASC, израильские фирмы IAI, Elbit и Rafael, российский Ростех и турецкая STM.
До тех пор, пока государства не договорились коллективно создать какой-то режим регулирования или, в идеале, превентивный запрет, есть вероятность, что компании будут разрабатывать и производить, а в конечном итоге и использовать оружие, которое не имеет достаточного человеческого контроля. — сказал автор доклада Фрэнк Слипер.
Активисты не считают при этом, что военное применение той или иной системы искусственного интеллекта является проблемой. Проблема именно в том, что такие системы могут стать неподконтрольны человеку. А какое мнение имеете вы по данному вопросу? Выскажитесь в комментариях и в нашем чате в Телеграм.
К примеру, американские военные уже разрабатывают пушку с искусственным интеллектом, которая будет самостоятельно выбирать и поражать цели, а также танки с искусственным интеллектом, которые, смогут «идентифицировать и поражать цели в три раза быстрее, чем любой человек». А STM, турецкая государственная оборонная компания, уже вовсю производит оснащенного искусственным интеллектом робота под названием KARGU. В комплекте с возможностями распознавания лиц, KARGU может автономно выбирать и атаковать цели, используя координаты, предварительно выбранные оператором. Сообщается, что Турция намерена использовать KARGU в Сирии.
PAX больше всего обеспокоены потенциальным развертыванием ИИ в наступательных системах, которые будут выбирать и атаковать цели самостоятельно, без человеческого надзора. Группа задается вопросом о том, каким образом это оружие будет проводить различие между военными и гражданскими лицами. У тому же, юристы до сих пор не знают, кто будет нести ответственность, если автономное оружие нарушит международное право.
При этом в отличие от Google или Amazon, которые столкнулись как с публичной, так и с внутренней реакцией на свою работу над военными системами, компании вроде Lockheed Martin и Raytheon, имеют дела исключительно с военными, поэтому они сталкиваются с минимальной реакцией со стороны партнеров, а также со стороны обычных людей, так как большинство разработок до определенного момента остаются засекреченными.
Читайте также: Почему невозможно создать мыслящего робота?
В то время как развитие автономного оружия продолжается, РАХ считают, что еще есть возможность предотвратить возможную катастрофу. Группа заявила, что компании-производители могут сыграть решающую роль в этом, и должны выступить против производства полностью автономного летального оружия. Что касается систем вооружения с поддержкой искусственного интеллекта, то представители РАХ заявлют, что оборонные фирмы должны следовать некому своду правил, который еще предстоит разработать. Но полностью отказываться от ИИ никто не призывает.