12 марта 2023, 04:06


Цифровая дегуманизация отменяется?
Для начала предостережение от борцов с военным искусственным интеллектом:"Машины не видят в нас людей, человек для них лишь фрагмент кода, который нужно обработать и отсортировать. От умных домов до использования собак-роботов полицейскими, технологии искусственного интеллекта и автоматизированного принятия решений стали играть большую роль в нашей жизни. На крайнем конце ряда цифровых устройств находятся роботы-убийцы. Если мы допустим связанную с ними дегуманизацию, мы вскоре станем бороться за то, чтобы защитить себя от решений, принятых машиной и в других сферах нашей жизни. Нам нужно запретить прежде всего автономные системы оружия, чтобы предотвратить сползание к цифровой дегуманизации".Пацифисты, требующие заморозить все работы по боевому искусственному интеллекту, делятся на два типа. Первый – это пересмотревшие "Терминаторов" и прочие аналоги. Вторые – оценивающие будущее по современным возможностям боевых роботов. Прежде всего, крылатой беспилотной техники, снаряженной ударными системами. Эпизодов ошибочных или намеренных уничтожений гражданских лиц бепилотниками хватает. На Ближнем Востоке американские дроны уничтожили не одну свадебную церемонию. Операторы летающих роботов идентифицировали праздничную стрельбу в воздух как маркер партизанских перестрелок. Если специально обученный человек не в состоянии с нескольких сот метров определить детали цели, то что говорить об искусственном интеллекте. На данный момент машинное зрение по адекватности восприятия картинки не идет ни в какое сравнение с человеческим глазом и мозгом. Разве что не устает, но и это решается своевременной сменой оператора. Над военным искусственным интеллектом явно сгущаются тучи. С одной стороны, появляется все больше свидетельств скорого технологического прорыва в этой области. С другой – все больше голосов раздается в пользу ограничения или даже запрета работ в этом направлении. Несколько примеров.В 2016 году появилась петиция, в которой видные мыслители и тысячи других людей потребовали не давать искусственному интеллекту летальное оружие. В числе подписантов Стивен Хокинг и Илон Маск. За семь последних лет петиция собрала более 20 тыс. подписей. Помимо сугубо гуманистических опасений, связанных с возможностью бесконтрольного уничтожения людей, есть и юридические нестыковки. Кого будут судить в случае фиксации военных преступлений, совершенных искусственным интеллектом? Оператора дрона, который сжег несколько селений с мирными жителями, легко найти и наказать соответственно. Искусственный интеллект – это продукт коллективного труда программистов. Здесь очень сложно привлечь кого-то одного. Как вариант, можно судить компанию-производитель, например, ту же Boston Dynamics, но тогда кто же будет связываться с производством автономных дронов. Мало у кого будет желание оказаться на скамье подсудимых второго Нюрнбергского трибунала.
Человеческое мышление для ИИ
Пентагон, судя по всему, на пороге некого прорыва в ИИ. Либо его в этом убедили. По-другому нельзя объяснить появление новой директивы, регламентирующей очеловечивание автономных боевых систем. Кэтлин Хикс, заместитель министра обороны США, комментирует: "Учитывая значительный прогресс в области технологий, происходящий вокруг нас, обновление нашей директивы об автономии систем вооружения поможет нам оставаться мировым лидером не только в разработке и развертывании новых систем, но и в области безопасности". Слышали все, кто трепещет перед автономными роботами-убийцами? Американский искусственный интеллект отныне будет самым гуманным. Как и сами американцы, впрочем.