Нравственные принципы для военных роботов|Principes moraux pour les robots militaites

Автор: Лейла Бабаева, Женева, 4. 04. 2013 Просмотров:2059

Фото - Наша газета

Полностью автономные военные роботы, используемые в качестве наступательного оружия – фантастика или реальность? (challenges.fr)

«За веру, царя и Отечество!», «Смело мы в бой пойдём за Русь святую, и как один прольём кровь молодую…» - атаки с патриотическими призывами, кажется, полностью отошли в прошлое. Как будто и к лучшему. Война – явление бесчеловечное, но неизбежное, как уверяли философы с древнейших времен. Человечеству словно необходимо время от времени пережить кровавую бойню для осознания собственных заблуждений. Война заставляет задуматься над истинными ценностями бытия. Но только после того, как война унесет самое ценное – жизнь. И не одну, а подчас сотни и тысячи, сотни тысяч…

Но в последние десятилетия все большее распространение получают военные машины, не нуждающиеся в присутствии человека. Такими роботами может управлять специалист, находящийся за тысячи километров от них. И это уже не сюжеты фантастических фильмов, а реалии наших дней. Впервые такие машины были применены американскими войсками в Ираке, пишет газета The Guardian. В то время был пересечен последний рубеж - роботам дали возможность убивать. В настоящее время Южная Корея и Израиль разрабатывают новые модели военных роботов. Китай, Сингапур и Великобритания активно используют такие машины в военных целях. Крупнейшим производителем техники остаются Соединенные Штаты: к 2015 году американские военные планируют «передать в ведение» роботизированных военных систем одну треть своей наземной боевой техники.

Сегодня нравственное решение о нанесении смертельного удара принимает за полуавтономную машину-робот дистанционный оператор. На повестке дня американских военных стоит вопрос о внедрении полностью автономных машин, которые сами будут принимать решение, кого следует уничтожить, а кого нет. Роботу необходимо будет отличить автобус, перевозящий школьников, от автобуса, в котором следуют террористы. Кто будет в ответе за возможные ошибки техники? Ведь в случае, мягко скажем, неудачного ракетного удара военные с легкой совестью смогут переложить вину на технические неполадки. Кто сможет в таком случае научить машину законам совести?

Этическая сторона применения военной робототехники, по счастью, не ускользнула от военных. Так, армия США финансирует в настоящее время проект по оснащению военных роботов «совестью», чтобы дать им возможность принимать этические решения.

О разработке кодекса этики для военных роботов журналисты Le Temps беседовали с преподавателем IHEID Андреа Бьянки.

Известно, что военные действия, осуществляемые людьми, должны вестись в соответствии с рядом международных документов, в том числе с Женевскими конвенциями. Однако для военной робототехники еще не существует единого общепринятого определения, не говоря уже о международном договоре, который бы запрещал или регулировал ее использование.

Одним из главных вопросов в этой области, как мы уже отмечали, - это способность роботов распознать цель и определить масштабность удара. Как сможет машина отличить гражданское население от солдат или солдата регулярной армии, который хочет сдаться, от боевиков, оказывающих сопротивление? Как искусственный интеллект, вложенный в управление роботом, сможет определить, какую реальную пользу принесет атака и каков при этом риск нанесения вреда гражданскому населению? И в случае совершения нарушения, а то и военного преступления на ком будет лежать вина? На производителе, программисте или разработчике программного обеспечения? А может быть, на командире подразделения, который инициировал операцию? Или на пилоте дистанционного управления в случае с полуавтоматической техникой?

В конечном счете, только человек наделен способностью мыслить и принимать разумные решения. Программисту весьма сложно, а то и просто невозможно предусмотреть все возможные сценарии развития событий ввиду множества исключений при применении правил ведения боя, а также ввиду непредсказуемых боевых ситуаций. Именно по этой причине многие выступают сегодня с жесткой критикой полной автоматизации военной техники: решение о применении смертоносного оружия с целью ликвидации противника должен принимать человек. А, следовательно, необходимо установить такую иерархию командного состава, при которой была бы четко определена компетенция и ответственность каждого и которая бы позволяла покарать виновных в случае нарушения правил ведения боевых действий.

Еще одним аргументом против применения военных роботов является обезличивание военного конфликта, который в таком случае становится чем-то вроде телепередачи или видеоигры. Пилот, управляющий самолетом-роботом из своего кабинета, расположенного где-нибудь в Неваде, оторван от реалий войны. Несмотря на специальную подготовку, у такого офицера создается впечатление, что все происходит в виртуальной реальности. А в глазах общественности военные конфликты будут представляться чем-то нереальным, очень далеким. На страницах газет и на экранах телевизоров не появятся ужасающие картины раненых и убитых, которые могли бы травмировать особо чувствительных граждан. А потому развязать очередную войну намного легче.

Безусловно, применение такой техники имеет и свои преимущества. Например, это позволяет снизить военные расходы, как в плане человеческих потерь, так и в плане финансов. Большинство роботов способны выявить мельчайшие детали на территории противника, что позволит определять местонахождение военных объектов с большей точностью и правильно наносить удары. И, наконец, роботы не подвержены эмоциям, им неведомы ни страх, ни паника, ни стресс, ни жалость. Они не смогут в последний момент дрогнуть перед сомнительностью поставленной задачи, и с этой точки зрения представляют собой универсальных, если не сказать, идеальных солдат.

«Помимо этого, - отметил Андреа Бьянки, - использование роботов усугубит разрыв между развитыми и развивающимися странами, которые не располагают достаточными финансовыми и технологическими ресурсами для оснащения своих войск новейшим вооружением. Единственной стратегией, остающейся в распоряжении «слабой» стороны, становятся террористические акты. А использование дронов и других беспилотных летательных аппаратов может вызвать возмущение со стороны населения страны, на территории которой они применяются, как об этом свидетельствуют антиамериканские настроения в Пакистане. И, наконец, роботизированное вооружение может оказаться в руках самих террористов или других неблагонамеренно настроенных людей».

Какое же решение предлагает профессор Бьянки? Вполне в духе женевских конвенций. «Ввиду стремительного развития военных технологий необходимо оперативно создать соответствующую нормативную базу, - говорит он. – Я скептически отношусь к возможности урегулировать проблему традиционным способом, то есть путем подписания межгосударственного договора. Скорее стоит разработать ряд руководящих принципов или кодекс поведения относительно развития и использования новых систем вооружения. В этом процессе должны участвовать не только государства, но и все другие заинтересованные стороны: ученые, военная промышленность, правительственные и неправительственные организации. В рамках таких принципов возможно предусмотреть и необходимые этические аспекты, связанные с развитием новых военных технологий».

 

Добавить комментарий

Пожалуйста, войдите или зарегистрируйтесь , чтобы отправить комментарий
КУРСЫ ВАЛЮТ
CHF-USD 1.01
CHF-EUR 0.86
CHF-RUB 59.42
СОБЫТИЯ НАШЕЙ ГАЗЕТЫ

ПОПУЛЯРНОЕ ЗА НЕДЕЛЮ

Беременная беженка потеряла ребенка – швейцарский пограничник признан виновным

Трибунал вынес обвинительный приговор в отношении швейцарского пограничника, который в 2014 году отказал в медицинской помощи беременной беженке из Сирии, в результате чего она потеряла ребенка.
Всего просмотров: 1,377

Как швейцарская деревня Альбинен прославилась на весь мир

В последние дни о горной деревне Альбинен в кантоне Вале узнали во всех уголках планеты. Причиной такой популярности стали публикации в СМИ о том, что власти коммуны будут выплачивать всем новым жителям по 25 000 франков. Однако в реальности все оказалось немного иначе.
Всего просмотров: 1,178

Швейцария попала в «серый» налоговый список ЕС

Евросоюз включил Швейцарию в «серый» список стран, которые должны привести свою налоговую политику в соответствие с европейскими нормами. Решение Брюсселя вызвало удивление Берна.
Всего просмотров: 1,011

СЕЙЧАС ЧИТАЮТ

Швейцарское гражданство – инструкция по получению

Фото - Наша газета Мы продолжаем серию публикаций об интересующих наших читателей правовых аспектах жизни в Швейцарии. Сегодня мы расскажем о новых правилах получения гражданства.
Всего просмотров: 103,386

Секс-игрушки для швейцарских детей

Такого мы еще не видели – наглядные пособия для курса сексуального воспитания роздадут детям от 4 до 10 и старше в Базеле. В комплект входят два пупса, книжки с картинками, а также «забавные» плюшевые игрушки, которые имитируют половые органы и вставляются друг в друга совсем по-взрослому.
Всего просмотров: 25,384

Как швейцарская деревня Альбинен прославилась на весь мир

В последние дни о горной деревне Альбинен в кантоне Вале узнали во всех уголках планеты. Причиной такой популярности стали публикации в СМИ о том, что власти коммуны будут выплачивать всем новым жителям по 25 000 франков. Однако в реальности все оказалось немного иначе.
Всего просмотров: 1,178
© 2015 Наша Газета - NashaGazeta.ch
Все материалы, размещенные на веб-сайте www.nashagazeta.ch, охраняются в соответствии с законодательством Швейцарии об авторском праве и международными соглашениями. Полное или частичное использование материалов возможно только с разрешения редакции. В случае полного или частичного воспроизведения материалов сайта Nashagazeta.ch, ОБЯЗАТЕЛЬНА АКТИВНАЯ ГИПЕРССЫЛКА на конкретный заимствованный текст. Фотоизображения, размещенные редакцией Nashagazeta.ch, являются ее исключительной собственностью. Полное или частичное воспроизведение фотоизображений без разрешения редакции запрещено. Редакция не несет ответственности за мнения, высказанные читателями в комментариях и блогерами на их личных страницах. Мнение авторов может не совпадать с мнением редакции.
Scroll to Top
Scroll to Top