США могут разработать кодекс поведения боевых роботов
Самоуправляемые боевые роботы, которым в будущем предстоит участвовать в войнах и вооруженных конфликтах, должны «жить» в соответствии со строгими правилами, чтобы не представлять угрозу для человечества, а также учиться этике ведения войны.
Такие выводы, сообщает Лента.ру со ссылкой на газету The Times, содержатся в докладе Калифорнийского государственного политехнического университета для ВМС США. Это первая серьезная работа, посвященная этике поведения боевых роботов, всерьез рассматривающая их в качестве солдат, способных принимать самостоятельные решения на поле боя.
В докладе содержатся выводы по поводу того, что познавательная деятельность робота в перспективе может превзойти человеческую деятельность. По словам представителя университета, мнение о том, что робот способен делать лишь то, на что он запрограммирован, является устаревшим.
Современное программное обеспечение разрабатывается множеством специалистов. При этом отдельные участники таких проектов могут не знать особенностей программы в целом. Соответственно, отдельные элементы программного кода в сочетании могут дать самый неожиданный результат без соответствующей практической проверки.
Ученые также предлагают свое видение решения проблемы. По их мнению, новые роботы не должны сразу отправляться на поле боя, а предварительно проходить период обучения, усваивая, что является правильным, а что неправильным. Кроме этого, в своем исследовании они подняли ряд других спорных вопросов, касающихся ответственности за последствия действий роботов, борьбы с хакерами, а также необходимости наличия функции самоуничтожения.
На фото: кадр из фильма «Я, робот»
Сан-Франциско, Семен Смольный
© 2009, NR2.Ru, «Новый Регион», 2.0
Публикации, размещенные на сайте newdaynews.ru до 5 марта 2015 года, являются частью архива и были выпущены другим СМИ. Редакция и учредитель РИА «Новый День» не несут ответственности за публикации других СМИ в соответствии с Законом РФ от 27.12.1991 № 2124-1 «О Средствах массовой информации».