Эксперт предупредил о серьезной проблеме при применении ИИ в бою | Новости MOS.NEWS
80 лет Великой Победе!
Добавить MOS.NEWS в ваши источники в Яндекс-Новости
zen-yandex

Общество

назад

Эксперт предупредил о серьезной проблеме при применении ИИ в бою

Эксперт предупредил о серьезной проблеме при применении ИИ в бою
Внедрение искусственного интеллекта в принятие боевых решений вызывает серьезные вопросы о юридической и этической ответственности за последствия применения силы.

Эксперты предупреждают, что передача контроля от человека к системе ИИ может создать значительный "пробел" в определении ответственных лиц, что существенно осложнит оценку и регулирование действий на поле боя. Заместитель директора Института информационной и медиабезопасности Университета имени Кутафина (МГЮА) Руслан Рашитханов в интервью РИА Новости отметил, что использование ИИ для принятия боевых решений ставит под угрозу традиционные механизмы ответственности и контроля.

По информации агентства Рейтер, Министерство обороны США намерено внедрить систему искусственного интеллекта Maven на постоянной основе в вооруженных силах страны. Эта система уже применяется в операциях, включая нанесение ударов по объектам в Иране, что демонстрирует активное использование ИИ в современных военных действиях. Постепенное расширение роли ИИ в военной сфере поднимает вопросы не только технического характера, но и этического, касающегося правомерности и последствий применения автономных систем.

Таким образом, интеграция искусственного интеллекта в военные решения требует тщательного анализа и разработки новых нормативных рамок, которые смогут обеспечить прозрачность, ответственность и контроль над использованием таких технологий. Без этого существует риск возникновения неопределенности в вопросах ответственности за действия, совершенные автономными системами, что может привести к серьезным международным и правовым конфликтам.

Современные правовые нормы и военные доктрины уделяют особое внимание роли человека в принятии критически важных решений, связанных с применением силы. В контексте использования искусственного интеллекта (ИИ) система рассматривается преимущественно как инструмент информационно-аналитической поддержки, который помогает уполномоченным лицам принимать более обоснованные решения. Однако ключевым принципом остается то, что окончательное юридически значимое решение должно приниматься именно человеком. Если же ИИ начинает самостоятельно принимать решения, фактически замещая волю должностного лица, возникает серьезная правовая и этическая проблема — исчезает четкий субъект ответственности, что создает пробел в системе распределения ответственности за последствия таких решений. Этот пробел может привести к неопределенности в вопросах юридической ответственности и подрыву доверия к правовой системе. В связи с этим российское законодательство и военная доктрина однозначно закрепляют, что никакая техническая система не может заменить человека в принятии решения о применении силы. Таким образом, человек остается центральной фигурой в процессе принятия решений, обеспечивая контроль и ответственность, что является необходимым условием для соблюдения правовых и этических стандартов в сфере безопасности и обороны. Рашитханов подчеркнул, что именно этот подход помогает сохранить баланс между технологическим прогрессом и необходимостью человеческого контроля в критически важных ситуациях.

В современном мире внедрение искусственного интеллекта в военные технологии вызывает множество сложных юридических и этических вопросов, требующих тщательного анализа и регулирования. Особое значение приобретает момент, когда выводы системы ИИ начинают непосредственно влиять на принятие боевых решений, поскольку в этот момент активируется не только внутренний правовой режим самой информационной системы, но и международно-правовой режим, регулирующий средства и методы ведения войны. В частности, это касается положений Дополнительного протокола от 8 июня 1977 года к Женевским конвенциям, который устанавливает важные нормы для использования таких технологий в вооружённых конфликтах.

Как отметил эксперт, согласно статье 36 данного протокола, юридическая оценка должна проводиться не просто алгоритма или технического средства, а конкретной конфигурации его применения в контексте использования силы. Это означает, что анализируется не сама технология, а то, каким образом она интегрирована в боевые операции и как её использование соответствует международным нормам. Кроме того, статья 57 того же протокола накладывает обязательство на стороны конфликта принимать все практически возможные меры предосторожности при проведении нападений. Эти меры направлены на соблюдение ключевых принципов международного гуманитарного права — различения между военными и гражданскими объектами, соразмерности применяемой силы и предосторожности для минимизации ущерба гражданскому населению.

Таким образом, правовое регулирование применения систем искусственного интеллекта в военных действиях требует комплексного подхода, учитывающего как технические особенности ИИ, так и строгие международные нормы, направленные на защиту гуманности в условиях вооружённых конфликтов. Только при соблюдении этих принципов возможно обеспечить законность и этичность использования новых технологий на поле боя, минимизируя риски для гражданских лиц и поддерживая международный порядок.

В современном мире развитие технологий искусственного интеллекта вызывает множество вопросов, связанных с их правовым статусом и этическими аспектами применения в военной сфере. В частности, эксперт подчеркнул, что ни российское законодательство, ни существующие международные правовые нормы не предусматривают признание систем искусственного интеллекта в качестве самостоятельных субъектов, обладающих правом принимать боевые решения. Это означает, что ответственность за применение таких систем в боевых условиях по-прежнему лежит на людях — операторах, командирах и государственных органах. Важно учитывать, что правовые рамки пока не адаптированы к быстрому развитию ИИ, что требует дальнейших исследований и возможного обновления законодательства для обеспечения контроля и предотвращения злоупотреблений. Таким образом, несмотря на технологический прогресс, принятие ключевых решений в военной сфере остается прерогативой человека, что подчеркивает необходимость соблюдения этических норм и международных договоренностей.

Источник и фото - ria.ru

предыдущая новость
вверх
ПОМОЩЬ ОТ MOS.NEWS
Вы можете воспользоваться возможностями Медиахолдинга MOS.NEWS чтобы решить моментально любой юридический вопрос, использование данной возможности бесплатное. Добавить свой сайт

Эксперт предупредил о серьезной проблеме при применении ИИ в бою
Общество
26 марта 2026 12
Внедрение искусственного интеллекта в принятие боевых решений вызывает серьезные вопросы о юридической и этической ответ...
Врач назвала продукты, которыми можно заменить фрукты в марте
Общество
26 марта 2026 22
КЕМЕРОВО, 26 марта – РИА Новости.
СМИ: США изучают последствия цены нефти в $200 из-за событий вокруг Ирана
Общество
СМИ: Израиль перехватил ракеты, запущенные из Ливана
Общество
26 марта 2026 25
МОСКВА, 26 марта – РИА Новости.
Роспотребнадзор рассказал, когда можно вернуть деньги за бронь гостиницы
Общество
Ливии нужна помощь России для расследования атаки на газовоз
Общество
26 марта 2026 21
БЕНГАЗИ, 26 марта – РИА Новости.

Онлайн издание RNTI.ru - актуальные новости России и Мира. Здесь можно получить достоверную и объективную информацию о том, что ежедневно происходит в новостном пространстве. Основной принцип ресурса – правдивое и оперативное освещение событий, соблюдение стандартов качественной журналистики и приоритет интересов москвичей.

Наши партнёры


ГОРОДСКАЯ СЕТЬ ПОРТАЛОВ ГРУППЫ MOS.NEWS