Все новости
Технологии

Более 60 стран согласились с необходимостью контроля за оружием с искусственным интеллектом

22 февраля 2023

С появлением искусственного интеллекта стало понятно, что рано или поздно он будет задействован в военных целях, после чего возник ряд серьезных этических проблем. К примеру — как ИИ распорядится правом на уничтожение людей, если оно ему будет предоставлено.

На прошлой неделе в Гааге прошла первая международная конференция по ответственному использованию искусственного интеллекта в военной области REAIM 23, созванная по инициативе Нидерландов и Южной Кореи с участием более 60 стран.

По итогам саммита его участники (за исключением Израиля) подписали петицию о том, что страны, которые они представляют, выражают приверженность использованию ИИ в соответствии с международным правом, не подрывая принципов «международной безопасности, стабильности и подконтрольности».

Среди вопросов, которые также обсудили участники REAIM 23 — надежность военного ИИ, непреднамеренные последствия его использования, риски эскалации и степень вовлеченности людей в процесс принятия решений.

По мнению критически настроенных экспертов, данная петиция, будучи не обязательной к исполнению, не решает многих проблем, включая использование ИИ в военных конфликтах, а также БПЛА под управлением искусственного интеллекта.

И такие опасения далеко небезосновательны. Так, один из крупнейших военных подрядчиков США Lockheed Martin сообщил о том, что его новый учебный истребитель, находясь в воздухе около 20 часов, все это время управлялся ИИ. А гендиректор Google Эрик Шмидт поделился своими опасениями по поводу того, что ИИ может сам спровоцировать военные конфликты, в том числе с применением ядерного оружия.

Читайте также

МТС поможет найти заблудившихся в лесу людей
В Коломне запустили производство станков для авиастроительной отрасли
Робот Da Vinci учится на хирурга-эксперта с помощью видео проведенных операций