С появлением искусственного интеллекта стало понятно, что рано или поздно он будет задействован в военных целях, после чего возник ряд серьезных этических проблем. К примеру — как ИИ распорядится правом на уничтожение людей, если оно ему будет предоставлено.
На прошлой неделе в Гааге прошла первая международная конференция по ответственному использованию искусственного интеллекта в военной области REAIM 23, созванная по инициативе Нидерландов и Южной Кореи с участием более 60 стран.
По итогам саммита его участники (за исключением Израиля) подписали петицию о том, что страны, которые они представляют, выражают приверженность использованию ИИ в соответствии с международным правом, не подрывая принципов «международной безопасности, стабильности и подконтрольности».
Среди вопросов, которые также обсудили участники REAIM 23 — надежность военного ИИ, непреднамеренные последствия его использования, риски эскалации и степень вовлеченности людей в процесс принятия решений.
По мнению критически настроенных экспертов, данная петиция, будучи не обязательной к исполнению, не решает многих проблем, включая использование ИИ в военных конфликтах, а также БПЛА под управлением искусственного интеллекта.
И такие опасения далеко небезосновательны. Так, один из крупнейших военных подрядчиков США Lockheed Martin сообщил о том, что его новый учебный истребитель, находясь в воздухе около 20 часов, все это время управлялся ИИ. А гендиректор Google Эрик Шмидт поделился своими опасениями по поводу того, что ИИ может сам спровоцировать военные конфликты, в том числе с применением ядерного оружия.