376просмотров
27.4%от подписчиков
24 февраля 2026 г.
questionScore: 414
Использование передовых моделей ИИ в вооружениях: остаётся ли ещё вера в право? Сегодня мы можем констатировать, что применение систем ИИ для убийства людей перешло из разряда редких событий, рассматриваемых с точки зрения этики, в ежедневную рутину. Может ли что-то с этим сделать право? К сожалению, пока ничего. Национальные и наднациональные акты, как правило, прямо исключают сферу обороны и национальной безопасности из своего действия, а нормы международного права не ушли дальше общих принципов и политических деклараций. Вместе с тем большая часть стран, которые могут себе это позволить, активно внедряют системы ИИ в вооружение и инфраструктуру, в чём им активно помогают стартапы и бигтехи. Что же с этим делать? Конечно, мне как юристу хотелось бы увидеть рано или поздно полный конвенциональный запрет на применение систем ИИ в вооружениях, как мы это сейчас видим (хотя бы юридически) для биологического или химического оружия. Авторы статьи Military AI Needs Technically-Informed Regulation to Safeguard AI Research and its Applications, принятой к публикации на NeurIPS 2025, предлагают начать хотя бы с автономных систем вооружений с ИИ (AI-LAWS). Их предполагается выделить в отдельную категорию и внедрить дополнительные меры по управлению рисками, особенно контроль и надзор со стороны человека. Для определения круга таких систем авторы предлагают основываться на двух критериях: • система создана на основе методов ИИ и создаёт специфические риски (ошибочная идентификация целей, непредсказуемая эскалация, дрейф модели после развёртывания и т.д.); • системы ИИ задействованы в частично автономном или полностью автономном поиске целей и применении силы как с человеческим контролем, так и без него. При этом данные критерии основаны на поведении системы, а не на том, каким образом это заявлено производителем. Тут возникает справедливый вопрос, а кто вообще допустит проводить какие-либо оценки, но на это авторы лишь предлагают расширить доступ к AI-LAWS для учёных 🤩. Помимо этого исследователи формулируют некоторые общие выводы для регуляторов: • запрет контроля систем ИИ над ядерным оружием. Включая не только принятие решений о запуске, но и рекомендательные системы; • создание международных стандартов для AI-LAWS. Они должны включать конкретные бенчмарки, пороговые значения и правила документирования, к которым добровольно могут присоединиться страны для обмена информацией по аналогии с интернет-протоколами и финансовым аудитом (если представить, что всем это будет выгодно, конечно); • запрет «ИИ-генералов». Необходимо ввести запрет на применение систем, автономно командующих людьми-военнослужащими с минимальным контролем и надзором со стороны человека; • уточнение правового статуса гражданской ИИ-инфраструктуры по МГП. Согласно Дополнительному протоколу 1 к Женевским конвенциям, гражданские объекты становятся законными военными целями при внесении эффективного вклада в военные действия. Авторы указывают, что без чётких критериев легитимными целями могут стать коммерческие лаборатории, дата-центры и университетские исследовательские центры, а также иная инфраструктура; • институциональные границы между гражданскими и военными ИИ-исследованиями. Так как многие компании постепенно без лишнего шума отказались от прежних обязательств по отказу от сотрудничества со сферой вооружений и госорганами (OpenAI удалила запрет на военное использование, Google отказалась от принципа неприменения ИИ для вооружений и слежки), то нужны прозрачные механизмы финансирования и обеспечения прозрачности участия частных компаний.