Опубликована первая версия проекта Кодекса практик по обеспечению прозрачности синтетического контента Друзья, что мы больше всего любим на этом канале? Правильно – кодексы практик 🤩. Не успели мы отойти от Кодекса практик для ИИ общего назначения, а уже на подходе новый документ – Кодекс практик по обеспечению прозрачности контента, созданного с помощью ИИ (Code of Practice on Transparency of AI-Generated Content). Отдельно отмечу, что это пока что лишь первый драфт, финальный документ мы увид...
howtocomply_AI: право и ИИ
Канал про право и искусственный интеллект. Исчерпывающе, но не всегда лаконично. Дмитрий Кутейников
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
16 из 16NIST опубликовал проект профиля по кибербезопасности для систем ИИ Друзья, давненько у нас не было ничего от NIST. На прошлой неделе был опубликован для публичного обсуждения документ NIST IR 8596 iprd – Cybersecurity Framework Profile for AI (Cyber AI Profile). Это первый комплексный профиль, направленный на управление рисками, специфичными для кибербезопасности в сфере ИИ. Документ пока предварительный, финальная версия появится после получения обратной связи от стейкхолдеров. Что это за профи...
Заменяю вам вечерний сериал на 4,5 часа подкаста про будущее ИИ Друзья, сегодня вышел новый большой выпуск подкаста Лекса Фридмана, посвящённый ключевым трендам в индустрии ИИ на 2026 год. Гости тоже интересные – Натан Ламберт (Allen Institute for AI) и Себастьян Рашка (автор книг по созданию языковых моделей с нуля). Для меня – отличный повод сделать генеральную уборку 🤩.
Сегодня модерирую секцию по ИИ на Privacy Day 2026, приходите Друзья, уже сегодня с 11:35–12:40 по CET (13:35–14:40 по Мск, 15:30–16:40 по Алмате) состоится секция «ИИ-регулирование в Евразии: переход от мягкого к жёсткому?», которую я буду модерировать. Приглашаю всех присоединиться к нам онлайн. Что будем обсуждать? Поговорим про ключевые изменения в нормативных правовых актах отдельных стран Евразии. Благо поводов для дискуссии более чем достаточно: начала действовать глава про ИИ в Цифровом ...
Как измерять риски кибербезопасности в сфере ИИ? Новый подход от исследователей из UC Berkeley В январе вышла статья Toward Risk Thresholds for AI-Enabled Cyber Threats от Center for Long-Term Cybersecurity в UC Berkeley. В исследовании авторы фокусируются на разработке методологии измерения и операционализации пороговых значений для рисков кибербезопасности в сфере ИИ. Первоначально коллектив обратился к фреймворкам по ИИ-безопасности ключевых компаний (Anthropic, OpenAI, Google DeepMind, Amazo...
Как классифицировать ИИ-агентов для целей нормативного правового регулирования? В своем прошлом посте я упомянул про то, что авторы фреймворка по управлению рисками агентных и мультиагентных систем ссылаются на классификацию ИИ-агентов, предложенную в статье Атусы Касирзаде и Джейсона Габриэля "Characterizing AI Agents for Alignment and Governance". Я решил, а почему бы нам не посмотреть на нее, раз мы увидели ссылки на статью в полиси документах 🤩. Авторы выделяют четыре конститутивных свойств...
Использование передовых моделей ИИ в вооружениях: остаётся ли ещё вера в право? Сегодня мы можем констатировать, что применение систем ИИ для убийства людей перешло из разряда редких событий, рассматриваемых с точки зрения этики, в ежедневную рутину. Может ли что-то с этим сделать право? К сожалению, пока ничего. Национальные и наднациональные акты, как правило, прямо исключают сферу обороны и национальной безопасности из своего действия, а нормы международного права не ушли дальше общих принцип...
Разбираем новый профиль к NIST AI RMF по ИИ-агентам Центр долгосрочной кибербезопасности Беркли выпустил новый Agentic AI Risk-Management Standards Profile, который призван дополнить NIST AI RMF и GPAI Risk-Management Standards Profile (писал про это тут) в части специфичных рисков для агентных и мультиагентных систем. В остальном же профиль исходит из тех же четырех ключевых функций, что и NIST AI RMF: Govern, Map, Measure, and Manage. В чем же авторы видят специфику таких систем? Как и в случа...
Что там с Кодексом практик для ИИ общего назначения? Как мы с вами неоднократно обсуждали ранее, в августе 2025 года Еврокомиссией был одобрен Кодекс практик для ИИ общего назначения. Поставщики таких моделей ИИ могут добровольно присоединиться к кодексу для того, чтобы продемонстрировать соответствие требованиям Регламента ЕС по ИИ. В целях обеспечения согласованного применения кодекса подписантами была учреждена специальная Рабочая группа (Signatory Taskforce), председателем которой выступает ...
Бонус – новый вариант единой иконки, которая разрабатывается Еврокомиссией