819просмотров
13.1%от подписчиков
20 марта 2026 г.
Score: 901
🧠 МИНЦИФРЫ ПРЕДСТАВИЛО ЗАКОН О РЕГУЛИРОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Нейросети прочно входят в нашу повседневную жизнь. Многие из нас хоть единожды спорили с роботом в техподдержке и просили «позвать человека», а также генерировали картинки в ботах, а иногда, увы, становились жертвами мошенников, которые подменяли голоса или изображение при помощи ИИ
С 1 января 2027 года жизнь с нейросетями станет чуть прозрачнее: ведомство впервые показало проект рамочного закона о регулировании ИИ. Главная новость не про штрафы для разработчиков, а про наши с вами права! 🔥 Три новых права, о которых стоит знать
👉 Право знать, что вы общаетесь с машиной
Если вам продают товар или оказывают услугу с помощью нейросети (чат-бота или голосового робота, любого другого способа), вам обязаны об этом сказать. Никакой скрытой автоматизации.
Зачем это нужно: чтобы вы понимали, за чей опыт вы платите - за накопленные ошибки алгоритма или за житейскую мудрость и опыт специалиста
👉 Право отказаться от ИИ
Не хотите, чтобы вашу заявку обрабатывал бот? Имеете право попросить, чтобы услугу оказал живой человек.
Нюанс: перечень случаев, когда можно отказаться от взаимодействия, позже утвердит правительство. Но сам факт - за человеком уже оставляют выбор
👉 Право обжаловать решение, принятое нейросетью
Госорганы и компании с государственным участием будут использовать ИИ для принятия решений. Если такое решение вас не устроило - вы вправе его оспорить в досудебном порядке. Это важно, потому что мы все помним истории, когда «робот ошибся, но это же программа, мы не виноваты»
Плюс: предусмотрена компенсация вреда, если технологии использовали неправомерно 👀 Кто ответит, если нейросеть навредит
Вопрос, который волнует многих: если ИИ сгенерировал фейк, оскорбление, недостоверную информацию или что-то незаконное - кто виноват?
Закон вводит четкое разграничение:
👉 Владельцы сервисов (например, соцсети) обязаны маркировать контент, созданный нейросетями. Если аудитория сервиса превышает 100 000 пользователей в сутки - они обязаны удалять немаркированный контент или маркировать его сами
👉 Ответственность за вред - соразмерно вине. Простыми словами: если разработчик нейросети и владелец ресурса знали (или должны были знать), что их технология может навредить или предоставлять недостоверные сведения, но ничего не сделали - отвечать будут они.
👉 Пользователь отвечает, если умышленно использовал незаконный результат или нарушил правила сервиса.
Важно: если оператор возместил вам ущерб, он может предъявить регрессный иск к разработчику. То есть «крайний» будет определяться в суде 🛡️ Государство и ИИ: доверять будут не всем
Для государственных систем и критической инфраструктуры разрешат использовать только те модели ИИ, которые попадут в специальный реестр доверенных. Безопасность будут оценивать ФСТЭК и ФСБ.
Что это значит для вас: если какая-то госуслуга начнет работать через ИИ - вы можете быть уверены, что модель прошла проверку (по крайней мере, формальную) ⏳ Когда ждать?
Закон вступает в силу 1 сентября 2027 года. Время есть, чтобы перестать спорить с ботами и начать готовиться к новым правилам игры 💬 Как вам идея «права на отказ от взаимодействия с нейросетью»? Поддерживаете или боты справляются лучше людей? 🆘 Столкнулись со сложной жизненной ситуацией? Нужна правовая поддержка? Юристы сервиса Доступное право всегда готовы оказать вам квалифицированную помощь и поддержку! Сайт | Ютуб | Рутуб | Дзен | Вk| Max